这是我参与更文挑战的第14天,活动详情查看:更文挑战
上一篇:Hadoop框架之HDFS概述,小编和大家一起认识了HDFS。但是终究我们还是要工作、做实事的,今天就带大家一起进行Shell操作。这个看似简单的内容确实比开发重点,大家不可忽视!
下面就开始今天的学习内容:Hadoop框架之常见Shell操作命令(开发重点)。对Shell不熟悉的朋友们,可以参看以下2篇文章:
第一篇:Shell入门编程基础篇
第二篇:Shell入门编程进阶篇
0.准备工作:启动集群
启动集群,注意每次启动是要查看启动状态
1. 基本语法
bin/hadoop fs 具体命令 OR bin/hdfs dfs 具体命令
dfs是fs的实现类。
2. 命令大全
hadoop fs的命令如下:
hdfs dfs的命令如下:
3. 常用命令实操
(0)启动Hadoop集群(方便后续的测试)
(1)-help:输出这个命令参数
(2)-ls: 显示目录信息
(3)-mkdir:在HDFS上创建目录,多级命令加-p
(4)-moveFromLocal:从本地剪切粘贴到HDFS
(5)-appendToFile:追加一个文件到已经存在的文件末尾
(6)-cat:显示文件内容
(7)-chgrp 、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限
(8)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去
(9)-copyToLocal:从HDFS拷贝到本地
(10)-cp :从HDFS的一个路径拷贝到HDFS的另一个路径
(11)-mv:在HDFS目录中移动文件
(12)-get:等同于copyToLocal,就是从HDFS下载文件到本地
(13)-getmerge:合并下载多个文件,比如HDFS的目录 /user/atguigu/test下有多个文件:log.1, log.2,log.3,...
(14)-put:等同于copyFromLocal
(15)-tail:显示一个文件的末尾
(16)-rm:删除文件或文件夹
(17)-rmdir:删除空目录
(18)-du统计文件夹的大小信息
(19)-setrep:设置HDFS中文件的副本数量
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。
今天学习内容到此结束,后续继续学习,请保持关注!更多精彩内容,请关注公众号:小韩学长带你学