大数据学习之HDFS常用命令
使用PuTTY工具,以客户端安装用户登录安装客户端的节点:
即打开PuTTY工具,输入ServiceCenter申请云主机的IP地址:例:190.28.58.153
切换至FusionInsight_Services_Client客户端的安装目录,如果未安装,先安装客户端:
安装成功之后配置客户端环境变量:
切换至客户端安装目录:
Cd /opt/huawei/client
配置环境变量:source bigdata_env
进行用户认证:kinit mineruser01
输入密码:Huawei&9r2
HDFS文件操作常用命令:
(1)列出HDFS下的文件
hdfs dfs -ls <目录>
(2)上传文件
将Linux系统本地文件上传到HDFS中
hdfs dfs -put <本地文件> <HDFS文件>
(3)下载文件
将HDFS 中的文件下载到Linux系统本地目录
hdfs dfs -get <HDFS文件> <本地文件>
(4)查看文件
hdfs dfs -cat <HDFS文件>
(5)建立目录
hdfs dfs -mkdir <目录>
(6)删除文件
hdfs dfs -rm -r <文件>
(7)复制文件
hdfs dfs -copyFromLocal <要复制的文件路径> <要放置文件的路径>
还有很多命令,大部分是Linux的shell命令前面加上 hadoop dfs -cmd <参数 / 选项>
参考:http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/FileSystemShell.html