大数据学习hdfs详解2(write )
写流程
-
hdfs dfs -ls /
hdfs文件系统的根目录,而不是Linux -
hdfs dfs -ls hdfs://hadoop001:9000/
hdfs://hadoop002:9000
来自core-site.xml
中的配置hdfs dfs -ls
读取当前命令操作的用户的路径 /user/用户/
执行hdfs dfs -ls
是在hadoop用户下操作的
执行hdfs dfs -ls /user/hadoop
检查
hdfs dfs -put NOTICE.txt /
1
. Client(客户端)调用FileSystem.create(filePath),去与NN节点进行RPC通信,check该路径下的文件是否已经存在?
是否有权限创建该文件?
-
假如OK
,就创建一个新的文件,但是不关联任何的block,返回一个FSDataOutputStream对象; -
假如不OK
,就返回错误信息
2
. Client调用FSDataOutputStream对象的write方法,将
第一个块写入第一个DN,第一个DN写完就传输给第二个DN,
第二个DN写完就传输给第三个DN,当第三个DN写完,就返回一个ack packet
给第二个DN,当第二个DN接受到第三个的DN的ack packet,就发送ack packet
给第一个DN,当第一个DN接受到第二个的DN的ack packet,就返回ack packet
给FSDataOutputStream对象,意思标识第一个块 三个副本写完;
然后其余的块依次这样写3
. 当文件全部写完,Client调用FSDataOutputStream对象的close方法,关闭输出流,flush缓存区的数据包。
4
. 再调用FileSystem.complete(),告诉NN节点写入成功