大数据学习hdfs详解2(write )

写流程

  • hdfs dfs -ls / hdfs文件系统的根目录,而不是Linux
  • hdfs dfs -ls hdfs://hadoop001:9000/
    hdfs://hadoop002:9000 来自core-site.xml中的配置
    hdfs dfs -ls 读取当前命令操作的用户的路径 /user/用户/
    执行hdfs dfs -ls是在hadoop用户下操作的
    执行hdfs dfs -ls /user/hadoop检查

大数据学习hdfs详解2(write )
大数据学习hdfs详解2(write )

hdfs dfs -put NOTICE.txt /

1. Client(客户端)调用FileSystem.create(filePath),去与NN节点进行RPC通信,check该路径下的文件是否已经存在?

是否有权限创建该文件?

  • 假如OK,就创建一个新的文件,但是不关联任何的block,返回一个FSDataOutputStream对象;
  • 假如不OK,就返回错误信息
    大数据学习hdfs详解2(write )
    大数据学习hdfs详解2(write )
    大数据学习hdfs详解2(write )

2. Client调用FSDataOutputStream对象的write方法,将
第一个块写入第一个DN,第一个DN写完就传输给第二个DN,
第二个DN写完就传输给第三个DN,当第三个DN写完,就返回一个ack packet
给第二个DN,当第二个DN接受到第三个的DN的ack packet,就发送ack packet
给第一个DN,当第一个DN接受到第二个的DN的ack packet,就返回ack packet
给FSDataOutputStream对象,意思标识第一个块 三个副本写完;
然后其余的块依次这样写
3. 当文件全部写完,Client调用FSDataOutputStream对象的close方法,关闭输出流,flush缓存区的数据包。

4. 再调用FileSystem.complete(),告诉NN节点写入成功

Hdfs写流程图

大数据学习hdfs详解2(write )