HDFS:基本概念

1、简介
HDFS(Hadoop Distributed File System )是Hadoop分布式文件系统。HDFS设计理念之一就是让它能运行在普通的硬件之上,即便硬件出现故障,也可以通过容错策略来保证数据的高可用。

2、基本概念
块-block:HDFS的文件被分成多个块进行存储,HDFS块的默认大小是64MB,块是文件存储管理的逻辑单元。每一个block会在多个datanode上存储多份副本,默认是3份。
NameNode:管理节点,存放文件元数据(文件的基本信息)
(1) 文件与数据块的映射表
(2) 数据块与数据节点的映射表
DataNode:工作节点,存放数据块,大部分容错机制都是在datanode上实现的。
数据副本:每个数据块三个副本,分布在两个机架内的三个节点(A,B,C,D,E)
心跳检测:DataNode定期向NameNode发送心跳消息。
二级NameNode:定期同步元数据映像文件和修改日志,NameNode发生故障时,备胎装转正。

3、HDFS体系结构

HDFS:基本概念

4、HDFS的特点

(1) 数据冗余,硬件容错
(2) 流式的数据访问(一次写入,多次读取,一旦写入,不能更改)
(3) 存储大文件
适用性和局限性:
(1) 适合数据批量读写,吞吐量高
(2) 不适合交互式应用,低延迟很难满足
(3) 适合一次写入多次读取,顺序读取
(4) 不支持多用户并发写相同文件