ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

hdfs的块大小以及hdfs的读写流程

2022-05-21 21:02:44  阅读:217  来源: 互联网

标签:hdfs 读写 packet dn1 dn2 NameNode 流程 客户端


  • hdfs上的文件是以块为单位进行存储的

    大小一般设置为128m,不能太小,也不能太大。

详细情况看以下链接

hdfs块大小设置原因

  • hdfs的写数据流程

(1)客户端向 NameNode 请求上传文件,NameNode 检查目标文件是否已存在,父目录是否存在。

(2)NameNode 返回是否可以上传

(3)客户端请求第一个 Block 上传到哪几个 DataNode 服务器上

(4)NameNode 返回 比如3 个 DataNode 节点,分别为 dn1、dn2、dn3。这些节点由计算最短距离得到

(5)客户端将需要上传的数据封装为一个个的 chunk,当chunk累计大小到达64k时,就将这他们封装为一个packet,一个个的packet组成packet队列,等待上传。

         与此同时,还有一个ACK队列存在,ACK队列不但保存校验信息,还会保存一份packet数据,以供dn写入数据失败重新读取。

(6)客户端请求 dn1 上传数据,dn1 收到请求会继续调用dn2,然后 dn2 调用 dn3,将这个通信管道建立完成。

(7)dn1、dn2、dn3 逐级应答客户端。

(8)客户端开始往 dn1 上传第一个 Block(先从磁盘读取数据放到一个客户端的本地内存缓存,达到64k就封装成一个packet放入packetc队列),以 Packet 为单位,dn1 收到一个 Packet 就会传给 dn2,dn2 传给 dn3;dn1 每传一个 packet

         会放入一个应答队列等待应答。注意客户端将一个文件分割成多个block块存储到hdfs上,这里的dn1传给dn2,dn2传给dn3是在做每个block块的备份,hdfs默认是3份,所以这里举例三个节点

(9)当一个 Block 传输完成之后,客户端再次请求 NameNode 上传第二个 Block 的服务

器。(重复执行 3-7 步)。

  • hdfs读数据流程

(1)客户端 向 NameNode 请求下载文件,NameNode 通过查询元数据,找到文件块所在的 DataNode 地址。

(2)挑选一台 DataNode服务器,优先找最近的节点读取,如 DataNode1, block1。若最近的节点负载过高,则找下个节点读取下个block,如DataNode2, block2。请求读取数据。

(3)DataNode 开始传输数据给客户端(从磁盘里面读取数据输入流,以 Packet 为单位来做校验)。hdfs是以block块来存储的,但是datanode和客户端之间传递数据是以组成每个block块的packect为单位来传输的。

(4)客户端以 Packet 为单位接收,先在本地缓存,然后写入目标文件

 

标签:hdfs,读写,packet,dn1,dn2,NameNode,流程,客户端
来源: https://www.cnblogs.com/xstCoding/p/16295993.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有