当前位置:首页 > 教育 >

hdfs的操作原理(简述hdfs的基本原理)

来源:原点资讯(www.yd166.com)时间:2023-06-19 08:19:02作者:YD166手机阅读>>

HDFS概述

HDFS是一个分布式的文件系统。用于存储文件,通过统一的命名空间——目录树来定位文件。

优点

  1. 高容错性:数据自动保存多个副本,默认是三个副本,副本丢失后,会自动恢复。
  2. 适合批处理:移动计算而非移动数据,批处理的时候,数据量很大,移动数据是不合适的,好的方式是分布式的移动计算。数据位置暴露给计算框架,数据被切分为 block list,block list 存放在哪些node list 上,在 namenode 上,是有这两个维度的记录的
  3. 适合大数据处理:GB、TB、甚至 PB 级数据,当然小数据也是可以的,有相应方法百万规模以上的文件数量10K 节点规模
  4. 流式文件访问:一次性写入,多次读取。保证数据一致性
  5. 可构建在廉价机器上,通过多副本提高可靠性,提供了容错和恢复机制

缺点

  1. 不适合低延迟的数据访问:比如毫秒级,这个 HDFS 是做不到的,HDFS 不适合低延迟的处理场景,适合需要高吞吐率的场景
  2. 不适合小文件存取:每个文件存入 HDFS 都会被切分为一些 blocks ,namenode 中保存了二个维度的映射,1亿个1k 的小文件,文件大小一共 1G,可能占用10G 的内存,这是不合适的(数据仅为假设)。寻道时间超过读取时间,我们知道,在计算机里面寻找文件,是先要寻道(找到文件存在的扇区),再去读取文件,这两步,时间花费主要在寻道,而不是文件读取
  3. 不适合并发写入、文件随机修改:HDFS 中,一个文件只能有一个写者仅支持 append,不支持或者不建议文件修改,这里解释下,HDFS 对于文件的修改方式,先读取数据,修改数据,最后再重新写入一个文件
HDFS 基本架构

HDFS架构

HDFS架构是一个典型的主从架构,包括一个NameNode(主节点)和多个DataNode(从节点)。

NameNode

  • 用于管理文件系统的命名空间、维护文件系统的目录结构树以及元数据信息,记录写入的每个数据块(Block)与其归属文件的对应关系。
  • 此信息以命名空间镜像(FSImage)和编辑日志(EditsLog)两种形式持久化在本地磁盘中。

DataNode

  • DataNode是文件的实际存放位置。
  • DataNode会根据NameNode或client的指令来存储或者提供数据块,并且定期的向NameNode汇报该DataNode存储的数据块信息。

Client

通过Client来访问文件系统,然后由Client与NameNode和DataNode进行通信。Client对外作为文件系统的接口,类似于POSIX。

Blocks

HDFS将文件拆分成128 MB大小的数据块进行存储,这些Block可能存储在不同的节点上。HDFS可以存储更大的单个文件,甚至超过任何一个磁盘所能容纳的大小。一个Block默认存储3个副本(EMR Core节点如果使用云盘,则为2副本),以Block为粒度将副本存储在多个节点上。此方式不仅提高了数据的安全性,而且对于分布式作业可以更好地利用本地的数据进行计算,减少网络传输。

Secondary NameNode

对于非高可用集群,默认会启动一个Secondary NameNode进程。Secondary NameNode的作用是消费EditsLog,定期地合并FsImage和EditsLog,生成新的FsImage文件,降低了NameNode的压力。

高可用

对于高可用集群,默认会启动两个NameNode,一个是Active NameNode,另一个是Standby NameNode,两个NameNode承担不同角色。

Active NameNode负责处理DataNode和Client的请求,Standby NameNode跟Active NameNode一样拥有最新的元数据信息,随时准备在Active NameNode出现异常时接管其服务。如果Active NameNode异常,Standby NameNode会感知到并切换成Active NameNode的角色处理DataNode和Client请求。

hdfs的操作原理,简述hdfs的基本原理(1)

DN 会向 NN 每隔几秒钟发一次心跳,来告诉 NN 自己的状态,当一个 DN 挂掉,NN 没有收到该 DN 的心跳,该 DN 上的数据会被再次备份到其他 node 上,但这会有一个问题,不同的机器,负载情况,记录的数据量不均衡,此时,可以通过 balance 组件,来进行负载均衡,当集群扩容的时候,同样可以调用 banance 组件来处理。

hdfs的操作原理,简述hdfs的基本原理(2)

先介绍下左侧的 NN,它在内存中记录了两个维度(文件结构就是一棵树)的信息

  • file —> block list,这一维度会保存在内存,并被序列化到磁盘,这个树(元信息或者这一维度的记录或者文件镜像)被称之为 fsimage(file system image)
  • block —> node list,这一维度不会被存到磁盘仅保存在内存,其关系的维持,主要靠 DN 周期性的向 NN 汇报自身的 block list ,当调用 balance 的时候,dn 上面的 node list 会发生变化,dn 同样会告知 nn 自身现在的情况

NN 可以配置副本策略,每个 block 及其副本存放在哪些 node 上,可以处理客户端的读写请求,但是具体执行处理请求是 dn 来做

再说右边 Standby NN,这是 hadoop2 之后提出的一个概念 HA,为了解决 NN 的单点故障,之前一直都是 Second NN,Standby NN 会去监控NN 的健康状态,当发现 NN 挂掉以后,Standby NN 会自动切换为 NN。fsimage 因为是被序列化到磁盘,所以当 NN 挂掉或者重启,这部分数据不会丢失,但机器上的 block 信息,如果正好碰到有写入发生,该 node 挂掉,那么数据是不是会丢失呢?答案是不会,原理是:client 每次有写入或者增加一个文件等请求,这时候是会把这些这些操作都会记录到一个 log,也就是fsedit,而不是立马更新到 NN 的 fsimage,重启时,会先加载 fsimage,再去读取 editlog ,这样,NN 中的文件数就是最新的。

详细介绍:

这个树(fsimage)是写到磁盘了,但是现在有一个对这个树的修改,比如说创建了一个文件,这个时候怎么办,这时候可以引入log。如果重启的时候,我先载入 fsimage ,然后我的log记录了我对文件树的整个修改,我对 fsimage 依次的执行 log,就可以把文件树恢复到最新,但是我如果每次都把修改或者改动记录到log,也不行,因为当log越来越大,重启的时候,会越来越慢,这时候就出现了Second NN,他定期的合并fsimage和editlog,然后将最新的 fsimage 发送给 NN,告诉 NN 可以把旧的 fsimage 删掉,用我这个新的替换Second NN,一个较老的名字,Second 没有热备的功能,后来发展发展成为 HA 的 Standby,Standby 承载了一部分 Second 的功能(合并 fsimage 和 editlog),并成为热备HA 与 Federation

HDFS读写I/O

写流程

hdfs的操作原理,简述hdfs的基本原理(3)

HDFS client 创建一个file,会向 NN 申请空间资源,比如写入哪些机器,这些 128M 的块会再次切分成 512字节的package(包含了CRC32的校验,在三个 node 之间验证,来确保数据完整性),因为客户端一次性缓存128M 是比较可怕的事情,会占用大量内存,按照这样的方式依次、流式、串行的写数据

这里为什么不选择同时向三个 DN 写入呢,因为这样会占用更多的带宽,不如串行、流式的写好

写的时候,NN 会生成由三个 DN 构成的一个list,并告诉第一个 DN 要写入的数据以及后面两个 DN 的信息,三个 DN 依次写的时候,有一个 DN 挂掉,则会跳过他,将它从 list 中移除,然后继续入写其余两个 DN

当三个 DN 都遍历写完,DN 才会告知 NN,而不是写完一个 DN 该 DN 就告知 NN

如果一次写入,有两个 DN 都正好挂掉,那么 HDFS 会认为这次写入是失败的,因为这个时候也可能出现唯一写入成功的 DN 挂掉,这违背了 HDFS 高可用高容错性,NN 会重新分配,重新写,这是默认是实现

读流程

hdfs的操作原理,简述hdfs的基本原理(4)

HDFS client 读取文件的时候,会向 NN 去获取一个 block locations ,然后打开输入流,按照就近原则,在相应 DN 上读取数据

就近原则是,本地 > 同机架 >同交换机 > 同机房

同一个机架任意两个节点之间共享 1Gbps 带宽,机架之间带宽为 2-10 Gbps,每个机架通常有16-64 个节点

HDFS内部机制—副本放置策略

hdfs的操作原理,简述hdfs的基本原理(5)

HDFS 访问方式

主要分为 Shell 命令和 API 这两种方式

栏目热文

倩女幽魂手游囤货(倩女幽魂手游怎么买银子)

倩女幽魂手游囤货(倩女幽魂手游怎么买银子)

倩女幽魂手游怎么搬砖?游戏中土豪靠充钱就可以获得强大的实力,平民玩家就只能靠搬砖来慢慢进行人物养成。下面我便为大家带来倩...

2023-06-19 08:24:02查看全文 >>

倩女幽魂手游怎么出大货(倩女幽魂手游新手买什么)

倩女幽魂手游怎么出大货(倩女幽魂手游新手买什么)

倩女幽魂手游的玩家数量适中,需求也不算太大,但是每周四都会开新区,开服频繁,自然而然换区也很频繁。因此,这个游戏有两种主...

2023-06-19 08:49:17查看全文 >>

倩女幽魂手游囤货指南(倩女幽魂手游充值折扣平台)

倩女幽魂手游囤货指南(倩女幽魂手游充值折扣平台)

谈谈本人操作搬了3个多月的倩女幽魂手游桌面版,浅谈一点自己经验,不喜勿喷,请各位大佬手下留情。。。。。首先,我自己最开始...

2023-06-19 08:45:52查看全文 >>

倩女幽魂手游怎么买米(倩女幽魂手游摆摊是什么意思)

倩女幽魂手游怎么买米(倩女幽魂手游摆摊是什么意思)

大家好,我是豹哥,喜欢就一键三连,关注点赞和转发~~网易倩女幽魂手游:以民间故事为背景,主要讲述一个人和鬼魂的故事。玩家...

2023-06-19 08:41:53查看全文 >>

倩女幽魂手游卖经验(倩女幽魂手游卖经验书怎么划算)

倩女幽魂手游卖经验(倩女幽魂手游卖经验书怎么划算)

《倩女幽魂》无论端游还是手游都是值得广大搬砖玩家选择的游戏,游戏背景以《聊斋志异》中《聂小倩》的故事拉开序幕,玩家可以与...

2023-06-19 08:30:39查看全文 >>

hdfs系统架构的读写流程(简述hdfs系统架构及读写流程)

hdfs系统架构的读写流程(简述hdfs系统架构及读写流程)

导读:HDFS(Hadoop Distributed File System)是一种分布式文件系统,可运行在廉价的硬件上...

2023-06-19 08:16:03查看全文 >>

hdfs读取步骤(hdfs读取文件步骤)

hdfs读取步骤(hdfs读取文件步骤)

总流程数据读取请求是由HDFS、NameNode、DataNode共同来完成服务的。下图描述了Hadoop中的文件读取操...

2023-06-19 08:24:02查看全文 >>

常用hdfs操作(hdfs操作流程)

常用hdfs操作(hdfs操作流程)

基本语法bin/hadoopfs具体命令 或者 bin/hdfs dfs 具体命令 dfs是fs的实现类。常用命令实操1...

2023-06-19 08:40:41查看全文 >>

简答hdfs数据读取和写入的流程(hdfs写数据流程通俗易懂)

简答hdfs数据读取和写入的流程(hdfs写数据流程通俗易懂)

一.HDFS读流程(文件下载)为了降低整体的带宽消耗和读取延时,HDFS会尽量让读取程序读取离它最近的副本。如果在读取程...

2023-06-19 08:44:23查看全文 >>

hdfs读写步骤(描述HDFS读写过程)

hdfs读写步骤(描述HDFS读写过程)

概述HDFS(Hadoop Distributed File System)是GFS的开源实现。HDFS的优缺点1、优点...

2023-06-19 08:43:17查看全文 >>

文档排行