当前位置:首页 > 技术 >

ceph性能优化方法(ceph入门)

来源:原点资讯(www.yd166.com)时间:2023-11-10 19:26:00作者:YD166手机阅读>>

一周前,由 Intel 与 Redhat 在10月18日联合举办了 Shanghai Ceph Day。在这次会议上,多位专家做了十几场非常精彩的演讲。本文就这些演讲中提到的 Ceph性能优化方面的知识和方法,试着就自己的理解做个总结。

0. 常规的 Ceph 性能优化方法

(1). 硬件层面

  • 硬件规划:CPU、内存、网络
  • SSD选择:使用 SSD 作为日志存储
  • BIOS设置:打开超线程(HT)、关闭节能、关闭 NUMA 等

(2). 软件层面

  • Linux OS:MTU、read_ahead 等
  • Ceph Configurations 和 PG Number 调整:使用 PG 计算公式(Total PGs = (Total_number_of_OSD * 100) / max_replication_count)计算。
  • CRUSH Map

更多信息,可以参考下面的文章(请自行搜索):

  • Ceph性能优化总结(v0.94)
  • Measure Ceph RBD performance in a quantitative way 1,2
  • Ceph性能调优——Journal与tcmalloc
  • Ceph Benchmarks
  • 官方的 CEPH CUTTLEFISH VS BOBTAIL PART 1: INTRODUCTION AND RADOS BENCH
1. 使用分层的缓存层 - Tiered Cache

显然这不是一个 Ceph 的新特性,在会议上有这方面的专家详细地介绍了该特性的原理及用法,以及与纠错码方式结合的细节。

ceph性能优化方法,ceph入门(1)

简单概括:

  • 每一个缓存层次(tiered cache)使用一个 RADOS pool,其中 cache pool 必须是拷贝(replicated)类型,而 backing pool 可以是拷贝类型也可以是纠错码类型。
  • 在不同的缓存层次,使用不同的硬件介质,cache pool 使用的介质必须比 backing pool 使用的介质速度快:比如,在 backing pool 使用一般的存储介质,比如常规的HDD或者 SATA SDD;在 cache pool 使用快速介质,比如 PCIe SDD。
  • 每一个 tiered cache 使用自己的 CRUSH rules,使得数据会被写入到指定的不同存储介质。
  • librados 内在支持 tiered cache,大多数情况下它会知道客户端数据需要被放到哪一层,因此不需要在 RDB,CephFS,RGW 客户端上做改动。
  • OSD 独立地处理数据在两个层次之间的流动:promotion(HDD->SDD)和 eviction(SDD -> HDD),但是,这种数据流动是代价昂贵(expensive)和耗时的(take long time to “warm up”)。
2. 使用更好的 SSD - Intel NVM Express (NVMe) SSD

在 Ceph 集群中,往往使用 SSD 来作为 Journal(日志)和 Caching(缓存)介质,来提高集群的性能。下图中,使用 SSD 作为 Journal 的集群比全 HDD 集群的 64K 顺序写速度提高了 1.5 倍,而 4K 随机写速度提高了 32 倍。

ceph性能优化方法,ceph入门(2)

而Journal 和 OSD 使用的 SSD 分开与两者使用同一块SSD,还可以提高性能。下图中,两者放在同一个 SATA SSD 上,性能比分开两块 SSD (Journal 使用 PCIe SSD,OSD 使用 SATA SSD),64K 顺序写速度下降了 40%,而 4K 随机写速度下降了 13%。

ceph性能优化方法,ceph入门(3)

因此,更先进的 SSD 自然能更加提高Ceph 集群的性能。SSD 发展到现在,其介质(颗粒)基本经过了三代,自然是一代比一代先进,具体表现在密度更高(容量更大)和读写数据更快。目前,最先进的就是 Intel NVMe SSD,它的特点如下:

  • 为 PCI-e 驱动器定制的标准化的软件接口
  • 为 SSD 定制(别的是为 PCIe 所做的)
  • SSD Journal : HDD OSD 比例可以从常规的 1:5 提高到 1:20
  • 对全 SSD 集群来说,全 NVMe SSD 磁盘Ceph 集群自然性能最好,但是它造价太高,而且性能往往会受限于网卡/网络带宽;所以在全SSD环境中,建议的配置是使用 NVMe SSD 做 Journal 而使用常规 SSD 做 OSD 磁盘。

同时,Intel SSD 还可以结合 Intel Cache Acceleration Software 软件使用,它可以智能地根据数据的特性,将数据放到SSD或者HDD:

ceph性能优化方法,ceph入门(4)

首页 1234下一页

栏目热文

一文读懂ceph(一文读懂!究竟什么是量子)

一文读懂ceph(一文读懂!究竟什么是量子)

分布式存储系统本身对数据分布有三个基本诉求,而Ceph的数据分布算法机制则满足了分布式存储所要求的这三个基本诉求,那么这...

2023-11-10 19:35:35查看全文 >>

ceph常见操作(docker ceph)

ceph常见操作(docker ceph)

云和安全管理服务专家新钛云服 祝祥原创前言Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将...

2023-11-10 19:58:18查看全文 >>

ceph集群搭建方案(ceph集群故障数据如何恢复)

ceph集群搭建方案(ceph集群故障数据如何恢复)

环境规划mon-node10.5.77.61mon-node admin-nodemon-node10.5.77.62m...

2023-11-10 19:23:42查看全文 >>

ceph成功案例

ceph成功案例

导读:从实现多云迁移到实现对Apsara Stack自动化迁移的全面支持,万博智云为自己的产品开启了顶级流量入口,获取客...

2023-11-10 20:05:59查看全文 >>

ceph架构原理(ceph设计原理与实现)

ceph架构原理(ceph设计原理与实现)

本文带你层层深入Ceph的架构原理、读写原理,从而理解Ceph的特性及其应用场景。1. 什么是Ceph?首先,我们从 C...

2023-11-10 19:51:33查看全文 >>

东岳大帝归谁管(东岳大帝什么级别)

东岳大帝归谁管(东岳大帝什么级别)

东岳大帝,即东岳泰山神。泰山自古就有【群山之祖,五岳之宗,天帝之孫,神灵之府】的名称,其山势高大险峻。古人以为泰山能通天...

2023-11-10 19:33:14查看全文 >>

东岳大帝和太上老君谁大(元始天尊和太上老君谁地位高)

东岳大帝和太上老君谁大(元始天尊和太上老君谁地位高)

不论是在西游记或是一些民间传说中,地府永远是最神秘的地方,它也是和死亡挂钩的地方,在我们中国的传统是地府,而在国外称之为...

2023-11-10 19:40:42查看全文 >>

华光大帝和关圣帝君谁大(华光大帝神像图片)

华光大帝和关圣帝君谁大(华光大帝神像图片)

在《西游记》中,关羽有登场。原著第16回写到观音禅院故事时道:好行者,一筋斗跳上南天门里,唬得个庞刘苟毕躬身,马赵温关控...

2023-11-10 19:53:06查看全文 >>

东岳大帝和三官大帝哪个大(东岳大帝黄飞虎神像)

东岳大帝和三官大帝哪个大(东岳大帝黄飞虎神像)

一、冥界北阴酆都大帝道教中称主管地府冥界的最高神灵为北阴酆都大帝,简称酆都大帝。他是道教尊神中的五方鬼帝和十殿阎罗的上司...

2023-11-10 19:55:22查看全文 >>

关圣帝君和东岳大帝谁大

关圣帝君和东岳大帝谁大

说起我国的神话传说故事,那就离不开《西游记》这部神魔小说,小说为明代吴承恩所著,它主要讲述了唐僧师徒四人前往西天取经,一...

2023-11-10 19:28:42查看全文 >>

文档排行