当前位置:首页 > 技术 >

ceph常见操作(docker ceph)

来源:原点资讯(www.yd166.com)时间:2023-11-10 19:58:18作者:YD166手机阅读>>

云和安全管理服务专家新钛云服 祝祥原创

前言

ceph常见操作,docker ceph(1)

Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。

在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cinder后端存储、Glance的镜像存储和虚拟机的数据存储,比较直观的是Ceph集群可以提供一个raw格式的块存储来作为虚拟机实例的硬盘。

Ceph相比其它存储的优势点在于它不单单是存储,同时还充分利用了存储节点上的计算能力,在存储每一个数据时,都会通过计算得出该数据存储的位置,尽量将数据分布均衡,同时由于Ceph的良好设计,采用了CRUSH算法、HASH环等方法,使得它不存在传统的单点故障的问题,且随着规模的扩大性能并不会受到影响。

损坏 Ceph 集群的 10 种方式

以下是破坏 Ceph 集群的 10 种原始方法的摘要。

1、错误的 CRUSH 故障域:

如果您不正确地配置 CRUSH,这可能会导致问题。因此一定需要在您的集群上进行测试,以验证是否按预期处理了故障。

2、停用主机:

这种情况的一个示例是运行 size = 2、min_size = 1并且需要更换一些硬件的集群。归置组只剩下一个磁盘作为副本,如果丢失该磁盘,数据就会丢失。Ceph 集群将不得不被废弃并从头开始重建。

3、删除 MON 数据目录中的“日志”文件:

始终确保监视器有足够的磁盘空间,并且永远不要从其数据目录中手动删除文件。

4、删除错误的池:

在移除池之前仔细检查。更好的是,在移除池之前请其他人查看它。

5 、长时间设置noout标志:

始终确保集群的运行状态为 HEALTH_OK ,并查看集群是否处于 HEALTH_WARN 状态较长时间。

6、使用 nobarrier 选项安装 XFS:

由于新版本之后支持使用 Bluestore,这个问题 100% 解决了。因为 Bluestore 不再使用 XFS。

7、在没有 BBU 的 HBA 上启用写回:

在没有备用电池单元的情况下,切勿在 HBA 中打开写回缓存。

8、创建过多的归置组:

创建归置组时要小心。当集群需要重新re-peer所有归置组时,它可能会损害集群。

9、使用 2 副本:

假如一台主机被下电进行维护。现在,一部分数据依赖于一个磁盘。如果此磁盘发生故障,则所有数据都将丢失。

10、忽视监视器:

建议使用监视器专用硬件。

损坏 Ceph 集群的另外 6 种方法

以下是另外 6种方式的摘要:

11、不了解使用的自动化工具:

简而言之,了解您的自动化工具在做什么,为什么要这样做,并且绝对了解它不应该做什么。您还应该意识到,您的自动化工具应该可以帮助您执行您已经知道的内容。如果你想使用 Ceph,你应该了解 Ceph。例如,如果你想使用 Ceph 和 ceph-ansible,你应该了解 Ceph 和 Ansible。

12、运行 min_size=1:

我们建议您至少运行三个副本。但是,如果你不能,永远不要将你的 min_size 降低到低于 1,或者最好不要将你的冗余对象降低到“0”。确保您始终编写至少 1 个冗余对象。这也适用于纠删码。

13、未完全完成更新:

Ceph 的文档有时缺少部分细节。在某些情况下,根据 Ceph 的通用文档,完成升级工作。但是,如果您查看详细的 Ceph 版本的发行说明,很多步骤都被跳过甚至没有触及。因此,请仔细检查更新是否已完成。

14、过早完成更新:

请确保您不要过早完成升级,并且您确实遵循所有步骤。

15、在负载均衡器后面运行多个有相同 id 的 rbd:

我们有一个客户有 9 个 rbd,但只配置了 3 个后端rbd。对于每个 rbd,他们有 3 个进程在运行。他们都在跳过哪个是活跃的。在负载均衡器后面,这导致数百万个未完成的部分上传。客户的整个集群都满了。接下来,他们添加了新硬件,并且后续仍在添加新硬件。幸运的是,我们发现这是问题所在。为了解决这个问题,我们重命名了 6 个 rbd,清点了所有对象并确保它们都被清理干净。

16、盲目相信你的 PG 自动缩放:

有时候,一直到您写入数据,您才真正发现 PG 的配置不正确。您在写入大量数据的同时也拆分了所有归置组,导致性能非常差,最终严重影响客户应用。除非您额外采取相关措施,否则没有真正的方法可以解决它。

*本文部分图片来源于网络,如有侵权请联系删除

栏目热文

ceph集群搭建方案(ceph集群故障数据如何恢复)

ceph集群搭建方案(ceph集群故障数据如何恢复)

环境规划mon-node10.5.77.61mon-node admin-nodemon-node10.5.77.62m...

2023-11-10 19:23:42查看全文 >>

ceph成功案例

ceph成功案例

导读:从实现多云迁移到实现对Apsara Stack自动化迁移的全面支持,万博智云为自己的产品开启了顶级流量入口,获取客...

2023-11-10 20:05:59查看全文 >>

ceph架构原理(ceph设计原理与实现)

ceph架构原理(ceph设计原理与实现)

本文带你层层深入Ceph的架构原理、读写原理,从而理解Ceph的特性及其应用场景。1. 什么是Ceph?首先,我们从 C...

2023-11-10 19:51:33查看全文 >>

ceph使用教程

ceph使用教程

Ceph是一个开源的分布式存储系统,Java提供了一些对Ceph客户端进行常见操作的库。下面是一些常见的Ceph客户端操...

2023-11-10 19:43:58查看全文 >>

ceph工作原理详解

ceph工作原理详解

1. 概述从本篇文章开始介绍一款现在非常火的分布式文件系统Ceph,包括这款文件系统的安装、基本使用场景、常用管理命令和...

2023-11-10 19:42:56查看全文 >>

一文读懂ceph(一文读懂!究竟什么是量子)

一文读懂ceph(一文读懂!究竟什么是量子)

分布式存储系统本身对数据分布有三个基本诉求,而Ceph的数据分布算法机制则满足了分布式存储所要求的这三个基本诉求,那么这...

2023-11-10 19:35:35查看全文 >>

ceph性能优化方法(ceph入门)

ceph性能优化方法(ceph入门)

一周前,由 Intel 与 Redhat 在10月18日联合举办了 Shanghai Ceph Day。在这次会议上,多...

2023-11-10 19:26:00查看全文 >>

东岳大帝归谁管(东岳大帝什么级别)

东岳大帝归谁管(东岳大帝什么级别)

东岳大帝,即东岳泰山神。泰山自古就有【群山之祖,五岳之宗,天帝之孫,神灵之府】的名称,其山势高大险峻。古人以为泰山能通天...

2023-11-10 19:33:14查看全文 >>

东岳大帝和太上老君谁大(元始天尊和太上老君谁地位高)

东岳大帝和太上老君谁大(元始天尊和太上老君谁地位高)

不论是在西游记或是一些民间传说中,地府永远是最神秘的地方,它也是和死亡挂钩的地方,在我们中国的传统是地府,而在国外称之为...

2023-11-10 19:40:42查看全文 >>

华光大帝和关圣帝君谁大(华光大帝神像图片)

华光大帝和关圣帝君谁大(华光大帝神像图片)

在《西游记》中,关羽有登场。原著第16回写到观音禅院故事时道:好行者,一筋斗跳上南天门里,唬得个庞刘苟毕躬身,马赵温关控...

2023-11-10 19:53:06查看全文 >>

文档排行