一个具有层级结构的crushmap示例
前面我们较为详细的介绍了crush算法,为了进一步理解并掌握crush算法,这里我们给出一个具有层级结构的crushmap示例。本文参考:CRUSHMAP : Example of a Hierarchical Cluster Map
前面我们较为详细的介绍了crush算法,为了进一步理解并掌握crush算法,这里我们给出一个具有层级结构的crushmap示例。本文参考:CRUSHMAP : Example of a Hierarchical Cluster Map
本文介绍以下straw2算法,它具有在增加、删除OSD时减少数据移动方面具有重要的作用。
本文接上篇《crushmap详解-2》,结合ceph源代码及其他参考资料来详尽的探讨具体的crush算法。为了参看的方便,下面我们继续列出当前的crushmap:
本文主要通过一个crushmap的例子,来探讨crushmap将PG映射到OSD的过程。
本文从一个具体的crushmap.txt文件入手,讲述其通过crushtool生成crushmap.bin文件的过程。
本章介绍一下IP数据包经过路由器的过程。
本文记录一下vmware虚拟机三种网络模式:
本文主要介绍Linux运维方面的一些常见的命令的用法:
本文主要讲述一下Linux操作系统上的一些资源限制,做一个记录。我们当前的操作系统环境为:
# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.3.1611 (Core) Release: 7.3.1611 Codename: Core
本文介绍一下如何从OSD来恢复monitor。
当前生产环境中我们所使用的ceph版本为jewel版本:
# ceph --version ceph version 10.2.10 (5dc1e4c05cb68dbf62ae6fce3f0700e4654fdbbe)
因此,这里我们也以该版本为例来介绍ceph源代码的编译。当前我们的操作系统环境如下(ceph编译时需要耗费极大量的内存,建议内存至少4G以上):
# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.3.1611 (Core) Release: 7.3.1611 Codename: Core
当前生产环境中我们所使用的ceph版本为jewel版本:
# ceph --version ceph version 10.2.10 (5dc1e4c05cb68dbf62ae6fce3f0700e4654fdbbe)
因此,这里我们也以该版本为例来介绍ceph源代码的编译。当前我们的操作系统环境如下(ceph编译时需要耗费极大量的内存,建议内存至少4G以上):
# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.3.1611 (Core) Release: 7.3.1611 Codename: Core
搭建好ceph集群后的第一件事,往往是做一下性能测试,本文讲的性能测试主要包括:
本文结合源代码来分析一下ceph中up_thru的作用及其要解决的问题。大家都知道,OSDMap的作用之一便是维护Ceph集群OSD的状态信息,所以基于此想先提出一个疑问: Ceph集群中有1个osd down了,那么osdmap会发生什么变化? osdmap会更新几次? 带着这个问题,本文深入探讨up_thru。
本文从源代码出发,分析产生pg_temp的场景,及其要解决的问题、
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
本文主要讲述一个初始状态为active+clean了ceph集群,从OSDmap及PGMap的视角观察一个OSD从(in + up)状态到(in + down)状态,再到(out + down)状态这一过程的变化,并结合OSD的日志信息以期对PG peering过程有一个初步的了解。