crushmap算法详解-1
本文从一个具体的crushmap.txt文件入手,讲述其通过crushtool生成crushmap.bin文件的过程。
本文从一个具体的crushmap.txt文件入手,讲述其通过crushtool生成crushmap.bin文件的过程。
本章介绍一下IP数据包经过路由器的过程。
本文记录一下vmware虚拟机三种网络模式:
本文主要介绍Linux运维方面的一些常见的命令的用法:
本文主要讲述一下Linux操作系统上的一些资源限制,做一个记录。我们当前的操作系统环境为:
# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.3.1611 (Core) Release: 7.3.1611 Codename: Core
本文介绍一下如何从OSD来恢复monitor。
当前生产环境中我们所使用的ceph版本为jewel版本:
# ceph --version ceph version 10.2.10 (5dc1e4c05cb68dbf62ae6fce3f0700e4654fdbbe)
因此,这里我们也以该版本为例来介绍ceph源代码的编译。当前我们的操作系统环境如下(ceph编译时需要耗费极大量的内存,建议内存至少4G以上):
# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.3.1611 (Core) Release: 7.3.1611 Codename: Core
当前生产环境中我们所使用的ceph版本为jewel版本:
# ceph --version ceph version 10.2.10 (5dc1e4c05cb68dbf62ae6fce3f0700e4654fdbbe)
因此,这里我们也以该版本为例来介绍ceph源代码的编译。当前我们的操作系统环境如下(ceph编译时需要耗费极大量的内存,建议内存至少4G以上):
# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.3.1611 (Core) Release: 7.3.1611 Codename: Core
搭建好ceph集群后的第一件事,往往是做一下性能测试,本文讲的性能测试主要包括:
本文结合源代码来分析一下ceph中up_thru的作用及其要解决的问题。大家都知道,OSDMap的作用之一便是维护Ceph集群OSD的状态信息,所以基于此想先提出一个疑问: Ceph集群中有1个osd down了,那么osdmap会发生什么变化? osdmap会更新几次? 带着这个问题,本文深入探讨up_thru。
本文从源代码出发,分析产生pg_temp的场景,及其要解决的问题、
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
接着上一章,我们这里结合osd3_watch.txt
日志文件,以及pgmap_active_clean.txt、pgmap_in_down.txt、pgmap_out_down.txt,从中选出4
个具有代表性的PG,来分析一下osd0从in+up
到in+down
再到out+down
这一整个过程中PG所执行的动作。
本文主要讲述一个初始状态为active+clean了ceph集群,从OSDmap及PGMap的视角观察一个OSD从(in + up)状态到(in + down)状态,再到(out + down)状态这一过程的变化,并结合OSD的日志信息以期对PG peering过程有一个初步的了解。
本文主要讲述ceph OSD从 (in + up)状态到(in + down)状态,再到(out + down)状态这一整个过程中PG的变化情况。
本文主要讲述在ceph运行过程中,物理机由于断电等原因突然down掉的情况下集群的表现,以及针对可能出现的状况的相应处理方法。
本文主要讲述在ceph运行过程中,当磁盘容量接近或者超过mon_osd_full_ratio时,在整个ceph集群拒绝任何读写的情况下如何去扩容这样一个问题。文章主要包括如下几个部分:
Ceph storage cluster中涉及到大量的命令,在ceph运维的过程中会经常用到。这里对其做一个简单的梳理。ceph命令主要分为一下几大类: