前提条件
代码编译完成,并make install完成
集群搭建
1. 创建mon
ceph-deploy new host01
2.初始化监控服务
ceph-deploy –overwrite-conf mon create-initial
3.创建osd
正常情况下一个osd对应一个硬盘,硬盘的个数决定了部署osd的个数。但是在个别情况下主机上只有一个硬盘,可以将硬盘中的一个分区做成逻辑卷,然后以目录代替硬盘部署osd。
(1). 使用#fdisk -l查看硬盘信息
该主机中只有一个硬盘sda,并且有三个分区sda1、sda2和sda3。下一步将sda3做成一个逻辑卷。
(2). 建立物理卷
pvcreate /dev/sda3
查看物理卷信息:pvdisplay
(3). 建立卷组
vgcreate vg_bkeep /dev/sda3
查看卷组信息vgdisplay
(4). 建立逻辑卷
lvcreate -n data -L 600G vg_bkeep
注意:该步骤中的600G,即为将来每一个osd的大小。
查看逻辑卷lvdisplay
(5). 将逻辑卷格式化为xfs格式
mkfs.xfs /dev/vg_bkeep/data
(6). 将逻辑卷挂载到一个目录下
mount /dev/vg_bkeep/data /var/lib/ceph/osd/
(7). 创建目录代替osd
在//var/lib/ceph/osd/目录下创建ceph-0,ceph-1,ceph-2…等目录,一个osd目录代表一个硬盘,可以部署一个osd。
/* (8). 创建osd目录
mkdir -p /var/lib/ceph/osd
*/
(9).格式化硬盘并创建osd
for i in {0..3}; do ceph-deploy–overwrite-conf osd prepare host01:/var/lib/ceph/osd/ceph-$i; done
执行所有的osd目录
(10) active所有磁盘(选做,如果osd没有in且up,则需要执行)
for i in {0..11}; do ceph-deploy osd activate host01:/var/lib/ceph/osd/ceph-$i;done
4. 创建mds
(1).创建mds目录
mkdir /var/lib/ceph/mds/mds0
(2).创建mds
ceph-deploy mds create host01:0
5. 更改crushmap的故障域为osd
6. 创建池子
ceph osd pool create mpool 1024 1024
ceph osd pool create dpool 1024 1024
7. 创建文件系统
ceph fs new hostfs mpool dpool