系统运输
创建PVE虚拟化群集
1 )首先安装三台PVE主机。 安装步骤请参考本站前面的文章。
2、PVE主机安装完成后,创建PVE集群虚拟化集群。
必须通过pve _ shell创建。
3 .在PVE1节点上执行以下命令:
pvecm create vclusters
4 )在其他两个节点上执行以下命令以加入群集
pvecm add 192.168.77.160
即使successfullyaddednode‘pve-2’to cluster成功了
5 )查看PVE集群的状态,确认集群是否正确建立
在PVE-1节点上
pvecm status
root@pve-1:~# pvecm status
配额信息
Date: Wed Jul 3 11:27:05 2019
quorum provider:coro sync _ vote quorum
Nodes: 3
Node ID:0x00000001
Ring ID: 1/12
quo rate :是
vote quorum信息
Expected votes: 3
Highest expected: 3
Total votes: 3
Quorum: 2
Flags: Quorate
成员信息
Nodeid Votes Name
0x000000011192.168.77.160(local ) )。
0x00000002 1 192.168.77.170
0x00000003 1 192.168.77.180
所有节点都已加入群集
在所有节点上使用以下命令安装Ceph : ( ceph也可以单独安装融合,单独安装的ceph也可以使用其他,可以根据需要使用)
pveceph安装-版本控制
所有节点都已加入群集
在所有节点上使用以下命令安装Ceph : ( ceph也可以单独安装融合,单独安装的ceph也可以使用其他,可以根据需要使用)
pveceph安装-版本控制
配置ceph群集存储网络,并在所有节点上运行
pvecephinit-network 192.168.77.0/24
创建ceph群集存储Mon监视,并在所有节点上运行以下命令
pveceph createmon
查看硬盘信息
root@pve-1:~# lsblk
name maj:minrmsizerotypemountpoint
sda8:00 20g 0磁盘
sda18:101007 k 0部件
sda28:20512 m 0部件
(sda38:30 ) 19.5 G0部件
( PVE-swap253:00 ) 2.4g0LVM[swap]
PVE-root253:10 ) 4.8g0LVM/
PVE-data_tmeta253:20(1g0LVM
()PVE-data253:40 ) 8g0LVM
(PVE-data_tdata253:30(8g0LVM
(PVE-data253:40 ) 8g0LVM
sdb8: 16050g 0磁盘
SDC8: 32050g 0磁盘
SDD8: 48050g 0磁盘
sr0 11:0 1 655.3M 0 rom
rbd0252:0032g 0磁盘
创建ceph群集存储OSD服务并在所有节点上运行
我们模拟了三台硬盘,所以我们添加了所有三台硬盘
pveceph createosd /dev/sdb
pveceph createosd /dev/sdc
pveceph createosd /dev/sdd
创建完成后,检查OSD的运行状态,确保OSD正常运行。
root@pve-1:~# ceph osd tree
idclassweighttypenamestatusreweightpri-aff
-10.43822根德法
-7 0.14607 host pve-1
6 HDD 0.04869 OSD.6up 1.000001.00000
7 HDD 0.04869 OSD.7up 1.000001.00000
8 HDD 0.04869 OSD.8up 1.000001.00000
-3 0.14607 host pve-2
0 HDD 0.04869 OSD.0up 1.000001.00000
2 HDD 0.04869 OSD.2up 1.000001.00000
3 HDD 0.04869 OSD.3up 1.000001.00000
-5 0.14607 host pve-3
1 HDD 0.04869 OSD.1up 1.000001.00000
4 HDD 0.04869 OSD.4up 1.000001.00000
5 HDD 0.04869 OSD.5up 1.000001.00000
6 )创建群集存储资源池。 PVE的内置Ceph采用rbd的模式。 最外层是pool,相当于一张磁盘,是默认的
保罗的名字是rbd。 每个pool可以包含多个image,相当于文件夹。 每个image可以映射到一个块设备。
如果有设备,就可以加载。 在PVE-1节点上执行以下命令:
ceph osd pool create mytest 128 128
128表示放置组的数量。 各pg是虚拟节点,使自己的数据存在于不同的地方。 这样一旦
当存储器瘫痪时,pg会选择新的存储器并自动确保高可用性。
7 .将存储ID和密钥复制到指定的文件位置,然后在PVE-1节点上执行以下操作:
cd /etc/pve/priv/
CP/etc/ceph/ceph.client.admin.keyringceph/my-ceph-storage.key ring
到此为止,ceph分布式存储已经基本完成,接下来在web端进行设定
详情请访问云服务器、域名注册、虚拟主机的问题,请访问西部数码代理商官方网站: www.chenqinet.cn