陈奇网络工作室

pveceph超融合(2)

系统运输

创建PVE虚拟化群集

1 )首先安装三台PVE主机。 安装步骤请参考本站前面的文章。

2、PVE主机安装完成后,创建PVE集群虚拟化集群。

必须通过pve _ shell创建。

3 .在PVE1节点上执行以下命令:

pvecm create vclusters

4 )在其他两个节点上执行以下命令以加入群集

pvecm add 192.168.77.160

即使successfullyaddednode‘pve-2’to cluster成功了

5 )查看PVE集群的状态,确认集群是否正确建立

在PVE-1节点上

pvecm status

root@pve-1:~# pvecm status

配额信息

Date: Wed Jul 3 11:27:05 2019

quorum provider:coro sync _ vote quorum

Nodes: 3

Node ID:0x00000001

Ring ID: 1/12

quo rate :是

vote quorum信息

Expected votes: 3

Highest expected: 3

Total votes: 3

Quorum: 2

Flags: Quorate

成员信息

Nodeid Votes Name

0x000000011192.168.77.160(local ) )。

0x00000002 1 192.168.77.170

0x00000003 1 192.168.77.180

所有节点都已加入群集

在所有节点上使用以下命令安装Ceph : ( ceph也可以单独安装融合,单独安装的ceph也可以使用其他,可以根据需要使用)

pveceph安装-版本控制

所有节点都已加入群集

在所有节点上使用以下命令安装Ceph : ( ceph也可以单独安装融合,单独安装的ceph也可以使用其他,可以根据需要使用)

pveceph安装-版本控制

配置ceph群集存储网络,并在所有节点上运行

pvecephinit-network 192.168.77.0/24

创建ceph群集存储Mon监视,并在所有节点上运行以下命令

pveceph createmon

查看硬盘信息

root@pve-1:~# lsblk

name maj:minrmsizerotypemountpoint

sda8:00 20g 0磁盘

sda18:101007 k 0部件

sda28:20512 m 0部件

(sda38:30 ) 19.5 G0部件

( PVE-swap253:00 ) 2.4g0LVM[swap]

PVE-root253:10 ) 4.8g0LVM/

PVE-data_tmeta253:20(1g0LVM

()PVE-data253:40 ) 8g0LVM

(PVE-data_tdata253:30(8g0LVM

(PVE-data253:40 ) 8g0LVM

sdb8: 16050g 0磁盘

SDC8: 32050g 0磁盘

SDD8: 48050g 0磁盘

sr0 11:0 1 655.3M 0 rom

rbd0252:0032g 0磁盘

创建ceph群集存储OSD服务并在所有节点上运行

我们模拟了三台硬盘,所以我们添加了所有三台硬盘

pveceph createosd /dev/sdb

pveceph createosd /dev/sdc

pveceph createosd /dev/sdd

创建完成后,检查OSD的运行状态,确保OSD正常运行。

root@pve-1:~# ceph osd tree

idclassweighttypenamestatusreweightpri-aff

-10.43822根德法

-7 0.14607 host pve-1

6 HDD 0.04869 OSD.6up 1.000001.00000

7 HDD 0.04869 OSD.7up 1.000001.00000

8 HDD 0.04869 OSD.8up 1.000001.00000

-3 0.14607 host pve-2

0 HDD 0.04869 OSD.0up 1.000001.00000

2 HDD 0.04869 OSD.2up 1.000001.00000

3 HDD 0.04869 OSD.3up 1.000001.00000

-5 0.14607 host pve-3

1 HDD 0.04869 OSD.1up 1.000001.00000

4 HDD 0.04869 OSD.4up 1.000001.00000

5 HDD 0.04869 OSD.5up 1.000001.00000

6 )创建群集存储资源池。 PVE的内置Ceph采用rbd的模式。 最外层是pool,相当于一张磁盘,是默认的

保罗的名字是rbd。 每个pool可以包含多个image,相当于文件夹。 每个image可以映射到一个块设备。

如果有设备,就可以加载。 在PVE-1节点上执行以下命令:

ceph osd pool create mytest 128 128

128表示放置组的数量。 各pg是虚拟节点,使自己的数据存在于不同的地方。 这样一旦

当存储器瘫痪时,pg会选择新的存储器并自动确保高可用性。

7 .将存储ID和密钥复制到指定的文件位置,然后在PVE-1节点上执行以下操作:

cd /etc/pve/priv/

CP/etc/ceph/ceph.client.admin.keyringceph/my-ceph-storage.key ring

到此为止,ceph分布式存储已经基本完成,接下来在web端进行设定

详情请访问云服务器、域名注册、虚拟主机的问题,请访问西部数码代理商官方网站: www.chenqinet.cn

相关推荐

后台-系统设置-扩展变量-手机广告位-内容页底部广告位3