ProxmoxVE之5.3集群安装及使用ceph-创新互联

兴文网站建设公司创新互联,兴文网站设计制作,有大型网站制作公司丰富经验。已为兴文超过千家提供企业网站建设服务。企业网站搭建\外贸营销网站建设要多少钱,请找那个售后服务好的兴文做网站的公司定做!

ProxmoxVE 之 5.3集群安装及使用ceph ProxmoxVE 之 5.3集群安装及使用ceph

 上面左边是我的个人微信,如需进一步沟通,请加微信。  右边是我的公众号“Openstack私有云”,如有兴趣,请关注。

PromixVE 系列文章:

  • proxmox-私有云的另一个选择

  • proxmox 之 与openstack的比较

  • ProxmoxVE 之集群安装(V5.2)

  • ProxmoxVE(V5.2) 之 使用外部ceph存储(luminous)

  • ProxmoxVE 之 5.3集群安装及使用ceph

  • ProxmoxVE 之 创建centos7基础镜像模板

  • ProxmoxVE 之 创建win10基础镜像模板

  • ProxmoxVE 之 V2V迁移(vmware->PVE)

  • ProxmoxVE 之 安装oracle12C rac集群

  • ProxmoxVE 之 安装oracle12C 数据库(CDB和PDB)

  • ProxmoxVE 之 oracle12C 多CDB和PDB

    PVE5.3版本对于磁盘的管理,包括对分布式存储ceph的支持据说都更加友好了。前期对5.2版本测试的时候,有些未尽事宜,比如直接通过pve自身的管理程序pveceph部署ceph存储,而不是使用外部ceph,现在手头刚好也有相应的实验资源,花一些时间对5.3版本重新做一次集群实验,使用pve自带的ceph部署工具进行部署。

    具体安装步骤就不详细写了,参考“ProxmoxVE 之集群安装(V5.2)” 的安装步骤。

    采用硬件配置:在物理机pve环境上面,创建3个虚拟机,3vcpu/12G内存/4块硬盘/2块网卡 ,其中硬盘方面1块硬盘为系统盘32G,2块32G的ceph盘,1块32G的lvm盘,网卡方面1块网卡同时给集群和虚拟机使用(192.168.1.0/24网段),1块网卡作为ceph存储网络(192.168.170.0/24网段)使用。

    重要!!!更改软件源,默认是订阅版,如果不做修改,在使用pveceph init进行ceph初始化安装的时候会将整个环境破坏,切记!更改为非订阅版,如下:

将/etc/apt/sources.list.d/pve-enterprise.list  文件内的唯一一条记录注释掉: #deb https://enterprise.proxmox.com/debian/pve stretch pve-enterprise wget -q -O- 'http://download.proxmox.com/debian/pve/dists/stretch/proxmox-ve-release-5.x.gpg' | apt-key add - echo "deb http://download.proxmox.com/debian/pve stretch pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list apt update && apt dist-upgrade

    安装ntp。ceph集群对时间同步的要求很高,需要安装ntp服务:

    apt-get install ntp -y

    安装完成之后会自动启动并同步debian的时间服务器,注意,是联网的情况下,如果不连接外网,需要设定内网的ntp服务,这里不赘述。

    消除“No valid subscription”提示的方法参考下面的网址:

    https://johnscs.com/remove-proxmox51-subscription-notice/

    即,ssh登录服务器后执行下面的指令:

    sed -i.bak "s/data.status !== 'Active'/false/g" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js && systemctl restart pveproxy.service

    创建完集群后,如下图:

ProxmoxVE 之 5.3集群安装及使用ceph

    接下来配置ceph存储:

     参考官网这个网址:

    https://www.proxmox.com/en/training/video-tutorials/item/install-ceph-server-on-proxmox-ve

    这是一个详细的视频教程,基本的设计思路和我这个环境差不多,都是3个节点,只有网络是真正的3个网络,我是因为条件限制,将集群管理和虚拟机业务网络合二为一了,其他的都差不多。

  1、首先在每一个节点安装ceph软件包:

    pveceph install --version luminous

    注意,官网视频里面用的jewel版本,我们安装的pve版本是5.3对应的ceph版本已经是luminous版本了。

  2、初始化ceph存储网络:

    pveceph init --network 192.168.170.0/24

    3、创建mon

    pveceph createmon

    在pve2和pve3上面登录web界面创建mon:

ProxmoxVE 之 5.3集群安装及使用ceph

ProxmoxVE 之 5.3集群安装及使用ceph

ProxmoxVE 之 5.3集群安装及使用ceph

    4、创建OSD:

ProxmoxVE 之 5.3集群安装及使用ceph

ProxmoxVE 之 5.3集群安装及使用ceph

sdb和sdc两块磁盘加入到osd ,同样的,对pve2和pve3做同样的操作,完成后如下:

ProxmoxVE 之 5.3集群安装及使用ceph

    5、创建pools ,pool的名称是ceph-vm,根据自己需要取,size=3表示正常的副本数,min size=2表示最少的数据副本数,pg_num=128表示逻辑存储单元数未128,具体设置的策略请参考ceph相关文档:

ProxmoxVE 之 5.3集群安装及使用ceph

另外再创建一个测试的存储池test。创建完成后,可以通过web界面看到ceph的整体状态如下:

ProxmoxVE 之 5.3集群安装及使用ceph

可以使用test测试存储池做一个写测试:

root@pve1:~# rados -p test bench 10 write --no-cleanup hints = 1 Maintaining 16 concurrent writes of 4194304 bytes to objects of size 4194304 for up to 10 seconds or 0 objects Object prefix: benchmark_data_pve1_78670   sec Cur ops   started  finished  avg MB/s  cur MB/s last lat(s)  avg lat(s)     0       0         0         0         0         0           -           0     1      16        23         7   28.0015        28     0.98669    0.886351     2      16        36        20   39.9226        52     1.98944     1.22191     3      16        43        27   35.9512        28     0.57703     1.17363     4      16        54        38   37.9597        44     1.64156     1.29788     5      16        60        44   35.1689        24     2.00744     1.37846     6      16        68        52   34.6399        32      2.2513     1.50074     7      16        72        56   31.9779        16      2.1816     1.56136     8      16        79        63   31.4803        28     2.38234     1.70338     9      16        87        71   31.5374        32     1.63451      1.8151    10      16        95        79   31.5831        32     2.82273     1.86001    11       8        95        87   31.6205        32     1.66285     1.84418 Total time run:         11.064831 Total writes made:      95 Write size:             4194304 Object size:            4194304 Bandwidth (MB/sec):     34.343 Stddev Bandwidth:       9.54225 Max bandwidth (MB/sec): 52 Min bandwidth (MB/sec): 16 Average IOPS:           8 Stddev IOPS:            2 Max IOPS:               13 Min IOPS:               4 Average Latency(s):     1.85056 Stddev Latency(s):      0.714602 Max latency(s):         3.46178 Min latency(s):         0.57703 root@pve1:~#

    由于我使用的是7200转的磁盘做的pve虚拟机,挂载7200转的磁盘做的虚拟磁盘,表现不佳。正式生产环境,如果是SSD盘,带宽可以达到400M,IOPS可以达到100多。
下面是读测试:

root@pve1:~# rados -p test bench 10 seq hints = 1   sec Cur ops   started  finished  avg MB/s  cur MB/s last lat(s)  avg lat(s)     0       0         0         0         0         0           -           0     1      16        61        45   179.942       180    0.509001    0.276338     2      14        95        81   161.953       144    0.565471    0.309453 Total time run:       2.127305 Total reads made:     95 Read size:            4194304 Object size:          4194304 Bandwidth (MB/sec):   178.63 Average IOPS:         44 Stddev IOPS:          6 Max IOPS:             45 Min IOPS:             36 Average Latency(s):   0.350031 Max latency(s):       0.844504 Min latency(s):       0.0595479 root@pve1:~#

    读测试的带宽以及IOPS要比写高很多。同样,由于是测试环境,性能表现欠佳。如果是SSD盘,可以达到2.5G带宽,600 IOPS ,那也是相当不错的。

    6、创建RBD存储池:

 ProxmoxVE 之 5.3集群安装及使用ceph

   

接下来,使用这个RBD存储池创建一个centos7虚拟机:

ProxmoxVE 之 5.3集群安装及使用ceph

创建完成start,提示kvm虚拟化设置不支持,原因是我们使用的kvm虚拟机进行测试,kvm虚拟机里面再嵌套创建kvm虚拟机:

ProxmoxVE 之 5.3集群安装及使用ceph

解决办法,先把该pve节点所有的虚拟机都关闭,在ProxmoxVE物理机上(注意,不是上面3个pve1/pve2/pve3)执行下面的命令:

root@pve:~# modprobe -r kvm_intel 注意,如果提示...busy ,说明还有虚拟机在使用,需要先把该pve节点所有的虚拟机都关闭。 root@pve:~# modprobe kvm_intel nested=1 root@pve:~# cat /sys/module/kvm_intel/parameters/nested Y root@pve:~# echo "options kvm_intel nested=1" >> /etc/modprobe.d/modprobe.conf root@pve:~# qm showcmd 111 /usr/bin/kvm -id 111 -name pve-1 -chardev 'socket,id=qmp,path=/var/run/qemu-server/111.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/111.pid -daemonize -smbios 'type=1,uuid=d9eb0729-f0ee-4176-836d-308b70d13754' -smp '3,sockets=1,cores=3,maxcpus=3' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga std -vnc unix:/var/run/qemu-server/111.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 12000 -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:b48afece2d1' -drive 'file=/var/lib/vz/template/iso/proxmox-ve_5.2-1.iso,if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -device 'virtio-scsi-pci,id=scsihw0,bus=pci.0,addr=0x5' -drive 'file=/dev/pvevg2/vm-111-disk-7,if=none,id=drive-scsi0,format=raw,cache=none,aio=native,detect-zeroes=on' -device 'scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,bootindex=100' -drive 'file=/dev/pvevg2/vm-111-disk-2,if=none,id=drive-scsi1,format=raw,cache=none,aio=native,detect-zeroes=on' -device 'scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=1,drive=drive-scsi1,id=scsi1' -drive 'file=/dev/pvevg2/vm-111-disk-3,if=none,id=drive-scsi2,format=raw,cache=none,aio=native,detect-zeroes=on' -device 'scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=2,drive=drive-scsi2,id=scsi2' -drive 'file=/dev/pvevg2/vm-111-disk-6,if=none,id=drive-scsi3,format=raw,cache=none,aio=native,detect-zeroes=on' -device 'scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=3,drive=drive-scsi3,id=scsi3' -netdev 'type=tap,id=net0,ifname=tap111i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=76:60:17:9D:6A:FF,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300' -netdev 'type=tap,id=net1,ifname=tap111i1,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=6A:93:EB:0E:A8:84,netdev=net1,bus=pci.0,addr=0x13,id=net1,bootindex=301' 找到“-cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce”这部分,在enforce前面加“+vmx,”参数如下: -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,+vmx,enforce 然后执行:qm stop 111 停止虚拟机后,再执行上面修改后的命令。 虚拟机启动后,ssh进入,执行 grep vmx /proc/cpuinfo 查看是不是有输出,如下: root@pve-1:~# grep vmx /proc/cpuinfo  flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx lm constant_tsc nopl xtopology cpuid pni vmx cx16 x2apic hypervisor lahf_lm cpuid_fault pti tpr_shadow vnmi flexpriority ept vpid flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx lm constant_tsc nopl xtopology cpuid pni vmx cx16 x2apic hypervisor lahf_lm cpuid_fault pti tpr_shadow vnmi flexpriority ept vpid flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx lm constant_tsc nopl xtopology cpuid pni vmx cx16 x2apic hypervisor lahf_lm cpuid_fault pti tpr_shadow vnmi flexpriority ept vpid 表示已经支持虚拟嵌套。

再重新启动上面创建的虚拟机,成功!

ProxmoxVE 之 5.3集群安装及使用ceph

测试成功!

总结:

    ProxmoxVE确实使用太方便了,对于稍显复杂的ceph分布式存储,已经做到了方便实施的极限,只需要简单几条初始化的指令,后面全部通过web管理界面进行配置和部署,方便至极,更棒的是,web管理界面还可以实时看到ceph存储的各种状态,相当于完全把ceph存储的管理融合进了PVE的统一管理。

    但是使用ceph的前提是,必须对ceph分布式存储本身的一些概念弄清楚,比如ceph 的存储规则,pg的概念,bucket的概念,ceph自身的功能组件mon、osd、pool的概念等等,建议如果对这些概念不熟悉,先通读一遍ceph社区官网的文档,然后动手搭建ceph存储试验。熟悉ceph之后,回过头来再使用pve自带的ceph管理功能就显得非常简单了。

    通过上面的实验,也可以看到ProxmoxVE可以做到在自己的平台上快速搭建环境嵌套虚拟化,可以方便广大的PVE爱好者快速的熟悉PVE 的使用。通过我个人的经历,openstack的试验过程和复杂度,比PVE要高出好多倍,openstack如果要做一个完整的试验下来,熟练的情况下,如果要5天,那么,PVE的试验,同样是基础虚拟化功能的条件下,可能只要1天甚至半天就能完成。

    

另外有需要云服务器可以了解下创新互联cdcxhl.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。

当前名称:ProxmoxVE之5.3集群安装及使用ceph-创新互联
网址分享:https://www.cdcxhl.com/article20/dssdco.html

成都网站建设公司_创新互联,为您提供云服务器域名注册品牌网站制作网站内链网站维护服务器托管

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

网站优化排名