Proxmox集网络配置

Proxmox集⽹络配置
⽤过vmware和virtualbox的⼈⼤概都知道虚拟机是怎么回事⼉,这种虚拟化软件通常装在windows环境下,⽽且是单机环境。那么随着云计算与⼤数据的发展,虚拟化技术也是得到了极⼤的发展,⽐如分布式的虚拟化软件OpenStack和Proxmox VE等。
对于这4种常⽤的虚拟化软件我的使⽤感受就是在windows上virtualbox⽐vmware好⽤,服务器上Proxmox⽐OpenStack好⽤。windows上的不说了,本⽂重点说⼀下服务器上的虚拟软件使⽤感受,之前⽤过windows server服务器上装的virtualbox,然后再开各种各样的虚拟机,总体感受就是很慢,在相同的环境下跑相同的程序结果很慢得多。可能与这种virtualbox是半裸的虚拟化技术有关(寄居虚拟化),vmware也是这种技术。
说到虚拟化技术,下⾯的图更加解释得直观:
⽽在服务器上Proxmox和OpenStack则表现更加稳定。OpenStack配置要求⾼,安装配置过程复杂,但是可以⽤Fuel进⾏⼀键安装,总体来说没有Proxmox易⽤。⽽Proxmox只需要30分钟就能安装系统,还有很多操作系统的模版可以使⽤。Proxmox⽐较稳定,我们实验室和我之前实习的公司都是⽤的Proxmox集来作为⽣成环境,基本上没有出什么⼤问题。
接下来说说应⽤:Proxmox主要是创建KVM虚拟机和lxc容器,KVM虚拟机需要iso镜像(⼏个G),lxc容器需要模版(100M左右)。
⾸先安装系统,去官⽹下载Proxmox iso镜像,最新版是5.3.我前段时间装的是5.2,但基本上没有差别,我们实验室的集是4.2,也没有很⼤的区别。Proxmox 是基于debian的系统(ubuntu也是基于debian的系统),我觉得他是裸机虚拟机技术(可能理解不准确,它集成了多种虚拟化技术),但这不
重要,重要的是Proxmox 的安装就和普通linux系统⼀模⼀样,⽽且⽐装⼀个centos或者ubuntu更简单,更快
安装教程很多,服务器上装需要做个U盘系统,也可以在vmware和virtualbox上装,如下图,按照提⽰⼀步⼀步⾛即可,ip配置那⼀步先⽤默认的配置
本⽂要重点说的是proxmox的集模式和⽹络模式
安装好之后proxmox 登陆命令⾏界⾯有⼀个连接:
这是⽹页端的管理界⾯,通过⽹页上点点⿏标可以省去很多复杂的操作命令。
下⾯将proxmox ve简称为pve,对与pve集,他不是传统的主控集(⼀个主节点⼏个从节点)因为主控集容易产⽣单点故障如hadoop集、spark集等。pve集的每个节点完全是对等的,没有主从之分,也就是挂了某个节点,其余节点不受影响,只是挂了那个节点上的虚拟机有影响。⽽虚拟机只是pve某个节点上的⼀个进程⽽已,但是虚拟机的存储可以共享,也就是说每个pve节点的硬盘可以共享给其他节点。
集搭建过程:
⾸先分别把每台服务器的pve系统装好,然后通过web UI可以看到是这种的:
单机:        ,集:
pve1是系统的主机名,可以通过 vi /etc/hostname修改,主机名修改后重启⽣效。
⼀、⽹络配置
1.规划⽹络:
192.168.1.125  pve1
192.168.1.126  pve2
⽹上说搭建集要在交换机上开多播,其实不开也可以。
2.在每个机器上修改ip地址:
通过命令修改 vi  /etc/network/interfaces,如果通过⽹页端修改ip也可以,但修改是保存在临时⽂件/etc/w ⾥,都是重启⽣效。
这⾥要重点说⼀下有很多中⽹络⽅案,常见的有2种⽹络模式:
a.只有⼀个⽹卡
这种⽅式下虚拟机使⽤10.10.10.x⽹段,宿主机集的通信和虚拟机的通信都⾛⼀个⽹卡,虚拟机通过nat转发。
b.有两个⽹卡:
这种模式下就宿主机集⾛⽹卡1,⽽虚拟机之间的通信⾛⽹卡2。这种模式下多个服务的⽹卡2之间要⾛单独的⽹线,也就是双⽹卡双⽹线,这样每个节点上的虚拟机都能互通。
3.在宿主机上为虚拟机开启转发规则:(这⼀步先跳过,创建虚拟机时再做)透视望远镜
重点说明:
1 开启IP转发
echo 1 > /proc/sys/net/ipv4/ip_forward
cat /proc/sys/net/ipv4/ip_forward
恢复规则:iptables-restore > /etc/iptables.up.rules
开机⾃动恢复规则,把恢复命令添加到启动脚本:
echo '/sbin/iptables-restore /etc/iptables.up.rules' >>/etc/rc.d/rc.local
宿主机重启后规则会失效,最好设置开机⾃动恢复规则!
4.然后按照这种配置规则把每个服务器的ip都改好:
/etc/init.d/networking restart
reboot
⼆、创建集
通过命令:
systemctl start corosync
因为没有开多播会corosync会启动失败,需要⼿动⽣成authkey:corosync-keygen
systemctl start pvedaemon
systemctl start pve-cluster
然后:
1.在主服务器pve1上创建集:名字为abc掘进机液压泵
pvecm create abc
螺旋锥蝇
2.分别在其余服务器上加⼊到该集abc:
pvecm add 192.168.1.125
3.查看状态:
pvecm status 或  pvecm nodes
(重点)如果报错,意外说明:
单机版默认会集pvedaemon和pve-cluster,⽽不会启动corosync。
创建集最核⼼的就是集同步服务corosync,corosync成功后会⽣成配置⽂件f,,如果启动失败后需要⼿动修改配置⽂件:
磁悬浮支架图片logging {
debug: off
to_syslog: yes
}
nodelist {
node {
name: pve1
nodeid: 1
quorum_votes: 1
ring0_addr: 192.168.1.125
}
node {
阿伐那非的作用与功效name: pve2
nodeid: 2
钢铁清洗剂quorum_votes: 1
ring0_addr: 192.168.1.126
}
}
quorum {
provider: corosync_votequorum }
totem {
cluster_name: abc
config_version: 2
interface {
bindnetaddr: 192.168.1.125    ringnumber: 0
}
ip_version: ipv4
secauth: on
version: 2
}

本文发布于:2024-09-22 04:19:50,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/1/244833.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:集群   虚拟化   服务器   需要   修改   没有
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议