A. 如何进行Hyper-V集群部署简化网络配置
当你进行一次Hyper-V集群的部署时,配置网络会是一件痛苦的事情。不同的厂商或变更的硬件布局仅仅是自动化部署所遇挑战中的两个举例。这篇文章中我将和你分享用PowerShell收集信息的方法,这些信息关于哪个网络适配器位于什么PCI总线。你之后可以使用这些信息来重命名网络适配器,组合、更改网络适配器设置等等。
我们首先从收集现有网络适配器的信息开始。完成该过程的PowerShell命令如下:
Get-WMIObject Win32_PNPSignedDriver where { $_.DeviceClass -eq “NET” -and
$_.HardWareID -like “*PCI*”}
结果如下图所示:
就是这样子。我还添加了MAC地址和GUID。这个实例的MAC地址还和博通的BACScli.exe命令行工具联合使用,用来配置网络适配器设置。如果需要,GUID可以用来添加TcpAckFrequency到注册表。
复制粘贴会确保所有单双引号都正确。希望这篇文章能对你有用。
转载仅供参考,版权属于原作者。祝你愉快,满意请采纳哦
B. 华为交换机堆叠和集群配置
session 1 交换机的堆叠iStack
iStack,全称Intelligent Stack,智能堆叠,适用于S2700、S3700、S5700和S6700中低端交换机。而高端交换机中叫做CSS,全称Cluster Switch System,集群交换系统,适用于S7700、S9300、S9700等高端交换机。此类技术原理是将多台物理交换机在逻辑上合并成一台交换机,所以也叫做交换机虚拟化。在华为交换机中,iStack最多支持9台交换机合并,而在CSS中只支持2台交换机合并。
是将交换机性能翻倍提升的技术,增加接口数量、背板带宽、转发速率、提高可靠性等,堆叠使用一个ip和mac对堆叠中的交换机进行管理。
一、iStack中的交换机角色
1、主交换机:负责管理整个堆叠系统,一个堆叠系统中有且只有一个,显示为master
2、备用交换机:负责在主交换机故障时进行接替,一个堆叠系统中有且只有一个,显示为Standby
3、从交换机:一个堆叠系统中除了主交换外的所有交换机都是从交换机(包括备交换机),显示为Slave
二、堆叠ID
为了方便管理堆叠中的交换机,在一个堆叠内每一个交换机都有唯一的一个堆叠ID,可手工配置默认为0,堆叠ID对交换端口的编号有影响,具体表现为,当交换机加入一个堆叠后,它的端口号将变为:堆叠ID/子卡号/端口号(如未加入堆叠前G0/0/1在加入堆叠后,如果该交换机的堆叠ID是2,那么端口G0/0/1的编号就变成了G2/0/1)
三、堆叠优先级
用于在堆叠中选举主和备交换机,选举原则是优先级大的为主,除了主交换机外优先级最大的为备。当优先级一样时候看MAC地址,小的成为主,堆叠系统的MAC地址是主交换机的MAC地址
四、堆叠的物理成员端口
就是交换机堆叠之间连接的物理端口(根据交换机的型号不同,有固定的端口),用于收发堆叠交换机 之间的堆叠协议报文。
五、堆叠(逻辑)端口
堆叠的逻辑端口,需要和物理端口绑定,堆叠中所有交换机只支持2个堆叠逻辑端口(各需要绑定一个物理端口)。堆叠的逻辑端口的编号为:Stack-portn/1-2,其中n是笨堆叠的ID号,如本交换机的堆叠ID为3,那么逻辑堆叠端口就是Stack-port3/1和Stack-port3/2
六、堆叠交换机的系统版本
当堆叠中的主交换机和从交换机的系统版本不一致时,从交换机会自动同步成主交换机的系统版本,主交换机负责收集堆叠中成员信息并计算堆叠拓扑,然后将堆叠拓扑信息同步到所有的成员交换机中。
七、主交换机选举
在堆叠中选举主交换机遵循下列原则:
1、比较运行状态,优先选举最先处于启动状态的交换机成为主(备)交换机
2、如果堆叠中已经有多台启动成员,那么比较优先级,最高的成为主(备)交换机
3、如果优先级一样那么比较MAC地址,小的成为主(备)交换机
八、堆叠的连接方式
1、使用堆叠卡进行连接
2、使用出厂定义好的普通端口进行连接(一般为10G端口)
无论用那种连接,都需要使用堆叠专用SPF线缆连接,而在没有10G高速端口的堆叠卡连接中还需要使用,PCI-E堆叠线缆和SFP+堆叠高速线缆来连接,以便堆叠后线缆能够承受翻倍的背板带宽的数据量。
九、堆叠的连接线序
同一条链路上相连交换机的堆叠物理接口必须加入不同的堆叠端口,是交叉的,也就是说本端交换机的堆叠端口1必须和对端交换机的堆叠端口2连接,
比如SWA-stack-port1:G0/0/28----------SWB-stack-port2:G0/0/27
十、交换机堆叠的简单配置实例,使用S5700LI子系列交换机配置,该系列交换机出厂定义了最后2个物理端口为堆叠(逻辑)端口的成员端口,也就是需要将最后两个物理端口分别绑定到逻辑堆叠端口中来进行堆叠,而同一条链路的交换堆叠物理端口要交叉,即swA的G0/0/28要连接直连的swB的G0/027,拓扑如下:
堆叠前逻辑拓扑:
堆叠后逻辑拓扑:
具体配置如下:
步骤三步:
1、配置交换机堆叠端口,分别将出厂堆叠物理接口G0/0/28和G0/0/27分别加入到堆叠端口1和堆叠端口2实现所有堆叠交换机之间堆叠端口交叉相连,此时各个成员交换机的堆叠ID均为默认的0,所以所有成员交换机的堆叠端口都是stack-port0/1和stack-port0/2,后面在修改每个交换的堆叠ID,后SWBCD的堆叠端口将变为stack-port1/1、stack-port2/1、stack-port3/1等
SWA中的配置:
[Huawei]stack port interface g0/0/28 enable 开启出厂指定端口的堆叠端口功能
[Huawei]stack port interface g0/0/27 enable
[Huawei]interface stack-port0/1 创建堆叠端口1
[Huawei-stack-port0/1]port member-group interface g0/0/28 将端口g0/0/28加入到堆叠端口1
[Huawei-stack-port0/1]quit
[Huawei]interface stack-port0/2 创建堆叠端口2
[Huawei-stack-port0/2]port member-group interface g0/0/27 将端口g0/0/27加入到堆叠端口2
[Huawei-stack-port0/2]quit
SWB中的配置:
[Huawei]stack port interface g0/0/28 enable
[Huawei]stack port interface g0/0/27 enable
[Huawei]interface stack-port0/1
[Huawei-stack-port0/1]port member-group interface g0/0/28
[Huawei-stack-port0/1]quit
[Huawei]interface stack-port0/2
[Huawei-stack-port0/2]port member-group interface g0/0/27
[Huawei-stack-port0/2]quit
SWC中的配置:
[Huawei]stack port interface g0/0/28 enable
[Huawei]stack port interface g0/0/27 enable
[Huawei]interface stack-port0/1
[Huawei-stack-port0/1]port member-group interface g0/0/28
[Huawei-stack-port0/1]quit
[Huawei]interface stack-port0/2
[Huawei-stack-port0/2]port member-group interface g0/0/27
[Huawei-stack-port0/2]quit
SWD中的配置:
[Huawei]stack port interface g0/0/28 enable
[Huawei]stack port interface g0/0/27 enable
[Huawei]interface stack-port0/1
[Huawei-stack-port0/1]port member-group interface g0/0/28
[Huawei-stack-port0/1]quit
[Huawei]interface stack-port0/2
[Huawei-stack-port0/2]port member-group interface g0/0/27
[Huawei-stack-port0/2]quit
2、配置堆叠中个成员交换的堆叠ID和堆叠优先级,使得SWA成为主交换机,其余默认
[SWA]stack slot 0 priority 200 配置SWA堆叠ID为0的优先级为200,默认是100
[SWB]stack slot 0 priority 100
[SWC]stack slot 0 priority 100
[SWD]stack slot 0 priority 100
[SWA]stack slot 0 reunmber 0 修改SWA堆叠ID为0,默认就为0
[SWB]stack slot 0 renumber 1 修改SWB堆叠ID为1
[SWC]stack slot 0 renumber 2
[SWD]stack slot 0 renumber 3
3、在各个堆叠成员交换上保存配置,并重启交换机
[SWA]save
[SWA]reboot
4、查看命令
[SWA]display stack
十一、堆叠双主机直连检测(DAD协议,华为私有)。当两台交换直连形成堆叠时,可以配置堆叠直连检测,以防止当堆叠分裂时造成的网络故障(如MAC地址、ip地址冲突等),该功能可以自动检测堆叠状态,当堆叠崩溃(堆叠中一台交换机故障down)时回复为普通交换机状态,防止网络故障。
只需要在堆叠的两台交换机的堆叠物理接口中配置DAD功能即可,假设SWA的堆叠ID为0,SWB的堆叠ID为1,则配置如下:
[huaweiA]interface g0/0/28 假设端口28加入堆叠端口1(直连堆叠口要交叉连接)
[HuaweiA-GigabitEthernet0/0/28]mad detect mode direct 开启堆叠直连检测DAD
quit
[huaweiB]interface g1/0/27 假设端口27加入堆叠端口2
[HuaweiB-GigabitEthernet0/0/28]mad detect mode direct
quit
查看命令:
[huawei]display mad verbose
session 2 交换机集群CSS
iStack,全称Intelligent Stack,智能堆叠,适用于S2700、S3700、S5700和S6700中低端交换机。而高端交换机中叫做CSS,全称Cluster Switch System,集群交换系统,适用于S7700、S9300、S9700等高端交换机。此类技术原理是将多台物理交换机在逻辑上合并成一台交换机,所以也叫做交换机虚拟化。在华为交换机中,iStack最多支持9台交换机合并,而在CSS中只支持2台交换机合并。
在CSS中与iStack基本一致,不同点就是CSS只支持2个设备,而且连接的时候不需要CSS集群逻辑端口的交叉连接。
一、CSS中的交换机角色
1、主交换机:负责管理整个堆叠系统,一个堆叠系统中有且只有一个,显示为master
2、备用交换机:负责在主交换机故障时进行接替,一个堆叠系统中有且只有一个,显示为Standby
二、CSS集群ID
为了方便管理堆叠中的交换机,在一个堆叠内每一个交换机都有唯一的一个堆叠ID,可手工配置默认为0,堆叠ID对交换端口的编号有影响,具体表现为,当交换机加入一个堆叠后,它的端口号将变为:堆叠ID/子卡号/端口号(如未加入堆叠前G1/0/1在加入堆叠后,如果该交换机的堆叠ID是2,那么端口G1/0/1的编号就变成了G2/0/1)
三、CSS优先级
用于在堆叠中选举主和备交换机,选举原则是优先级大的为主,除了主交换机外优先级最大的为备。当优先级一样时候看MAC地址,小的成为主,堆叠系统的MAC地址是主交换机的MAC地址
四、CSS的物理成员端口
指交换机LPU(Line Processing Unit,线路处理单元)单板上专用于集群连接的物理端口,收发CSS协议报文和跨交换机的业务报文。
五、CSS集群(逻辑)端口
集群的逻辑端口,需要和物理端口绑定,集群中所有交换机只支持2个集群逻辑端口(各需要绑定一个物理端口)。集群的逻辑端口的编号为:CSS-portn/1-2,其中n是本集群的ID号,如本交换机的集群ID为3,那么逻辑集群端口就是CSS-port3/1和CSS-port3/2
六、CSS集群的连接方式
1、集群卡连接
2、出厂定义的业务口连接:将LPU上的业务口配置为集群物理成员端口后加入逻辑集群端口,然后通过SFP+光模块和光纤或SFP+集群线缆将集群物理端口按照一定规则(交叉)连接起来,一个集群端口中最多可以有32个物理集群端口,在业务口的连接方式中又可以按照组网方式分为:
1)、1+0组网:配置一个逻辑集群端口,物理集群端口分布在一块单板上,依靠一块单板上的集群链路实现集群连接。
2)、1+1组网:配置两个逻辑集群端口,物理集群端口分布在两块单板上,不同单板上的集群链路形成备份。
七、主交换机选举
在集群中选举主交换机遵循下列原则:
1、比较运行状态,优先选举最先处于启动状态的交换机成为主(备)交换机
2、如果集群中已经有多台启动成员,那么比较优先级,最高的成为主(备)交换机
3、如果优先级一样那么比较MAC地址,小的成为主(备)交换机
八、CSS集群的配置文件备份与恢复
交换机进入集群状态后,会自动将原有的非集群状态下的配置文件进行备份,自动将原有的配置文件加上.bak后缀备份出来一份,以便在打开集群功能后恢复原有配置。
九、交换机CSS集群配置实例(只能支持2台)
首先是专用CSS集群卡连接方式的配置:
[SWA]css enable
[SWA]set css priority 200
[SWA]set css id 1
[SWA]quit
<SWA>save
<SWA>reboot
[SWB]css enable
[SWB]set css priority 100
[SWB]set css id 2
[SWB]quit
<SWB>save
<SWB>reboot
验证命令:
[SWA]display css status chassis 1
[SWA]display css status chassis 2
再次是CSS集群业务口连接方式的配置
[SWA]css enable
[SWA]set css priority 200
[SWA]set css mode lpu 配置css模式使用LPU单板上的物理业务端口
[SWA]set css id 1
[SWA]interface css-port1/1 创建css逻辑集群端口
[SWA-css-port1/1]port interface xgigabitetehernet 1/0/1 to xgigabitetehernet 1/0/2 enable 将XG1/0/1和1/0/2加入到集群端口中
[SWA-css-port1/1]quit
[SWA]quit
<SWA>save
<SWA>reboot
[SWB]css enable
[SWB]set css priority 100
[SWB]set css mode lpu
[SWB]set css id 2
[SWB]interface css-port2/1
[SWB-css-port1/1]port interface xgigabitetehernet 1/0/1 to xgigabitetehernet 1/0/2 enable
[SWB-css-port1/1]quit
[SWB]quit
<SWB>save
<SWB>reboot
验证命令:
[SWA]display css status all
十、集群双主机直连检测(DAD协议,华为私有)。当两台交换直连形成集群时,可以配置集群直连检测,以防止当集群分裂时造成的网络故障(如MAC地址、ip地址冲突等),该功能可以自动检测集群状态,当集群崩溃(堆叠中一台交换机故障down)时回复为普通交换机状态,防止网络故障。
[SWA]interface xge1/1/0/1
[SWA-XGigabitEthernet 1/1/0/5]mad detect mode direct 进入集群物理接口开启DAD直连检测
quit
[SWB]interface xge2/1/0/1
[SWB-XGigabitEthernet 2/1/0/5]mad detect mode direct
quit
C. 基于Linux自己初步搭建Kubernetes(k8s)集群基础,详细教程
k8s官方网站:https://kubernetes.io/zh/,可自行查看相关文档说明
k8s-master:Ubuntu--192.168.152.100
k8s-node01:Ubuntu--192.168.152.101
k8s-node02:Ubuntu--192.168.152.102
全部已安装docker,未安装可根据官方文档安装:https://docs.docker.com/get-docker/
1,禁止swap分区
K8s的要求,确保禁止掉swap分区,不禁止,初始化会报错。
在每个宿主机上执行:
2,确保时区和时间正确
时区设置
3,关闭防火墙和selinux
ubuntu 查看防火墙命令,ufw status可查看状态,ubuntu20.04默认全部关闭,无需设置。
4,主机名和hosts设置(可选)
非必须,但是为了直观方便管理,建议设置。
在宿主机分别设置主机名:k8s-master,k8s-node01,k8s-node02
hosts设置
1,更改docker默认驱动为systemd
为防止初始化出现一系列的错误,请检查docker和kubectl驱动是否一致,否则kubectl没法启动造成报错。版本不一样,docker有些为cgroupfs,而kubectl默认驱动为systemd,所以需要更改docker驱动。
可查看自己docker驱动命令:
更改docker驱动,编辑 /etc/docker/daemon.json (没有就新建一个),添加如下启动项参数即可:
重启docker
需要在每台机器上安装以下的软件包:
2,更新 apt 包索引并安装使用 Kubernetes apt 仓库所需要的包
安装软件包以允许apt通过HTTPS使用存储库,已安装软件的可以忽略
3,下载公开签名秘钥、并添加k8s库
国外 :下载 Google Cloud 公开签名秘钥:
国内:可以用阿里源即可:
请注意,在命令中,使用的是Ubuntu 16.04 Xenial 版本, 是可用的最新 Kubernetes 存储库。所以而非20.04 的focal。
4,更新 apt 包索引,安装 kubelet、kubeadm 和 kubectl,并锁定其版本
锁定版本,防止出现不兼容情况,例如,1.7.0 版本的 kubelet 可以完全兼容 1.8.0 版本的 API 服务器,反之则不可以。
只需要在master上操作即可。
1,初始化错误解决(没有报错的可以跳过这条)
错误提示1:
原因:kubectl没法启动,journalctl -xe查看启动错误信息。
解决方案:k8s建议systemd驱动,所以更改docker驱动即可,编辑 /etc/docker/daemon.json (没有就新建一个),添加如下启动项参数即可:
重启docker和kubectel
错误提示2:
原因:初始化生产的文件,重新初始化,需要删除即可
错误提示3:
解决方法:重置配置
2,初始化完成
无报错,最后出现以下,表示初始化完成,根据提示还需要操作。
根据用户是root或者普通用户操作,由于大多环境不会是root用户,我也是普通用户,所以选择普通用户操作命令:
如果是root用户,执行以下命令:
初始化完成,用最后的提示命令 kubeadm join.... 在node机器上加入集群即可。
3,主节点pod网络设置
主节点支持网络插件:https://kubernetes.io/zh/docs/concepts/cluster-administration/addons/
这里安装Calico网络插件:https://docs.projectcalico.org/getting-started/kubernetes/self-managed-onprem/onpremises
Calico官网提供三种安装方式,1)低于50个节点,2)高于50个节点,3)etcd datastore(官方不建议此方法)。
这里选择第一种:
安装完成后, kubectl get node 可查看节点状态,由NotReady变成Ready则正常,需要等几分钟完成。
1,node加入master节点
在所有node节点机器操作,统一已安装完成 kubelet、kubeadm 和 kubectl,用master初始化完成后最后提示命令加入,切记要用root用户。
加入成功后,提示如下:
再次查看kubelet服务已正常启动。
2,需注意的坑
1:加入主节点,需要 root 用户执行词条命令,才可以加入master主节点。
node在没有加入主节点master之前,kubelet服务是没法启动的,是正常情况,会报错如下:
原因是缺失文件,主节点master初始化 `kubeadm init`生成。
node节点是不需要初始化的,所以只需要用root用户`kubeadm join`加入master即可生成。
2:如果加入提示某些文件已存在,如:
原因是加入过主节点,即使没成功加入,文件也会创建,所以需要重置节点,重新加入即可,重置命令:
3,在master查看节点
加入完成后,在master节点 kubectl get node 可查看已加入的所有节点:
这里k8s集群创建完成,下一步使用可参考我的下一篇文章:k8s初步熟悉使用介绍,实践搭建nginx集群
D. Linux HA 集群原理和配置-02
本文介绍在Linux HA集群中的仲裁和分区概念。
集群正常工作时,所有节点都在一个分区内(partition),分区内的所有节点将选举出一个仲裁节点,这个仲裁节点负责向其他节点发送集群控制命令。当网络发生故障时,集群中的节点发现无法和仲裁节点通信,则会在可通信的范围内重新选举一个新的仲裁节点。此时集群内可能出现多个仲裁节点,每个仲裁节点的管理范围为一个分区。
下文中将通过防火墙策略的设置模拟集群网络中通信出现异常的各种情况,如:
通过防火墙策略可以精准控制两两节点之间的连通性,使我们能更准确的了解在网络连通性发生变化对集群的影响。
在所有节点上启动防火墙,并添加策略对整个管理网络192.168.56.0/24放通。
保存上述策略,之后在实验过程会使用iptables命名加入新策略模拟网络通信异常效果,如果需要恢复网络通信正常状态,直接不保存策略重启firewalld服务即可。
通过pcs status查看集群状态:
上述结果显示当前集群只有一个分区,分区内的节点包括全部3台主机,仲裁节点是ha-host3,这表示集群间的通信是完好的。下图显示当前集群状态:
在ha-host1上添加以下策略:
该策略将使得ha-host1和ha-host3之间的通信中断,在所有节点上查看集群状态:
上面的结果显示,ha-host1失去和当前仲裁节点ha-host3的联系之后,和ha-host2一起组成新的分区并选举出ha-host2作为新的仲裁节点。有趣的是ha-host2和ha-host3的通信并未中断,但是他被“优先级较高的ha-host1抢走并推举为老大”,剩下ha-host3独自留在其自身所在的分区。此时ha-host3所在的分区提示了“partition WITHOUT quorum”,表示该分区中的节点数目不超过一半。
下图显示当前集群状态:
在ha-host1上再添加策略:
使其和当前的仲裁节点ha-host2的通信中断,集群状态变为:
发现ha-host2和ha-host3一起组成了新的分区,由于ha-host1所在分区节点数不足一半,无法启动资源,虚拟ip资源vip被切换到了ha-host2上。下图显示当前集群状态:
如果再把ha-host2和ha-host3直接的通信中断,此时3个节点间两两均无法通信。每个节点都是一个分区,每个分区的主机数均不过半,因此无法启动任何资源,原先运行在ha-host2上的vip也停止了。
当前集群状态如下图:
E. 服务器集群怎么实现
·这里是系统区,建议你发到网络区去~~~那样你可能能得到更多网络达人的帮助
一、集群的基本概念
有一种常见的方法可以大幅提高服务器的安全性,这就是集群。
Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。此单一系统为客户工作站提供高可靠性的服务。
大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。
一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。
Cluster内各节点服务器通过一内部局域网相互通讯。当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。当以上任一故障发生时,客户将能很快连接到新的应用服务上。
二、集群的硬件配置
镜像服务器双机
集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。
镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。
有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合那些预算较少、对集群系统要求不高的用户。
硬件配置范例:
网络服务器 两台
服务器操作系统硬盘 两块
服务器数据存贮硬盘 视用户需要确定
服务器镜像卡(部分软件可使用标准网卡) 两块
网络服务网卡 两块三、双机与磁盘阵列柜
与镜像服务器双机系统相比,双机与磁盘阵列柜互联结构多出了第三方生产的磁盘阵列柜,目前,豪威公司、精业公司等许多公司都生产有磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵列柜可以直接将柜中的硬盘配置成为逻辑盘阵。磁盘阵列柜通过SCSI电缆与服务器上普通SCSI卡相连,系统管理员需直接在磁盘柜上配置磁盘阵列。
双机与磁盘阵列柜互联结构不采用内存镜像技术,因此需要有一定的切换时间(通常为60?D?D180秒),它可以有郊的避免由于应用程序自身的缺陷导致系统全部宕机,同时由于所有的数据全部存贮在中置的磁盘阵列柜中,当工作机出现故障时,备份机接替工作机,从磁盘阵列中读取数据,所以不会产生数据不同步的问题,由于这种方案不需要网络镜像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。
双机与磁盘阵列柜互联结构的缺点是在系统当中存在单点错的缺陷,所谓单点错是指当系统中某个部件或某个应用程序出现故障时,导致所有系统全部宕机。在这个系统中磁盘阵列柜是会导致单点错,当磁盘阵列柜出现逻辑或物理故障时,所有存贮的数据会全部丢失,因此,在选配这种方案时,需要选用一个品质与售后服务较好的产品。
硬件配置范例:
网络服务器 两台
服务器操作系统硬盘 两块
第三方生产的磁盘阵列柜 一台
磁盘柜专用SCSI电线 两根
磁盘阵列柜数据存贮硬盘 视用户需求确定
网络服务网卡 两块
除此之外,一些厂商还有更优秀的技术的解决方案,比如 HP.
四、HP双机双控容错系统
HP NetServer为双机双控容错系统提供了高品质和高可靠的硬件基础……
HP双机双控容错系统结合了HP服务器产品的安全可靠性与Cluster技术的优点,相互配合二者的优势。
硬件配置范例:
HP L系统的网络服务器 两台
服务器操作系统硬盘 两块
HP硬盘存贮柜(SS/6,RS/8,RS/12) 一台
磁盘柜专用SCSI集群适配电缆 两根
磁盘柜数据存贮硬盘 视用户需求确定
HP集群专用阵列卡 两块
网络服务网卡 两块五、HP光纤通道双机双控集群系统
光纤通道是一种连接标准,可以作为SCSI的一种替代解决方案,光纤技术具有高带宽、抗电磁干扰、传输距离远、质量高、扩展能力强等特性,目前在FC-AL仲裁环路上可接入126个设备。
光纤设备提供了多种增强的连接技术,大大方便了用户使用。服务器系统可以通过光缆远程连接,最大可跨越10公里的距离。它允许镜像配置,这样可以改善系统的容错能力。服务器系统的规模将更加灵活多变。SCSI每条通道最多可连接15个设备,而光纤仲裁环路最多可以连接126个设备。
光纤集群系统组成:
HP光纤集群系统硬件设备包括有两台HP服务器(需支持光纤卡,目前有LC2000、LH3000、LH4、 LH6000、LT6000、LXr8000、LXR8500)及光纤适配卡,可以使用RS/12FC光纤磁盘阵列柜,需另加一对或两对网卡用于心跳检测和与客户端连接。在配置过程中还需另外选配光纤卡到光纤存贮设备的光纤电缆。
硬件配置:
HPL系统的网络服务器 两台
服务器操作系统硬盘 两块
HP光纤阵列存贮柜(RS/12FC) 一台
光纤磁盘柜专用光纤电缆 两根
光纤磁盘柜数据存贮硬盘 视用户需求确定
HP光纤适配卡 两块
网络服务网卡 两块
六、集群的软件配置
基于NT平台的集群软件
Microsoft的MSCS,也有许多第三方的专业软件公司开发的集群软件,如豪威的DATAWARE,VIN CA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKE.
MS WolfPack的特点
MS WolfPack是MS Cluster server的别称,是 微软针对Cluster技术研制开发的双机软件。它集成在NT SERVER上,支持由二台机器组成的双机系统,提供一种高可用且易管理的应用环境。
主要特点:
自动检测和修复服务器或应用程序的错误
可实现对服务器中应用程序的切换
可通过TCP/IP连接各种客户端,如MS-DOS、WINDOWS 3.X/9X/NT,Apple Macintosh、UNIX等
生产主机无需人工干涉即可自动恢复数据并接管任务
易管理性:
可自动审核服务器和应用程序的工作状态
可建立高可用性的应用程序、文件共享、打印请求等
可灵活设置应用程序和数据的恢复策略
简单操作即可进行应用程序的离线,重新再线,服务器间的迁移。
目前,WINDOWS 2000 Advanced Server与WINDOWS 2000 DataCenter Server都集成有更先进集群技术。
其它的网络操作系统平台上也有许多集群软件,比如:
基于novell平台的集群软件有Novell HA Server、Novell SFT III
基于sco UNIX平台的集群软件有Sentinel集群软件
基于Linux平台的集群软件有TurboCluster
七、集群技术的发展趋势
集群技术随着服务器硬件系统与网络操作系统的发展将会在可用性、高可靠性、系统冗余等方面逐步提高。未来的集群可以依靠集群文件系统实现对系统中的所有文件、设备和网络资源的全局访问,并且生成一个完整的系统映像。这样,无论应用程序在集群中的哪台服务器上,集群文件系统允许任何用户(远程或本地)都可以对这个软件进行访问。任何应用程序都可以访问这个集群任何文件。甚至在应用程序从一个节点转移到另一个节点的情况下,无需任何改动,应用程序就可以访问系统上的文件。
在今天,利用服务器的集群技术,通过周密计划和网络维护,系统破坏的机率是非常小的。所以,企业服务器的稳定必须使用集群技术。