導航:首頁 > 網路設置 > 集群設置網路

集群設置網路

發布時間:2023-02-12 15:48:34

A. 如何進行Hyper-V集群部署簡化網路配置

當你進行一次Hyper-V集群的部署時,配置網路會是一件痛苦的事情。不同的廠商或變更的硬體布局僅僅是自動化部署所遇挑戰中的兩個舉例。這篇文章中我將和你分享用PowerShell收集信息的方法,這些信息關於哪個網路適配器位於什麼PCI匯流排。你之後可以使用這些信息來重命名網路適配器,組合、更改網路適配器設置等等。

我們首先從收集現有網路適配器的信息開始。完成該過程的PowerShell命令如下:

Get-WMIObject Win32_PNPSignedDriver where { $_.DeviceClass -eq 「NET」 -and
$_.HardWareID -like 「*PCI*」}

結果如下圖所示:

就是這樣子。我還添加了MAC地址和GUID。這個實例的MAC地址還和博通的BACScli.exe命令行工具聯合使用,用來配置網路適配器設置。如果需要,GUID可以用來添加TcpAckFrequency到注冊表。


復制粘貼會確保所有單雙引號都正確。希望這篇文章能對你有用。

轉載僅供參考,版權屬於原作者。祝你愉快,滿意請採納哦

B. 華為交換機堆疊和集群配置

session 1 交換機的堆疊iStack

iStack,全稱Intelligent Stack,智能堆疊,適用於S2700、S3700、S5700和S6700中低端交換機。而高端交換機中叫做CSS,全稱Cluster Switch System,集群交換系統,適用於S7700、S9300、S9700等高端交換機。此類技術原理是將多台物理交換機在邏輯上合並成一台交換機,所以也叫做交換機虛擬化。在華為交換機中,iStack最多支持9台交換機合並,而在CSS中只支持2台交換機合並。

是將交換機性能翻倍提升的技術,增加介面數量、背板帶寬、轉發速率、提高可靠性等,堆疊使用一個ip和mac對堆疊中的交換機進行管理。

一、iStack中的交換機角色

1、主交換機:負責管理整個堆疊系統,一個堆疊系統中有且只有一個,顯示為master

2、備用交換機:負責在主交換機故障時進行接替,一個堆疊系統中有且只有一個,顯示為Standby

3、從交換機:一個堆疊系統中除了主交換外的所有交換機都是從交換機(包括備交換機),顯示為Slave

二、堆疊ID

為了方便管理堆疊中的交換機,在一個堆疊內每一個交換機都有唯一的一個堆疊ID,可手工配置默認為0,堆疊ID對交換埠的編號有影響,具體表現為,當交換機加入一個堆疊後,它的埠號將變為:堆疊ID/子卡號/埠號(如未加入堆疊前G0/0/1在加入堆疊後,如果該交換機的堆疊ID是2,那麼埠G0/0/1的編號就變成了G2/0/1)

三、堆疊優先順序

用於在堆疊中選舉主和備交換機,選舉原則是優先順序大的為主,除了主交換機外優先順序最大的為備。當優先順序一樣時候看MAC地址,小的成為主,堆疊系統的MAC地址是主交換機的MAC地址

四、堆疊的物理成員埠

就是交換機堆疊之間連接的物理埠(根據交換機的型號不同,有固定的埠),用於收發堆疊交換機 之間的堆疊協議報文。

五、堆疊(邏輯)埠

堆疊的邏輯埠,需要和物理埠綁定,堆疊中所有交換機只支持2個堆疊邏輯埠(各需要綁定一個物理埠)。堆疊的邏輯埠的編號為:Stack-portn/1-2,其中n是笨堆疊的ID號,如本交換機的堆疊ID為3,那麼邏輯堆疊埠就是Stack-port3/1和Stack-port3/2

六、堆疊交換機的系統版本

當堆疊中的主交換機和從交換機的系統版本不一致時,從交換機會自動同步成主交換機的系統版本,主交換機負責收集堆疊中成員信息並計算堆疊拓撲,然後將堆疊拓撲信息同步到所有的成員交換機中。

七、主交換機選舉

在堆疊中選舉主交換機遵循下列原則:

1、比較運行狀態,優先選舉最先處於啟動狀態的交換機成為主(備)交換機

2、如果堆疊中已經有多台啟動成員,那麼比較優先順序,最高的成為主(備)交換機

3、如果優先順序一樣那麼比較MAC地址,小的成為主(備)交換機

八、堆疊的連接方式

1、使用堆疊卡進行連接

2、使用出廠定義好的普通埠進行連接(一般為10G埠)

無論用那種連接,都需要使用堆疊專用SPF線纜連接,而在沒有10G高速埠的堆疊卡連接中還需要使用,PCI-E堆疊線纜和SFP+堆疊高速線纜來連接,以便堆疊後線纜能夠承受翻倍的背板帶寬的數據量。

九、堆疊的連接線序

同一條鏈路上相連交換機的堆疊物理介面必須加入不同的堆疊埠,是交叉的,也就是說本端交換機的堆疊埠1必須和對端交換機的堆疊埠2連接,

比如SWA-stack-port1:G0/0/28----------SWB-stack-port2:G0/0/27

十、交換機堆疊的簡單配置實例,使用S5700LI子系列交換機配置,該系列交換機出廠定義了最後2個物理埠為堆疊(邏輯)埠的成員埠,也就是需要將最後兩個物理埠分別綁定到邏輯堆疊埠中來進行堆疊,而同一條鏈路的交換堆疊物理埠要交叉,即swA的G0/0/28要連接直連的swB的G0/027,拓撲如下:

堆疊前邏輯拓撲:

堆疊後邏輯拓撲:

具體配置如下:

步驟三步:

1、配置交換機堆疊埠,分別將出廠堆疊物理介面G0/0/28和G0/0/27分別加入到堆疊埠1和堆疊埠2實現所有堆疊交換機之間堆疊埠交叉相連,此時各個成員交換機的堆疊ID均為默認的0,所以所有成員交換機的堆疊埠都是stack-port0/1和stack-port0/2,後面在修改每個交換的堆疊ID,後SWBCD的堆疊埠將變為stack-port1/1、stack-port2/1、stack-port3/1等

SWA中的配置:

[Huawei]stack port interface g0/0/28 enable 開啟出廠指定埠的堆疊埠功能

[Huawei]stack port interface g0/0/27 enable

[Huawei]interface stack-port0/1 創建堆疊埠1

[Huawei-stack-port0/1]port member-group interface g0/0/28 將埠g0/0/28加入到堆疊埠1

[Huawei-stack-port0/1]quit

[Huawei]interface stack-port0/2 創建堆疊埠2

[Huawei-stack-port0/2]port member-group interface g0/0/27 將埠g0/0/27加入到堆疊埠2

[Huawei-stack-port0/2]quit

SWB中的配置:

[Huawei]stack port interface g0/0/28 enable

[Huawei]stack port interface g0/0/27 enable

[Huawei]interface stack-port0/1

[Huawei-stack-port0/1]port member-group interface g0/0/28

[Huawei-stack-port0/1]quit

[Huawei]interface stack-port0/2

[Huawei-stack-port0/2]port member-group interface g0/0/27

[Huawei-stack-port0/2]quit

SWC中的配置:

[Huawei]stack port interface g0/0/28 enable

[Huawei]stack port interface g0/0/27 enable

[Huawei]interface stack-port0/1

[Huawei-stack-port0/1]port member-group interface g0/0/28

[Huawei-stack-port0/1]quit

[Huawei]interface stack-port0/2

[Huawei-stack-port0/2]port member-group interface g0/0/27

[Huawei-stack-port0/2]quit

SWD中的配置:

[Huawei]stack port interface g0/0/28 enable

[Huawei]stack port interface g0/0/27 enable

[Huawei]interface stack-port0/1

[Huawei-stack-port0/1]port member-group interface g0/0/28

[Huawei-stack-port0/1]quit

[Huawei]interface stack-port0/2

[Huawei-stack-port0/2]port member-group interface g0/0/27

[Huawei-stack-port0/2]quit

2、配置堆疊中個成員交換的堆疊ID和堆疊優先順序,使得SWA成為主交換機,其餘默認

[SWA]stack slot 0 priority 200 配置SWA堆疊ID為0的優先順序為200,默認是100

[SWB]stack slot 0 priority 100

[SWC]stack slot 0 priority 100

[SWD]stack slot 0 priority 100

[SWA]stack slot 0 reunmber 0 修改SWA堆疊ID為0,默認就為0

[SWB]stack slot 0 renumber 1 修改SWB堆疊ID為1

[SWC]stack slot 0 renumber 2

[SWD]stack slot 0 renumber 3

3、在各個堆疊成員交換上保存配置,並重啟交換機

[SWA]save

[SWA]reboot

4、查看命令

[SWA]display stack

十一、堆疊雙主機直連檢測(DAD協議,華為私有)。當兩台交換直連形成堆疊時,可以配置堆疊直連檢測,以防止當堆疊分裂時造成的網路故障(如MAC地址、ip地址沖突等),該功能可以自動檢測堆疊狀態,當堆疊崩潰(堆疊中一台交換機故障down)時回復為普通交換機狀態,防止網路故障。

只需要在堆疊的兩台交換機的堆疊物理介面中配置DAD功能即可,假設SWA的堆疊ID為0,SWB的堆疊ID為1,則配置如下:

[huaweiA]interface g0/0/28 假設埠28加入堆疊埠1(直連堆疊口要交叉連接)

[HuaweiA-GigabitEthernet0/0/28]mad detect mode direct 開啟堆疊直連檢測DAD

quit

[huaweiB]interface g1/0/27 假設埠27加入堆疊埠2

[HuaweiB-GigabitEthernet0/0/28]mad detect mode direct

quit

查看命令:

[huawei]display mad verbose

session 2 交換機集群CSS

iStack,全稱Intelligent Stack,智能堆疊,適用於S2700、S3700、S5700和S6700中低端交換機。而高端交換機中叫做CSS,全稱Cluster Switch System,集群交換系統,適用於S7700、S9300、S9700等高端交換機。此類技術原理是將多台物理交換機在邏輯上合並成一台交換機,所以也叫做交換機虛擬化。在華為交換機中,iStack最多支持9台交換機合並,而在CSS中只支持2台交換機合並。

在CSS中與iStack基本一致,不同點就是CSS只支持2個設備,而且連接的時候不需要CSS集群邏輯埠的交叉連接。

一、CSS中的交換機角色

1、主交換機:負責管理整個堆疊系統,一個堆疊系統中有且只有一個,顯示為master

2、備用交換機:負責在主交換機故障時進行接替,一個堆疊系統中有且只有一個,顯示為Standby

二、CSS集群ID

為了方便管理堆疊中的交換機,在一個堆疊內每一個交換機都有唯一的一個堆疊ID,可手工配置默認為0,堆疊ID對交換埠的編號有影響,具體表現為,當交換機加入一個堆疊後,它的埠號將變為:堆疊ID/子卡號/埠號(如未加入堆疊前G1/0/1在加入堆疊後,如果該交換機的堆疊ID是2,那麼埠G1/0/1的編號就變成了G2/0/1)

三、CSS優先順序

用於在堆疊中選舉主和備交換機,選舉原則是優先順序大的為主,除了主交換機外優先順序最大的為備。當優先順序一樣時候看MAC地址,小的成為主,堆疊系統的MAC地址是主交換機的MAC地址

四、CSS的物理成員埠

指交換機LPU(Line Processing Unit,線路處理單元)單板上專用於集群連接的物理埠,收發CSS協議報文和跨交換機的業務報文。

五、CSS集群(邏輯)埠

集群的邏輯埠,需要和物理埠綁定,集群中所有交換機只支持2個集群邏輯埠(各需要綁定一個物理埠)。集群的邏輯埠的編號為:CSS-portn/1-2,其中n是本集群的ID號,如本交換機的集群ID為3,那麼邏輯集群埠就是CSS-port3/1和CSS-port3/2

六、CSS集群的連接方式

1、集群卡連接

2、出廠定義的業務口連接:將LPU上的業務口配置為集群物理成員埠後加入邏輯集群埠,然後通過SFP+光模塊和光纖或SFP+集群線纜將集群物理埠按照一定規則(交叉)連接起來,一個集群埠中最多可以有32個物理集群埠,在業務口的連接方式中又可以按照組網方式分為:

1)、1+0組網:配置一個邏輯集群埠,物理集群埠分布在一塊單板上,依靠一塊單板上的集群鏈路實現集群連接。

2)、1+1組網:配置兩個邏輯集群埠,物理集群埠分布在兩塊單板上,不同單板上的集群鏈路形成備份。

七、主交換機選舉

在集群中選舉主交換機遵循下列原則:

1、比較運行狀態,優先選舉最先處於啟動狀態的交換機成為主(備)交換機

2、如果集群中已經有多台啟動成員,那麼比較優先順序,最高的成為主(備)交換機

3、如果優先順序一樣那麼比較MAC地址,小的成為主(備)交換機

八、CSS集群的配置文件備份與恢復

交換機進入集群狀態後,會自動將原有的非集群狀態下的配置文件進行備份,自動將原有的配置文件加上.bak後綴備份出來一份,以便在打開集群功能後恢復原有配置。

九、交換機CSS集群配置實例(只能支持2台)

首先是專用CSS集群卡連接方式的配置:

[SWA]css enable

[SWA]set css priority 200

[SWA]set css id 1

[SWA]quit

<SWA>save

<SWA>reboot

[SWB]css enable

[SWB]set css priority 100

[SWB]set css id 2

[SWB]quit

<SWB>save

<SWB>reboot

驗證命令:

[SWA]display css status chassis 1

[SWA]display css status chassis 2

再次是CSS集群業務口連接方式的配置

[SWA]css enable

[SWA]set css priority 200

[SWA]set css mode lpu 配置css模式使用LPU單板上的物理業務埠

[SWA]set css id 1

[SWA]interface css-port1/1 創建css邏輯集群埠

[SWA-css-port1/1]port interface xgigabitetehernet 1/0/1 to xgigabitetehernet 1/0/2 enable 將XG1/0/1和1/0/2加入到集群埠中

[SWA-css-port1/1]quit

[SWA]quit

<SWA>save

<SWA>reboot

[SWB]css enable

[SWB]set css priority 100

[SWB]set css mode lpu

[SWB]set css id 2

[SWB]interface css-port2/1

[SWB-css-port1/1]port interface xgigabitetehernet 1/0/1 to xgigabitetehernet 1/0/2 enable

[SWB-css-port1/1]quit

[SWB]quit

<SWB>save

<SWB>reboot

驗證命令:

[SWA]display css status all

十、集群雙主機直連檢測(DAD協議,華為私有)。當兩台交換直連形成集群時,可以配置集群直連檢測,以防止當集群分裂時造成的網路故障(如MAC地址、ip地址沖突等),該功能可以自動檢測集群狀態,當集群崩潰(堆疊中一台交換機故障down)時回復為普通交換機狀態,防止網路故障。

[SWA]interface xge1/1/0/1

[SWA-XGigabitEthernet 1/1/0/5]mad detect mode direct 進入集群物理介面開啟DAD直連檢測

quit

[SWB]interface xge2/1/0/1

[SWB-XGigabitEthernet 2/1/0/5]mad detect mode direct

quit

C. 基於Linux自己初步搭建Kubernetes(k8s)集群基礎,詳細教程



k8s官方網站:https://kubernetes.io/zh/,可自行查看相關文檔說明

k8s-master:Ubuntu--192.168.152.100

k8s-node01:Ubuntu--192.168.152.101

k8s-node02:Ubuntu--192.168.152.102



全部已安裝docker,未安裝可根據官方文檔安裝:https://docs.docker.com/get-docker/

1,禁止swap分區

K8s的要求,確保禁止掉swap分區,不禁止,初始化會報錯。

在每個宿主機上執行:


2,確保時區和時間正確

時區設置


3,關閉防火牆和selinux

ubuntu 查看防火牆命令,ufw status可查看狀態,ubuntu20.04默認全部關閉,無需設置。

4,主機名和hosts設置(可選)

非必須,但是為了直觀方便管理,建議設置。

在宿主機分別設置主機名:k8s-master,k8s-node01,k8s-node02

hosts設置


1,更改docker默認驅動為systemd

為防止初始化出現一系列的錯誤,請檢查docker和kubectl驅動是否一致,否則kubectl沒法啟動造成報錯。版本不一樣,docker有些為cgroupfs,而kubectl默認驅動為systemd,所以需要更改docker驅動。

可查看自己docker驅動命令:

更改docker驅動,編輯 /etc/docker/daemon.json (沒有就新建一個),添加如下啟動項參數即可:

重啟docker

需要在每台機器上安裝以下的軟體包:

2,更新 apt 包索引並安裝使用 Kubernetes apt 倉庫所需要的包

安裝軟體包以允許apt通過HTTPS使用存儲庫,已安裝軟體的可以忽略

3,下載公開簽名秘鑰、並添加k8s庫

國外 :下載 Google Cloud 公開簽名秘鑰:

國內:可以用阿里源即可:

請注意,在命令中,使用的是Ubuntu 16.04 Xenial 版本, 是可用的最新 Kubernetes 存儲庫。所以而非20.04 的focal。


4,更新 apt 包索引,安裝 kubelet、kubeadm 和 kubectl,並鎖定其版本

鎖定版本,防止出現不兼容情況,例如,1.7.0 版本的 kubelet 可以完全兼容 1.8.0 版本的 API 伺服器,反之則不可以。


只需要在master上操作即可。


1,初始化錯誤解決(沒有報錯的可以跳過這條)

錯誤提示1:


原因:kubectl沒法啟動,journalctl -xe查看啟動錯誤信息。


解決方案:k8s建議systemd驅動,所以更改docker驅動即可,編輯 /etc/docker/daemon.json (沒有就新建一個),添加如下啟動項參數即可:

重啟docker和kubectel


錯誤提示2:


原因:初始化生產的文件,重新初始化,需要刪除即可

錯誤提示3:


解決方法:重置配置


2,初始化完成

無報錯,最後出現以下,表示初始化完成,根據提示還需要操作。


根據用戶是root或者普通用戶操作,由於大多環境不會是root用戶,我也是普通用戶,所以選擇普通用戶操作命令:

如果是root用戶,執行以下命令:

初始化完成,用最後的提示命令 kubeadm join.... 在node機器上加入集群即可。


3,主節點pod網路設置

主節點支持網路插件:https://kubernetes.io/zh/docs/concepts/cluster-administration/addons/

這里安裝Calico網路插件:https://docs.projectcalico.org/getting-started/kubernetes/self-managed-onprem/onpremises

Calico官網提供三種安裝方式,1)低於50個節點,2)高於50個節點,3)etcd datastore(官方不建議此方法)。

這里選擇第一種:

安裝完成後, kubectl get node 可查看節點狀態,由NotReady變成Ready則正常,需要等幾分鍾完成。


1,node加入master節點

在所有node節點機器操作,統一已安裝完成 kubelet、kubeadm 和 kubectl,用master初始化完成後最後提示命令加入,切記要用root用戶。

加入成功後,提示如下:


再次查看kubelet服務已正常啟動。


2,需注意的坑

1:加入主節點,需要 root 用戶執行詞條命令,才可以加入master主節點。

node在沒有加入主節點master之前,kubelet服務是沒法啟動的,是正常情況,會報錯如下:


原因是缺失文件,主節點master初始化 `kubeadm init`生成。

node節點是不需要初始化的,所以只需要用root用戶`kubeadm join`加入master即可生成。

2:如果加入提示某些文件已存在,如:

原因是加入過主節點,即使沒成功加入,文件也會創建,所以需要重置節點,重新加入即可,重置命令:

3,在master查看節點

加入完成後,在master節點 kubectl get node 可查看已加入的所有節點:


這里k8s集群創建完成,下一步使用可參考我的下一篇文章:k8s初步熟悉使用介紹,實踐搭建nginx集群

D. Linux HA 集群原理和配置-02

本文介紹在Linux HA集群中的仲裁和分區概念。

集群正常工作時,所有節點都在一個分區內(partition),分區內的所有節點將選舉出一個仲裁節點,這個仲裁節點負責向其他節點發送集群控制命令。當網路發生故障時,集群中的節點發現無法和仲裁節點通信,則會在可通信的范圍內重新選舉一個新的仲裁節點。此時集群內可能出現多個仲裁節點,每個仲裁節點的管理范圍為一個分區。

下文中將通過防火牆策略的設置模擬集群網路中通信出現異常的各種情況,如:

通過防火牆策略可以精準控制兩兩節點之間的連通性,使我們能更准確的了解在網路連通性發生變化對集群的影響。

在所有節點上啟動防火牆,並添加策略對整個管理網路192.168.56.0/24放通。

保存上述策略,之後在實驗過程會使用iptables命名加入新策略模擬網路通信異常效果,如果需要恢復網路通信正常狀態,直接不保存策略重啟firewalld服務即可。

通過pcs status查看集群狀態:

上述結果顯示當前集群只有一個分區,分區內的節點包括全部3台主機,仲裁節點是ha-host3,這表示集群間的通信是完好的。下圖顯示當前集群狀態:

在ha-host1上添加以下策略:

該策略將使得ha-host1和ha-host3之間的通信中斷,在所有節點上查看集群狀態:

上面的結果顯示,ha-host1失去和當前仲裁節點ha-host3的聯系之後,和ha-host2一起組成新的分區並選舉出ha-host2作為新的仲裁節點。有趣的是ha-host2和ha-host3的通信並未中斷,但是他被「優先順序較高的ha-host1搶走並推舉為老大」,剩下ha-host3獨自留在其自身所在的分區。此時ha-host3所在的分區提示了「partition WITHOUT quorum」,表示該分區中的節點數目不超過一半。

下圖顯示當前集群狀態:

在ha-host1上再添加策略:

使其和當前的仲裁節點ha-host2的通信中斷,集群狀態變為:

發現ha-host2和ha-host3一起組成了新的分區,由於ha-host1所在分區節點數不足一半,無法啟動資源,虛擬ip資源vip被切換到了ha-host2上。下圖顯示當前集群狀態:

如果再把ha-host2和ha-host3直接的通信中斷,此時3個節點間兩兩均無法通信。每個節點都是一個分區,每個分區的主機數均不過半,因此無法啟動任何資源,原先運行在ha-host2上的vip也停止了。

當前集群狀態如下圖:

E. 伺服器集群怎麼實現

·這里是系統區,建議你發到網路區去~~~那樣你可能能得到更多網路達人的幫助

一、集群的基本概念

有一種常見的方法可以大幅提高伺服器的安全性,這就是集群。

Cluster集群技術可如下定義:一組相互獨立的伺服器在網路中表現為單一的系統,並以單一系統的模式加以管理。此單一系統為客戶工作站提供高可靠性的服務。

大多數模式下,集群中所有的計算機擁有一個共同的名稱,集群內任一系統上運行的服務可被所有的網路客戶所使用。Cluster必須可以協調管理各分離的組件的錯誤和失敗,並可透明地向Cluster中加入組件。

一個Cluster包含多台(至少二台)擁有共享數據存儲空間的伺服器。任何一台伺服器運行一個應用時,應用數據被存儲在共享的數據空間內。每台伺服器的操作系統和應用程序文件存儲在其各自的本地儲存空間上。

Cluster內各節點伺服器通過一內部區域網相互通訊。當一台節點伺服器發生故障時,這台伺服器上所運行的應用程序將在另一節點伺服器上被自動接管。當一個應用服務發生故障時,應用服務將被重新啟動或被另一台伺服器接管。當以上任一故障發生時,客戶將能很快連接到新的應用服務上。

二、集群的硬體配置

鏡像伺服器雙機

集群中鏡像伺服器雙機系統是硬體配置最簡單和價格最低廉的解決方案,通常鏡像服務的硬體配置需要兩台伺服器,在每台伺服器有獨立操作系統硬碟和數據存貯硬碟,每台伺服器有與客戶端相連的網卡,另有一對鏡像卡或完成鏡像功能的網卡。

鏡像伺服器具有配置簡單,使用方便,價格低廉諸多優點,但由於鏡像伺服器需要採用網路方式鏡像數據,通過鏡像軟體實現數據的同步,因此需要佔用網路伺服器的CPU及內存資源,鏡像伺服器的性能比單一伺服器的性能要低一些。

有一些鏡像伺服器集群系統採用內存鏡像的技術,這個技術的優點是所有的應用程序和網路操作系統在兩台伺服器上鏡像同步,當主機出現故障時,備份機可以在幾乎沒有感覺的情況下接管所有應用程序。因為兩個伺服器的內存完全一致,但當系統應用程序帶有缺陷從而導致系統宕機時,兩台伺服器會同步宕機。這也是內存鏡像卡或網卡實現數據同步,在大數據量讀寫過程中兩台伺服器在某些狀態下會產生數據不同步,因此鏡像伺服器適合那些預算較少、對集群系統要求不高的用戶。

硬體配置範例:

網路伺服器 兩台

伺服器操作系統硬碟 兩塊

伺服器數據存貯硬碟 視用戶需要確定

伺服器鏡像卡(部分軟體可使用標准網卡) 兩塊

網路服務網卡 兩塊三、雙機與磁碟陣列櫃

與鏡像伺服器雙機系統相比,雙機與磁碟陣列櫃互聯結構多出了第三方生產的磁碟陣列櫃,目前,豪威公司、精業公司等許多公司都生產有磁碟陣列櫃,在磁碟陣列櫃中安裝有磁碟陣列控制卡,陣列櫃可以直接將櫃中的硬碟配置成為邏輯盤陣。磁碟陣列櫃通過SCSI電纜與伺服器上普通SCSI卡相連,系統管理員需直接在磁碟櫃上配置磁碟陣列。

雙機與磁碟陣列櫃互聯結構不採用內存鏡像技術,因此需要有一定的切換時間(通常為60?D?D180秒),它可以有郊的避免由於應用程序自身的缺陷導致系統全部宕機,同時由於所有的數據全部存貯在中置的磁碟陣列櫃中,當工作機出現故障時,備份機接替工作機,從磁碟陣列中讀取數據,所以不會產生數據不同步的問題,由於這種方案不需要網路鏡像同步,因此這種集群方案伺服器的性能要比鏡像伺服器結構高出很多。

雙機與磁碟陣列櫃互聯結構的缺點是在系統當中存在單點錯的缺陷,所謂單點錯是指當系統中某個部件或某個應用程序出現故障時,導致所有系統全部宕機。在這個系統中磁碟陣列櫃是會導致單點錯,當磁碟陣列櫃出現邏輯或物理故障時,所有存貯的數據會全部丟失,因此,在選配這種方案時,需要選用一個品質與售後服務較好的產品。

硬體配置範例:

網路伺服器 兩台

伺服器操作系統硬碟 兩塊

第三方生產的磁碟陣列櫃 一台

磁碟櫃專用SCSI電線 兩根

磁碟陣列櫃數據存貯硬碟 視用戶需求確定

網路服務網卡 兩塊

除此之外,一些廠商還有更優秀的技術的解決方案,比如 HP.

四、HP雙機雙控容錯系統

HP NetServer為雙機雙控容錯系統提供了高品質和高可靠的硬體基礎……

HP雙機雙控容錯系統結合了HP伺服器產品的安全可靠性與Cluster技術的優點,相互配合二者的優勢。

硬體配置範例:

HP L系統的網路伺服器 兩台

伺服器操作系統硬碟 兩塊

HP硬碟存貯櫃(SS/6,RS/8,RS/12) 一台

磁碟櫃專用SCSI集群適配電纜 兩根

磁碟櫃數據存貯硬碟 視用戶需求確定

HP集群專用陣列卡 兩塊

網路服務網卡 兩塊五、HP光纖通道雙機雙控集群系統

光纖通道是一種連接標准,可以作為SCSI的一種替代解決方案,光纖技術具有高帶寬、抗電磁干擾、傳輸距離遠、質量高、擴展能力強等特性,目前在FC-AL仲裁環路上可接入126個設備。

光纖設備提供了多種增強的連接技術,大大方便了用戶使用。伺服器系統可以通過光纜遠程連接,最大可跨越10公里的距離。它允許鏡像配置,這樣可以改善系統的容錯能力。伺服器系統的規模將更加靈活多變。SCSI每條通道最多可連接15個設備,而光纖仲裁環路最多可以連接126個設備。

光纖集群系統組成:

HP光纖集群系統硬體設備包括有兩台HP伺服器(需支持光纖卡,目前有LC2000、LH3000、LH4、 LH6000、LT6000、LXr8000、LXR8500)及光纖適配卡,可以使用RS/12FC光纖磁碟陣列櫃,需另加一對或兩對網卡用於心跳檢測和與客戶端連接。在配置過程中還需另外選配光纖卡到光纖存貯設備的光纖電纜。

硬體配置:

HPL系統的網路伺服器 兩台

伺服器操作系統硬碟 兩塊

HP光纖陣列存貯櫃(RS/12FC) 一台

光纖磁碟櫃專用光纖電纜 兩根

光纖磁碟櫃數據存貯硬碟 視用戶需求確定

HP光纖適配卡 兩塊

網路服務網卡 兩塊

六、集群的軟體配置

基於NT平台的集群軟體

Microsoft的MSCS,也有許多第三方的專業軟體公司開發的集群軟體,如豪威的DATAWARE,VIN CA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKE.

MS WolfPack的特點

MS WolfPack是MS Cluster server的別稱,是 微軟針對Cluster技術研製開發的雙機軟體。它集成在NT SERVER上,支持由二台機器組成的雙機系統,提供一種高可用且易管理的應用環境。

主要特點:

自動檢測和修復伺服器或應用程序的錯誤

可實現對伺服器中應用程序的切換

可通過TCP/IP連接各種客戶端,如MS-DOS、WINDOWS 3.X/9X/NT,Apple Macintosh、UNIX等

生產主機無需人工干涉即可自動恢復數據並接管任務

易管理性:

可自動審核伺服器和應用程序的工作狀態

可建立高可用性的應用程序、文件共享、列印請求等

可靈活設置應用程序和數據的恢復策略

簡單操作即可進行應用程序的離線,重新再線,伺服器間的遷移。

目前,WINDOWS 2000 Advanced Server與WINDOWS 2000 DataCenter Server都集成有更先進集群技術。

其它的網路操作系統平台上也有許多集群軟體,比如:

基於novell平台的集群軟體有Novell HA Server、Novell SFT III

基於sco UNIX平台的集群軟體有Sentinel集群軟體

基於Linux平台的集群軟體有TurboCluster

七、集群技術的發展趨勢

集群技術隨著伺服器硬體系統與網路操作系統的發展將會在可用性、高可靠性、系統冗餘等方面逐步提高。未來的集群可以依靠集群文件系統實現對系統中的所有文件、設備和網路資源的全局訪問,並且生成一個完整的系統映像。這樣,無論應用程序在集群中的哪台伺服器上,集群文件系統允許任何用戶(遠程或本地)都可以對這個軟體進行訪問。任何應用程序都可以訪問這個集群任何文件。甚至在應用程序從一個節點轉移到另一個節點的情況下,無需任何改動,應用程序就可以訪問系統上的文件。

在今天,利用伺服器的集群技術,通過周密計劃和網路維護,系統破壞的機率是非常小的。所以,企業伺服器的穩定必須使用集群技術。

閱讀全文

與集群設置網路相關的資料

熱點內容
副卡怎麼連接網路 瀏覽:908
網路老斷怎麼 瀏覽:481
蘋果手機網路差換什麼零件 瀏覽:207
天貓盒子設置網路 瀏覽:326
網路賬號在哪裡登陸 瀏覽:836
地鐵上的網路信號哪個好 瀏覽:917
網路電視盒子迷你電腦 瀏覽:647
美國外交關系委員會網路安全 瀏覽:216
榮耀20s有信號沒網路 瀏覽:33
網路安全審查到什麼時候 瀏覽:813
打開了藍牙連接怎麼共享網路 瀏覽:563
移動網路雲盤可以取消嗎 瀏覽:797
福建健康碼網路異常怎麼回事 瀏覽:39
ip地址屬於電腦還是網路 瀏覽:358
蘋果怎麼連接無互聯網連接的網路 瀏覽:190
網路異常光線指示燈暗淡 瀏覽:208
動漫設計和計算機網路技術 瀏覽:547
新華書店的萬能網路密碼 瀏覽:763
認證過的網路如何彈出登錄界面 瀏覽:18
沒有移動網路下視頻自動播放開關 瀏覽:919

友情鏈接