① 普通家庭使用能共享存储,分享数据,是选择nas还是移动硬盘的好
NAS借助度娘都解释就是连接在网络上,具备资料存储功能的装置,因此也称为“网络存储器”。它是一种专用数据存储服务器。它以数据为中心,将存储设备与服务器彻底分离,集中管理数据,从而释放带宽、提高性能、降低总拥有成本、保护投资。其成本远远低于使用服务器存储,而效率却远远高于后者。NAS是拥有CPU+内存+存储+网络的硬件架构,以及独立的操作系统,俨然是一台超微型的计算机,对于玩技术的开发人员来讲,无疑是个好东西,但是对于普通家庭来讲,操作起来略显复杂难懂,也是用不到nas功能到精髓,选择一些无线移动硬盘其实就可满足普通家庭共享存储,分享数据等需求了,无线移动硬盘价格也没那么高。之前众筹买过一个“私家云”觉得还行,主要是操作简单易懂,家里长辈都可以使用,基本上会玩微信就能使用了。
② 请教一个共享存储的问题
一、集群的基本概念 有一种常见的方法可以大幅提高服务器的安全性,这就是集群。 Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。此单一系统为客户工作站提供高可靠性的服务。 大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。 一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。 Cluster内各节点服务器通过一内部局域网相互通讯。当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。当以上任一故障发生时,客户将能很快连接到新的应用服务上。 二、集群的硬件配置 镜像服务器双机 集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。 镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。 有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合那些预算较少、对集群系统要求不高的用户。 硬件配置范例: 网络服务器 两台 服务器操作系统硬盘 两块 服务器数据存贮硬盘 视用户需要确定 服务器镜像卡(部分软件可使用标准网卡) 两块 网络服务网卡 两块三、双机与磁盘阵列柜 与镜像服务器双机系统相比,双机与磁盘阵列柜互联结构多出了第三方生产的磁盘阵列柜,目前,豪威公司、精业公司等许多公司都生产有磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵列柜可以直接将柜中的硬盘配置成为逻辑盘阵。磁盘阵列柜通过SCSI电缆与服务器上普通SCSI卡相连,系统管理员需直接在磁盘柜上配置磁盘阵列。 双机与磁盘阵列柜互联结构不采用内存镜像技术,因此需要有一定的切换时间(通常为60?D?D180秒),它可以有郊的避免由于应用程序自身的缺陷导致系统全部宕机,同时由于所有的数据全部存贮在中置的磁盘阵列柜中,当工作机出现故障时,备份机接替工作机,从磁盘阵列中读取数据,所以不会产生数据不同步的问题,由于这种方案不需要网络镜像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。 双机与磁盘阵列柜互联结构的缺点是在系统当中存在单点错的缺陷,所谓单点错是指当系统中某个部件或某个应用程序出现故障时,导致所有系统全部宕机。在这个系统中磁盘阵列柜是会导致单点错,当磁盘阵列柜出现逻辑或物理故障时,所有存贮的数据会全部丢失,因此,在选配这种方案时,需要选用一个品质与售后服务较好的产品。 硬件配置范例: 网络服务器 两台 服务器操作系统硬盘 两块 第三方生产的磁盘阵列柜 一台 磁盘柜专用SCSI电线 两根 磁盘阵列柜数据存贮硬盘 视用户需求确定 网络服务网卡 两块 除此之外,一些厂商还有更优秀的技术的解决方案,比如 HP. 四、HP双机双控容错系统 HP NetServer为双机双控容错系统提供了高品质和高可靠的硬件基础…… HP双机双控容错系统结合了HP服务器产品的安全可靠性与Cluster技术的优点,相互配合二者的优势。
③ 数据存储的三类简介
一、DAS(Direct Attached Storage)直接附加存储,DAS这种存储方式与我们普通的PC存储架构一样,外部存储设备都是直接挂接在服务器内部总线上,数据存储设备是整个服务器结构的一部分。
DAS存储方式主要适用以下环境:
(1)小型网络
因为网络规模较小,数据存储量小,且也不是很复杂,采用这种存储方式对服务器的影响不会很大。并且这种存储方式也十分经济,适合拥有小型网络的企业用户。
(2)地理位置分散的网络
虽然企业总体网络规模较大,但在地理分布上很分散,通过SAN或NAS在它们之间进行互联非常困难,此时各分支机构的服务器也可采用DAS存储方式,这样可以降低成本。
(3)特殊应用服务器
在一些特殊应用服务器上,如微软的集群服务器或某些数据库使用的原始分区,均要求存储设备直接连接到应用服务器。
(4)提高DAS存储性能
在服务器与存储的各种连接方式中,DAS曾被认为是一种低效率的结构,而且也不方便进行数据保护。直连存储无法共享,因此经常出现的情况是某台服务器的存储空间不足,而其他一些服务器却有大量的存储空间处于闲置状态却无法利用。如果存储不能共享,也就谈不上容量分配与使用需求之间的平衡。
DAS结构下的数据保护流程相对复杂,如果做网络备份,那么每台服务器都必须单独进行备份,而且所有的数据流都要通过网络传输。如果不做网络备份,那么就要为每台服务器都配一套备份软件和磁带设备,所以说备份流程的复杂度会大大增加。
想要拥有高可用性的DAS存储,就要首先能够降低解决方案的成本,例如:LSI的12Gb/s SAS,在它有DAS直联存储,通过DAS能够很好的为大型数据中心提供支持。对于大型的数据中心、云计算、存储和大数据,所有这一切都对DAS存储性能提出了更高的要求,云和企业数据中心数据的爆炸性增长也推动了市场对于可支持更高速数据访问的高性能存储接口的需求,因而LSI 12Gb/s SAS正好是能够满足这种性能增长的要求,它可以提供更高的IOPS和更高的吞吐能力,12Gb/s SAS提高了更高的写入的性能,并且提高了RAID的整个综合性能。
与直连存储架构相比,共享式的存储架构,比如SAN(storage-area network)或者NAS(network-attached storage)都可以较好的解决以上问题。于是乎我们看到DAS被淘汰的进程越来越快了。可是到2012年为止,DAS仍然是服务器与存储连接的一种常用的模式。事实上,DAS不但没有被淘汰,近几年似乎还有回潮的趋势。 二、NAS(Network Attached Storage)数据存储方式
NAS(网络附加存储)方式则全面改进了以前低效的DAS存储方式。它采用独立于服务器,单独为网络数据存储而开发的一种文件服务器来连接所存储设备,自形成一个网络。这样数据存储就不再是服务器的附属,而是作为独立网络节点而存在于网络之中,可由所有的网络用户共享。
NAS的优点:
(1)真正的即插即用
NAS是独立的存储节点存在于网络之中,与用户的操作系统平台无关,真正的即插即用。
(2)存储部署简单
NAS不依赖通用的操作系统,而是采用一个面向用户设计的,专门用于数据存储的简化操作系统,内置了与网络连接所需要的协议,因此使整个系统的管理和设置较为简单。
(3)存储设备位置非常灵活
(4)管理容易且成本低
NAS数据存储方式是基于现有的企业Ethernet而设计的,按照TCP/IP协议进行通信,以文件的I/O方式进行数据传输。
NAS的缺点:
(1)存储性能较低(2)可靠度不高 三、SAN(Storage Area Network)存储方式
1991年,IBM公司在S/390服务器中推出了ESCON(Enterprise System Connection)技术。它是基于光纤介质,最大传输速率达17MB/s的服务器访问存储器的一种连接方式。在此基础上,进一步推出了功能更强的ESCON Director(FC SWitch),构建了一套最原始的SAN系统。
SAN存储方式创造了存储的网络化。存储网络化顺应了计算机服务器体系结构网络化的趋势。SAN的支撑技术是光纤通道(FC Fiber Channel)技术。它是ANSI为网络和通道I/O接口建立的一个标准集成。FC技术支持HIPPI、IPI、SCSI、IP、ATM等多种高级协议,其最大特性是将网络和设备的通信协议与传输物理介质隔离开,这样多种协议可在同一个物理连接上同时传送。
SAN的硬件基础设施是光纤通道,用光纤通道构建的SAN由以下三个部分组成:
(1)存储和备份设备:包括磁带、磁盘和光盘库等。
(2)光纤通道网络连接部件:包括主机总线适配卡、驱动程序、光缆、集线器、交换机、光纤通道和SCSI间的桥接器
(3)应用和管理软件:包括备份软件、存储资源管理软件和存储设备管理软件。
SAN的优势:
(1)网络部署容易;
(2)高速存储性能。因为SAN采用了光纤通道技术,所以它具有更高的存储带宽,存储性能明显提高。SAn的光纤通道使用全双工串行通信原理传输数据,传输速率高达1062.5Mb/s。
(3)良好的扩展能力。由于SAN采用了网络结构,扩展能力更强。光纤接口提供了10公里的连接距离,这使得实现物理上分离,不在本地机房的存储变得非常容易。 DAS、NAS和SAN三种存储方式比较
存储应用最大的特点是没有标准的体系结构,这三种存储方式共存,互相补充,已经很好满足企业信息化应用。
从连接方式上对比,DAS采用了存储设备直接连接应用服务器,具有一定的灵活性和限制性;NAS通过网络(TCP/IP,ATM,FDDI)技术连接存储设备和应用服务器,存储设备位置灵活,随着万兆网的出现,传输速率有了很大的提高;SAN则是通过光纤通道(Fibre Channel)技术连接存储设备和应用服务器,具有很好的传输速率和扩展性能。三种存储方式各有优势,相互共存,占到了磁盘存储市场的70%以上。SAN和NAS产品的价格仍然远远高于DAS.许多用户出于价格因素考虑选择了低效率的直连存储而不是高效率的共享存储。
客观的说,SAN和NAS系统已经可以利用类似自动精简配置(thin provisioning)这样的技术来弥补早期存储分配不灵活的短板。然而,之前它们消耗了太多的时间来解决存储分配的问题,以至于给DAS留有足够的时间在数据中心领域站稳脚跟。此外,SAN和NAS依然问题多多,至今无法解决。
④ 实验室需要共享一批很大的数据,哪种方式最合适
网络存储。
现在是大数据时代,网络储存信息,非常的方便,而且特别适合大批量数据的保存。
实验室共享的数据,数量大,手动保存是明显不现实的。而大数据就非常适合大批数据的储存,比人脑会方便很多,也是最适合的。
⑤ 局域网环境下不使用存储设备如何实现数据传输
两个电脑放在同一个局域网里,之后可以用飞鸽传书软件,实现文件传送。
如果两台电脑不在一个局域网里,但是都能上网,可以去到网上找相关的专门传送文件的软件。 补充说明 :如果两台机器通过同一个路由器上网。那么这样做。 点击桌面上的网上邻居,在点里面的查看网络连接,再右键本地连接,选择属性里的internet协议(Tcp/Ip)在点这个的属性。里面设置ip,用自动获取或者自己手动改,ip一般设置成192.168.1.3(另一个机子设置192.168.1.4只要最后一位不一样且不要设置成192.168.1.1)子网掩码设成255.255.255.0.默认网关设置成192.168.1.1,DNS可以不设置。之后两个机子都按照飞鸽传书软件。都运行飞鸽传书。之后就可以看着软件上的说明传文件了。(安装飞鸽传书时,可以看下readme看下使用说明)如果两台机器没有上网,且都有网卡。那么用一根网线连接两个电脑的网卡接口。之后把你要传的文件右键,上面有一个选择性是共享。点了后按照说明做,就行了。
⑥ drbd 双主架构需要共享存储吗
DRBD实际上是一种块设备的实现,它由内核模块和相关程序两部分而组成,通过网络通信来同步镜像整个设备,有点类似于一个网络RAID的功能。也 就是说,当你将数据写入本地的DRBD设备上的文件系统时,数据会同时被发送到网络中的另外一台主机之上,并以完全相同的形式记录在一个文件系统中。本地节点(主机)与远程节点(主机)的数据可以保证实时的同步,并保证数据的一致性。所以当本地节点的主机出现故障时,远程节点的主机上还会保留有一份完全相 同的数据可以继续使用,以达到高可用的目的。
因为DRBD是用网络以块的方式进行数据同步的,所以,其不依赖于文件系统、LVM、软RAID等上层设备,可用于数据库文件的同步(区别于rsync 的文件同步方式)。
⑦ 共享存储区通信有哪些优点使用上有哪些限制
共享存储区通信的优点有:常用的集中式多处理机使用的通信机制兼容。
限制有:是针对其他通信机制运行效率较低而设计的。往往与其它通信机制,如信号量结合使用,来达到进程间的同步及互斥。
共享存储是指两个或多个处理机共用一个主存储器的并行体系结构。每一个处理机都可以把信息存入主存储器,或从中取出信息。处理机之间的通信通过访问共享存储器来实现。
系统结构
1、无高速缓冲存储器的集中式
这种结构的处理机没有高速缓冲存储器,多个处理机通过交叉开关或多级互联网络等直接访问共享存储器。由于任一存储单元在系统中只有一个备份,这类系统不存在高速缓冲存储器一致性问题,系统的可伸缩性受限于交叉开关或多级互联网络的带宽。
2、基于高速缓冲存储器的集中式
在这种结构的系统中,每个处理机都有高速缓冲存储器,多个处理机一般通过总线与存储器相连。每个处理机的高速缓冲存储器通过侦听总线来维持数据一致性。
3、具有高速缓冲存储器一致性的分布式
这种结构称为高速缓冲存储器一致的非均匀存储访问结构。这类系统的共享存储器分布于符结点之间。结点之间通过可伸缩性好的互联网络相连,每个处理机都能缓存共享单元,高速缓冲存储器一致性的维护是这类系统的关键,决定着系统的可伸缩性。
4、唯高速缓冲存储器的分布式
在这种结构中,每个结点的存储器相当于一个大容量的高速缓冲存储器,数据一致性也在这一级维护。这种系统的共享存储器的地址是活动的。存储单元与物理地址分离,数据可以根据访存模式动态地在各结点的存储器间移动和复制。
5、无高速缓冲存储器一致性的分布式
这种结构称为无高速缓冲存储器一致性的非均匀存储访问结构。它的特点是虽然每个处理机都有高速缓冲存储器,但硬件不负责维护高速缓冲存储器一致性,而由编译器或程序员来维护。
⑧ Windows Server 2012 R2中集群共享卷功能有哪些升级
需要说明的是我们搭建的SQL Server故障转移集群(SQL Server Failover Cluster)是可用性集群,而不是负载均衡集群,其目的是为了保证服务的连续性和可用性,而不是为了提高服务的性能。
SQL Server始终在负载均衡集群方面都缺少自己的产品,多由第三方厂家提供,但SQL Server故障转移集群却由来已久,在SQL Server 2012还提供了一个可用性组(AlwaysOn High Availability Groups)的新特性,我们知道微软的故障转移集群(Windows Server Failover Clustering , WSFC)一般需要共享存储,SQL Server故障转移集群也是建立在WSFC的基础之上,可用性组却可以不依赖于共享存储实现SQL Server的故障转移,这为没有共享存储的环境提供了一个实现SQL Server高可用的解决方案,关于AlwaysOn特性可以参阅相关文档,这里我们实现的是仍是基于共享存储的包含两个节点的SQL Server故障转移集群。
一、搭建Windows故障转移集群(WSFC)
SQL Server故障转移集群是基于WSFC的,因而我们需要事先在两个节点中搭建一个WSFC,这里需WSFC仅是一个容器,可以放置多个角色以实现这些角色的故障转移。为搭建一个WSFC,除了需要域环境,还需要在节点,存储,网络等方面做准备。
Cluster
1、在各节点中添加Failover Clustering服务器功能。
image
2、确保各节点操作系统的更新一致,新安装的系统要么更新到最新,要么暂不更新。
3、在各节点中配置管理网络和心跳网络,虽然一个可用网络既可以搭建集群,但是最佳实践还是分开。
4、在各节点中配置共享存储磁盘,初始化并格式化磁盘,分配盘符。这里的共享存储磁盘可以是基于IP SAN和FC SAN的磁盘,也可以是基于文件服务器的虚拟磁盘,具体可以参考Windows Server 2012 虚拟化测试:存储。在节点中可见磁盘如下:
image
为搭建SQL Server故障转移集群,至少需要准备两块共享磁盘:集群见证磁盘Q、为存储SQL Server数据库和日志文件准备的集群磁盘S。另外我们需要为SQL Server的集群实例配置分布式事务协调器(Distributed Transaction Coordinator, DTC),因而需要为DTC准备磁盘M。微软建议将SQL Server各类文件分开存储,最佳实践需准备两块以上共享磁盘,分别存储User Database、Backup和User Database Log文件,这就至少需要另一个集群磁盘L。综上我们对存储做如下配置:
集群见证磁盘Q
DTC磁盘M
SQL Server程序:本地磁盘C
User Database文件:集群磁盘S
User Database Log文件:集群磁盘L
TempDB文件:本地磁盘D,SQL Server 2012支持将Temp DB文件可以放在本地快速磁盘中。
Backup文件:集群磁盘S
另外值得一提的是到SQL Server 2014才提供了对集群共享卷的支持,因而这里只能使用集群磁盘。
5、使用Failover Cluster Manager验证并创建集群。完成后的集群磁盘视图如下:
image
二、安装SQL Server故障转移集群
Windows故障转移集群(WSFC)搭建成功后即完成了SQL Server故障转移集群的基础,接下来我们继续完成SQL Server部分。先在一个节点上安装SQL Server Failover Cluster,然后再另一个节点安装加入集群节点。
image
SQL Server集群部分,先通过验证,这里的警告主要是搭建Windows故障转移集群存在警告的警告,升级警告以及防火墙警告,可以继续。
image
选择Database Engine Services和管理组件,注意这里只有Database Engine Services和Analysis Services支持集群,其他服务都不支持。其他组件如需要也可以随后再添加,但是添加其他组建时选择Add features to an existing installation,然后选择Perfom a new installation of SQL Server 2012,而不是Add features to an existing instance of SQL Server 2012,否则最后会出现Existing clustered or cluster-prepared instance的错误,具体参考Installing SQL Integration Services after SQL Cluster Setup has Completed。
image
配置一个网络名称,类似于计算机名称,今后将通过该名称访问数据库实例。
image
三、配置DTC和SQL Server 集群
分布式事务协调器(Distributed Transaction Coordinator, DTC)在Windows中是默认安装并运行的服务。DTC的主要目的是为了实现分布式事务,确保跨进程通信的一致性,这里的进程可以是同一计算机中的两个进程,也可以是不同计算机中的进程。因而在微软的世界里,常常看到DTC的身影。
如果只是独立安装SQL Server数据库引擎则无需配置DTC。但是在同时运行SQL Serve集成服务(SQL Server Integration Services, SSIS)或者搭建SQL Sever故障转移集群等需要分布式事务的场景中,则需要配置DTC。不配置DTC并不影响SQL Server集群的安装,但是DTC没能正确配置,SQL Server集群的功能将受到影响。
Windows Server 2008及以后版本在一个Windows集群中可以有多个DTC实例,这些DTC实例可以是集群实例也可以是本地实例(这里“实例”概念的类似于SQL Server数据库引擎实例,是作为操作系统服务运行的,是同一个可执行程序的副本,在Windows集群中运行的各类服务都是以实例的形式存在,这些实例依赖Windows集群实现故障转移),甚至可以为SQL Server集群中每个SQL Server实例配置一个专属的DTC实例。SQL Server集群实例按照如下的是顺序选择DTC实例:
使用SQL Server实例专属的DTC实例,该DTC实例作为SQL Server实例以来的资源,如果DTC实例失败,将造成SQL Server实例的失败。SQL Server 2008及以后版本才有此项。
使用映射给SQL Server实例的DTC实例,使用命令msdtc可以为SQL Server实例映射DTC实例。
使用默认的DTC集群实例,SQL Server 2008及以后版本可以在Windows集群中创建多个DTC实例,第一个创建的DTC实例为默认实例,DTC集群实例并未指定给SQL Server实例专用,因而其他应用程序也可以使用该实例。
使用安装在本地计算机上DTC实例。
由于SQL Server集群实例做出选择之后是不会自动重新选择的,比如SQL Server集群实例选择了专属的DTC实例,即使该实例失败,也不会更换下一个可用的DTC实例,除非手动删除专属的DTC实例,因而微软建议在SQL Server 2008及以后版本要么为SQL Server集群中的每个SQL Server实例创建专属的DTC实例,要么就不要在SQL Server集群中创建任何DTC实例(这里的DTC实例都是集群实例,即可以实现DTC故障转移),这时SQL Server集群实例会选择实例所在节点的本地DTC实例。关于DTC的更多信息,可以查阅这里。当然这里我们不会什么也不做,下面我们将为SQL Server实例配置专属的DTC实例。
⑨ VDI存储怎么选直连存储VS共享存储
首先要确定的是虚拟桌面采用直接连接存储还是共享存储。 为VDI部署及管理存储非常困难。因为VDI对磁盘I/O的要求非常高。虽然可以通过为每个虚拟桌面提供足够的内存来减少I/O开销(这样能减少Windows操作系统对Pagefile.sys文件的依赖),但是不能够将虚拟桌面I/O减少到太少。 在业务繁忙时段更是如此。例如,大量用户在上午打开虚拟机可能会触发I/O风暴。尽管让虚拟机一直处于启动状态能避免这个问题,但是虚拟机启动风暴每天都会发生一次,所以有必要解决这个问题, 但是还有另一种类型的I/O风暴。例如,用户启动应用时可能会导致大量的I/O峰值。你的VDI存储基础设施需要具备足够高的效率来有效地处理每天这样或那样的I/O风暴。 在选择VDI存储时,你有两大选择:本地直接连接存储或者共享存储。以下是两种选择的不同之处。 本地直接连接存储 价格最低而且配置最简单的VDI存储选项就是直接连接存储(DAS)。使用DAS主要的优势就是hypervisor能够与存储直接进行通信。这意味着网络带宽限制或者延迟都不会影响与存储的通信。 另一个优势就是在使用DAS时,其他的主机不会影响磁盘I/O。在共享存储环境中,所有的主机服务器必须共享磁盘资源。如果主机恰好在承载非常繁重的工作负载,该主机的任务可能会潜在地争夺其他主机的磁盘I/O资源。但是当每台主机都有自己的存储时就不存在这个问题。 尽管DAS具有上述优势,但是它并不总是可靠的。DAS并没有提供故障切换机制。如果主机服务器宕机,那么连接到这台主机的所有存储设备就都不能访问了。正是由于这个原因,市场上众多的VDI平台甚至已经不支持DAS了。 是否能够创建主机服务器资源池并且每台主机配置本地存储取决于你正在使用的平台。如果资源池中的一台服务器发生故障,连接代理能够将会话重定向到其他主机。但这种方式不支持个人虚拟桌面。只有在每台主机都在维护完全相同的虚拟机集合时,这种故障切换策略才是有效的。 共享存储 为虚拟桌面提供存储的优选方式就是共享存储。在这一架构中,每台虚拟主机都连接到中央存储池,所有虚拟桌面的硬盘文件都位于中央存储池。因为所有主机都连接到了中央存储池,所以能够应对主机服务器发生的故障。如果主机发生故障,其工作负载能够被迁移至集群中的其他的主机上。 尽管对于大多数部署方式来说(存在例外)使用共享存储是一种更好的架构,但是共享存储同样存在缺陷。首先,部署共享存储的成本很高,如果你使用的是SAN的话,成本就更高了。 即使你使用的是iSCSI网络连接存储,成本也可能是个问题,因为底层的存储硬件必须具备容错功能,这样磁盘才不会存在单点故障。同样重要的是,存储硬件必须能够满足整个VDI环境的I/O需求。