个人学习笔记
这个笔记是华为HCIE-Cloud的面试笔记
<!-- more -->
<br>
一、FC-FusionCompute
1.*服务器虚拟化方案架构(FusionSpere虚拟化套件的结构与应用场景)
FusionSphere是华为虚拟化解决方案,可以通过在服务器上部署虚拟化软件,提高资源的利用率,帮助客户成倍缩短业务上线周期,降低数据中心能耗等。其组件包括
FusionCompute作用:将底层的硬件资源接入,将硬件资源变成资源池。
FusionManager: 提供了虚拟和物理资源接入管理、资源自动化管理。早期是类似于ManageOne的运管平台,可以融合底层的各种资源,然后可以实现一些基础的云服务功能,但是后来openstack已经比较成熟,所以FM就偏向虚拟化服务。可以提供简单的云服务,如VPC、ECS、EVS、等,还可以管理与监控硬件,可以实现对服务器的上下电操作。
eBackup:备份管理软件,可以对虚拟化场景的虚拟机与虚拟机磁盘做备份。
UltraVR:容灾管理软件,早期用于对虚拟化平台、存储、数据库、硬件做容灾,但是做不了私有云容灾。后来被BCManager eReplication代替,功能完全覆盖并且更强大,可以实现虚拟化与云场景的容灾。但是在8.0版本中UltraVR重新加入,可以实现对ARM架构(鲲鹏)容灾。(新版也不可以容灾ARM,ultraVR从未被代替。此处错误。)
追问:那FM可以拿来做云吗?
答:可以的,可以实现一些简单的云服务如......,还可以实现运维监控告警功能。
![](/upload/image/cloud/1.png)
追问:FusionSphere的应用场景
从应用层面:
帮助客户提升数据中心基础设施的资源利用率。
帮助客户成倍缩短业务上线周期。
帮助客户成倍降低数据中心能耗。
利用虚拟化基础设施的高可用和强恢复能力,实现业务快速自动化故障恢复,降低数据中心成本和增加系统应用的正常运行时间。
从架构层面:
单虚拟化:企业只采用华为fusioncompute作为虚拟化引擎,统一维护和管理平台
多虚拟化:整个IT架构既采用fusioncompute(主)又采用vmware 引擎(fm和fc必选)
私有云场景:不仅能做虚拟化也能做私有云
回答思路:首先我们的FusionSphere虚拟化在应用层面上可以帮助客户解决基础设施利用利低、业务上线周期慢、数据中心能耗高的问题,然后在架构层面上有单虚拟机与多虚拟化以及私有云场景......
追问:那我现在有FC6.3与FC6.5,是单虚拟化还是多虚拟化?
答:是单虚拟化场景,区分单多是看厂商而定
追问:在多虚拟化场景,已经有FC与vSphere,还有其它必选组件吗?
答:在多虚拟化场景下,必选还有FusionManager。如果是单FC虚拟化,FM可以不要
追问:在华为单虚拟化场景下,哪个是必需的?
答:在华为单虚拟化场景下,FC是必需的组件。
<br>
2.*虚拟化方案规划
售前、销售负责,也可能是售后对接:
调研,收集用户的问题、业务、需求、痛点、成本等
出具初步方案,针对用户的问题与痛点进行制定,与客户讲解,并得到用户认可
调研,从前期工作人员获得信息,出具详细的方案并测试(痛点与解决方案、成本、购买的软硬件、实施时间、业务评估报告等,越详细越好),并签订相应合同
售后、工程师对接:
采购、安装设备,技术人员入场:1.上架交换机、打通网络 2.上架服务器、拉线 3.安装软件 4.调试 5.功能测试、压力测试
甲方工程师与售后、工程师对接:
交付,验证顶上需求是否完成,验证工程效果,压力测试。上交全部资料、文档、参数,结算费用
其它服务,培训、后期维护,可能还有云迁移
<br>
3.VRM与CNA,网络平面
VRM:虚拟资源管理
CNA:计算节点代理
VRM与CNA之间的通信是走管理网络,通信接口是REST,通过URL通信,底层是TCP/IP协议。
VRM与CNA的功能:
CNA主要提供以下功能:
提供虚拟计算功能,是虚拟化的真正执行者
管理自己身上的虚拟机,是虚拟机生命周期的管理者
管理自己身上的计算、存储、网络资源
VRM主要提供以下功能:
管理集群上的计算资源
管理集群上虚拟机
管理集群上的存储
管理集群上的网络资源
管理集群上的高级功能,如DRS与DPM
提供管理页面,通过页面对整个系统进行操作维护,包含资源管理、资源监控、资源报表
FC的网络平面:
管理网络:VRM与CNA之间的网络
存储网络:CNA与存储之间的网络
业务网络:虚拟机对外提供业务的网络,也可以规划为迁移网络
VIMS心跳网络:VIMS集群文件系统的心跳平面,早期提供HA自治功能,现在可以协调到管理网络使用,可以不需要的平面,如果单独配置也可以,可以给热迁移与整机热迁移分担流量
心跳平面,新版本已融入管理平面,流量默认管理平面。
<br>
4.虚拟化类型介绍
全虚拟化
半虚拟化
硬件复制虚拟化
具体内容参考宝典。
<br>
5.VIMS怎么实现的?
VIMS是个逻辑上的文件系统概念,是由VRM统一管理调度。由VIMS心跳维系集群文件系统的写操作秩序。
<br>
6.虚拟化本质
封装、隔离、分区、相对硬件独立
封装:可以将虚拟机的磁盘封装为一个磁盘文件,可以通过迁移文件的形式来迁移虚拟机
分区:每个物理机可以有多个虚拟机
隔离:每个虚拟机都是独立的操作系统
相对硬件独立:虚拟机不依赖底层硬件,做到软硬件解耦
![](/upload/image/cloud/2.png)
<br>
7.FC使用SAN存储与FS存储
SAN网络是存储区域网络,给服务器与存储之间提供一个高速高效专用的存储网络。SAN有FC-SAN与IP-SAN,通过FC-SAN或IP-SAN映射出来的是块存储
![](/upload/image/cloud/3.png)
<br>
8.磁盘配置模式
普通、精简、普通延迟置零
普通:创建磁盘后从底层扣除对应空间,并且马上格式化,写入速度最快
普通延迟置零:创建磁盘后不扣除对应空间,创建一个不占空间的文件,第一次写入时扣除对应空间并格式化,写入性能适中
精简:创建磁盘后不扣除对应空间,创建一个不占空间的文件,写多少置零多少,写入速度最慢
<br>
9.磁盘模式
从属、独立持久、独立非持久
从属:可以拍快照,可以持久保存数据
独立-持久:不可以拍快照,可以持久保存数据
独立-非持久:不可以拍快照,不可以持久保存数据,关机重启会清除数据
<br>
10.什么是快照?
快照就是某一个时间点上数据的可用的一致性副本
<br>
11.XEN与KVM
![](/upload/image/cloud/4.png)
扩展点:
XEN与KVM都是开源的虚拟化技术,在6.3版本后的FC都采用了KVM开源虚拟化
追问:查看XEN或KVM?
查看内核版本uname -a
查看虚拟机进程是否以qemu开头
<br>
12.*名词解释
名词考试频率依次降低
内存复用*
内存复用是QOS的前提
内存复用:提高内存的利用率,使虚拟机的内存规格总量大于物理机内存,增加虚拟机开机密度,内存复用有3种技术实现。
内存复用功能与NUMA相冲突,同时开启时仅NUMA生效
内存复用公式:利用率=1+(主机swap空间大小-虚拟化域空间*0.1)/虚拟化域空间
(注意:是所有虚拟机的规格总量,不是单台虚拟机的内存总量。实际内存使用量不能超过主机物理内存,内存复用率一般在150%,复用率多少与swap直接联系)
内存共享:多个虚拟机共享内存数据页相同的部分,该部分可读不可写,当有数据更改请求时会新开辟一个新的内存空间做修改(OS、内核、服务、应用、纯零页等,共享部分只读,修改的部分会创建新的空间,CNA会定期扫描虚拟机内存页相同的部分,重删并保留一个相同的部分)
内存气泡:需要给关键虚拟机配置QOS份额,hypervisor通过tools创建气泡进程,进程假装消耗空闲虚拟机的空闲内存,让空闲虚拟机无法申请使用更多的内存,将空闲内存给关键虚拟机使用
内存置换:将不常访问的数据通过LRU(最近最少时间)算法,暂时放入swap分区(默认30GB,不够可以在VRM中添加)中,当需要访问swap中的数据时,再从swap中调出
LRU:最近最少时间算法,会生成一个队表,将经常访问的数据提到队首,不经常访问的会被挤到队尾。
追问:那我3种技术能同时启用和生效吗?
答:内存复用在资源发生抢占时才需要开启,内存复用会降低虚拟机性能,且在集群资源管理中仅有内存复用开关,开启后3种复用技术同时开启无法单独开启或者关闭某个技术!当资源不足时会将3种技术相互协调来实现内存复用。
扩展点:XEN技术仅能共享零页内存,KVM可以共享相同的页
实际回答时按原文档深度回答即可,一般不要解释底层具体原理
文档原文:
内存气泡:系统主动回收虚拟机暂时不用的物理内存,分配给需要复用内存的虚拟机。内存的回收和分配均为系统动态执行,虚拟机上的应用无感知。整个物理服务器上的所有虚拟机使用的分配内存总量不能超过该服务器的物理内存总量。
内存交换:将外部存储虚拟成内存给虚拟机使用,将虚拟机上暂时不用的数据存放到外部存储上。系统需要使用这些数据时,再与预留在内存上的数据进行交换。
内存共享:多台虚拟机共享数据内容相同的内存页。
*热迁移
回答要点:先清楚考官问热迁移还是虚拟机热迁移或者存储热迁移,不要上来就主观认为是虚拟机热迁移,应当将3种迁移方式都介绍一下,然后以最熟悉的为例,如我首先介绍一下虚拟机热迁移
更改主机——虚拟机热迁移
将一台正在运行的虚拟机,又一个CNA迁移到另一台CNA
更改数据存储——存储热迁移
将一台虚拟机的磁盘从一个存储迁移到另一个存储
更改主机和存储——整机热迁移
将虚拟机与虚拟机的磁盘都迁移到其它地方
虚拟机热迁移:
更改主机:迁移内存与配置文件
应用场景:CNA需要停机维护、集群负载均衡
迁移技术:内存变更分片
流量走向:默认走管理网络,也可单独规划迁移网络
过程:根据配置在目的主机创建VM → 对VM的原始内存锁定,创建新的内存分片 → 将原始内存迁移到目的主机 → 对原内存分片锁定,并建立新的内存分片 →传输内存分片 →当最后的内存分片达到极小值时 →暂停IO下发,暂停VM状态并将最后内存分片迁移到目的主机 →在目的主机上合并内存→修改虚拟机磁盘映射→在目的主机上开启VM恢复IO下发,并原主机上停止VM并删除原始数据
迁移限制:
源目主机网络必需相通
虚拟机不能有外设的绑定
存储必需是共享存储
追问:什么是极小值?
答:在最后迁移的时候用户无感知的业务中断时间,没有具体值
存储热迁移:
更改数据存储:迁移虚拟机磁盘文件
应用场景:存储需要维护、存储负载均衡、更换高性能存储
迁移技术:IO-Mirror(IO镜像)
流量走向:存储网络,默认走管理网络,如果配置了VIMS心跳网络就走VIMS平面
过程:在目的端创建一样的磁盘文件 → 然后会启用iomirror → hypervisor会对数据拦截并双写到两个存储中→同时将原始的磁盘文件迁移对端 → 原始文件迁移完成 →暂停IO →合并磁盘数据→改变虚拟机磁盘文件映射 →虚拟机状态恢复→源磁盘文件删除
迁移限制:
源目主机网络要通
存储之间能相互通信
目的存储必需有足够空间
存储必需是共享存储
存储不能为FS,FS不支持iomirror,因为FS映射给VM的是个卷(存储资源:FS,存储设备:存储池,数据存储:卷),在CNA上看到的只是个存储池,希望只能进行创建卷操作,相当于裸设备,没有系统对它进行格式化,而且裸设备不能实现iomirror,但是如果是IP-SAN方式映射给CNA并格式化为VIMS后就能支持热迁移了。总结:因为FS是非虚拟化存储,所以不能存储热迁移
追问:IO-Mirror是哪一层实现的?
答:是主机层实现的,具体是主机的Hypervisor层面实现的
还有一个说法IOmirror是文件系统实现的,FS提供的LUN时裸设备没有文件系统,故无法实现。
整机热迁移(非共享存储热迁移):
更改主机与数据存储:迁移虚拟机磁盘文件
应用场景:主机与存储都需要进行维护与升级,在没有共享存储的情况下热迁移,跨集群、跨站点迁移
迁移技术:IO-Mirror、内存变更分片
流量走向:管理网络
过程:先迁移磁盘文件 → 磁盘文件迁移完成 → 数据双写保持同步(经管理网络或VIMS网络) → 再迁移内存 → 迁移完成 →暂停原虚拟机IO下发 → 在对端CNA上修改VM磁盘映射并开机 →停止原VM状态并删除原数据
迁移过程中仅暂停1次:同时切换数据存储与内存变更分片迁移
迁移限制:虚拟机迁移过程不能死机、重启、关机,源目主机要相通,虚拟机不能绑定硬件
![](/upload/image/cloud/5.png)
DRS:动态资源调度
配置:集群-集群资源控制
过程:VRM会动态扫描负载较高的主机,将负载较高的主机上的虚拟机迁移到负载较低的主机上,实现集群负载均衡
自动化级别:自动、手动
衡量因素:CPU、内存、CPU或内存
调度基线:CPU %、内存 %
迁移阈值:激进、较激进、中等、较保守、保守
虚拟机替代项:集群-配置-虚拟机替代项,用来设置某台虚拟机的调度策略
调节集群的负载均衡:将负载较高的CNA上的虚拟机迁移到负载轻的CNA上
虚拟机替代项的设置位置:
![](/upload/image/cloud/6.png)
资源整合提高利用率:CNA都比较闲的时候,将虚拟机整合到尽可能少的CNA
*追问:什么是资源动态调整?(此题极易与DRS混淆)
答:对正在运行的或未运行的虚拟机上的资源进行动态调整,如CPU、内存、磁盘、网卡等。注意:大部分系统对CPU不支持热添加,内存基本支持热添加,磁盘容量只支持热添加,磁盘数量可以增减(非系统盘),网卡也支持热增减。
DPM:动态电源管理
实现节能减排,需要配合DRS实现,建立在DRS之上,需要配置主机的BMC地址
DRS与DPM的限制条件:DRS与DPM建立在热迁移之上,所以限制与热迁移的基本一致
DRS与DPM的配置位置:集群资源控制-计算资源调度配置
HA
HA高可用本身不是热迁移,是保障业务连续性的机制。当虚拟机或者主机故障之后,可以通过HA在正常的节点上重新开启虚拟机。因为HA触发时,意味着虚拟机或CNA已经宕机,业务已经中断,所以不能算热迁移
配置:集群-集群资源控制-HA配置
主机故障处理策略:原主机恢复虚拟机、HA虚拟机
存储故障处理策略:不处理、HA虚拟机
Windows虚拟机蓝屏处理策略:不处理、重启虚拟机、HA虚拟机
监控策略:VRM与CNA的心跳、主CNA节点与其它CNA的心跳
RTO>0,RPO可能=0
心跳次数:3秒/次,当10次未回应或30秒未回应时,判定该节点故障
过程:VRM根据数据库中的虚拟机配置文件,在其它CNA节点上重新创建虚拟机并挂载磁盘启动
配置文件:保存于CNA磁盘与VRM数据库中,保存着虚拟机规格的一些信息
要求条件:有共享存储
早期版本还有集群自治功能:由主(Master)节点通过VIMS心跳网络与其它CNA通信,当发现其它CNA故障时会执行HA下发HA指令,目前该功能已经取消
追问:在HA里配置了虚拟机蓝屏策略是重启,就真的可以重启吗?
答:虚拟机已经死机,并不能真正重启,是强制进行重启
IMC 不兼容集群迁移
限制CPU指令集的一种策略,让高版本的CPU指令集兼容低版本的CPU指令集。
假设:A主机的CPU有ABC3种指令集,B主机CPU有A指令集,那直接将A主机上的虚拟机迁移到B主机上会造成虚拟机无法正常运行。开启了IMC后,A主机只有A指令集,就可以兼容B主机的CPU指令集了。未开IMC可以低版本迁移高版本,但是不能高迁低。
限制条件:必需要在虚拟功能机未启动之前开启,当虚拟机运行之后再开启需要重启虚拟机
建议在集群创建时开启此功能
追问:那是不是只要是不同版本的CPU都行?
答:不一定,必需要求同厂不同代。华为的FC目前只支持intel不支持AMD
QOS
内存复用是QOS的前提
高质量服务,通过限制资源的份额,来限制虚拟机所能使用的资源多少
限制种类:CPU、内存、磁盘、网络
限制类别:资源限额、资源份额、资源预留
首先保证内存限额,然后是内存预留,最后是内存份额
CPU与内存:在虚拟机创建时或者配置中,可以调整份额、预留、限制
磁盘:在虚拟机配置-磁盘中,选择对应的磁盘可以设置磁盘IO上限
网络:网络-端口组-网络设置,可以配置流量整形
![](/upload/image/cloud/7.png)
快照
内存快照、一致性快照、普通快照,都是CNA打的快照,类型为ROW。
内存快照:对磁盘拍快照,同时将内1:1的拷贝出来到CNA的磁盘上。还原时将磁盘与内存恢复回来,可以恢复到原来的状态,可以保护某一时刻的虚拟机状态,恢复后是开机。
内存快照一个主机只能创建1个
一致性快照:会强制将内存中的脏数据刷盘,然后对磁盘打快照。必需要有tools且正常运行,还需要是兼容列表支持的系统版本,恢复后是关机状态。
注意:一致性快照不兼容Linux系统,仅支持Windows7、2008、2008R2。一台主机最多只能创建2个一致性快照。
普通快照:一般不允许在开机状态下拍快照,因为只对磁盘打快照,内存数据会丢失,不能保证一致性,打快照的速度最快。
OVS、DVS
端口组
在发虚拟机时,选择端口组可以自动在OVS上配置相同策略的端口。若虚拟机需要流量整形时,可以单独配置端口组,并将将虚拟机网卡选择此端口组即可。
在网络-端口组-点击端口组进行配置即可
![](/upload/image/cloud/8.png)
替代项
<br>
13.虚拟机中的APP存放数据到底下的存储设备中时需要进行几次IO的转换?
3次,第一次是app将数据存入虚拟机的磁盘中会将file IO转换
为磁盘所能识别的block IO,第二次是VMM会将虚拟机磁盘的block IO转为虚拟化存储所能识别的file IO,第三次是虚拟化存储将 file IO转换为物理存储块所能识别的block IO。
<br>
14.DVS分布式交换机
DVS基于多个OVS(软件虚拟的虚拟交换机)的逻辑概念基础之上的分布式交换机,同一个OVS可以加入不同的DVS,DVS也是虚拟交换机的一种,支持二层通信。同网段时是二层通信,跨VLAN或跨网段是三层通信。配置端口组的指令从VRM下发到每台CNA上再应用到DVS上,最后下发到对应的OVS上。
虚拟机的MAC地址保存在DVS上
<br>
15.EVS高性能虚拟交换机
EVS为了解决OVS性能不好的问题而开发的,EVS需要使用特定的网卡,需要支持intel的DPDK技术才能开启EVS,能提供高性能的网络通信。能提升EVS到网卡之间的转发速度,原理是建立从网卡到虚拟机的独立通道来提升交换性能。但是支持DPDK技术的网卡价格贵。
<br>
16.网络虚拟化的三种模式(DVS的三种模式)
普通模式(OVS,支持功能最多)
用户态模式VMDQ(EVS)
SR-IOV(硬件直通,理解为网卡虚拟化)类比华为刀片服务器MZ512网卡
<br>
17.提升虚拟机网络性能的方式?
主要有2种方式:
开启EVS,但是需要网卡支持DPDK技术,且此种网卡价格贵
网卡开启SR-IOV模式,能实现硬件上与虚拟机直接收发数据,性能最好,价格更贵
<br>
18.大二层通信
如果是不同的DVS不同的集群迁移需要用到VXLAN技术,也就是大二层技术,在三层上实现二层通信就是大二层通信。 少扯大二层,数通领域,追问原理说错容易引起考官反感。
<br>
19.端口组
端口组可以绑定一个或者多个VLAN,相当于在OVS上对应端口配置Access或Trunk口。除了拥有vlan属性之外,还可实现高级特性,比如流量整形,广播抑制,dhcp隔离,TCP校验填充
<br>
20.*虚拟机不通?
内部通信:
相同的VLAN
相同网段
相同主机
相同DVS
内部通信经过OVS,只要一个不同就是外部通信
内部应注意ip ,掩码,网关IP,防火墙,杀毒软件,端口等
注意:不建议回答OVS可能故障,因为可能会给追问OVS故障处理方法
外部通信:一旦流程走向外部,应注意主机端口,光模块,链路,网卡驱动,固件,交换机状态,配置等
要路由:不同VLAN、不同网段,有一个不同就需要路由
不要路由:不在同一个CNA上,但是VLAN、网段相同,不需要路由
一但涉及路由,应主机VM到网关的路由,网关的路由条目等
windows命令例如 route print
路由器 dis route-tables
追问:快速排错?
答:可以尝试ping对方、ping网关、tracert跟踪、display arp等
<br>
二、FA-FusionAccess
1.*组件?
vLB:虚拟负载均衡,用来选择合适的WI,给WI提供负载均衡,防止单个WI负载高
WI:面向用户有登陆界面,用于鉴权与查看桌面列表
vAG:虚拟接入网关,桌面接入网关,负责连接内外网与隔离内外网,同时还是自助维护通道的网关(VNC)
UNS:统一域名服务
HDC:华为桌面控制器,负责接收、处理ITA的请求,介于各个组件的中转站。HDC可以部署多个
GaussDB:用于保存桌面虚拟机的相关信息(IP、端口、名称、状态等),非高斯错误!未指定顺序。DB,是开源DB
ITA:负责管理桌面,对接FC虚拟化平台,对接计算资源等,是FA的核心组件
LICENSE:鉴权工具,用于验证用户的权限(桌面数量、用户数、高级功能等)
AD:活动目录,用来保存用户账户的信息(非必选,可以使用其它的开源AD如liteAD),可以方便管理用户的权限,针对某一个组的用户分发池化桌面和权限下发
HDA:华为桌面代理,接收Client的指令,传递鼠标键盘USB等信息并在桌面上执行,同时还将图像数据传送给Client,保证高清低延迟的流畅体验。注意:有时候可能会是AccessAgent,本质上与HDA是一个东西
DNS:域名解析服务器,解析ITA、HDC的域名
DHCP:动态分配IP地址,给桌面分配IP地址
TCM:瘦终端管理器,用于统一管理瘦终端
BackupServer:备份服务器,备份管理平台、组件与数据
vdesk:自助维护工具,类似于电脑管家助手,可以一键修复桌面的一些问题
![](/upload/image/cloud/9.png)
追问:有无vAG的区别?
答:有vAG就可以提供桌面接入网关的功能,同时还有自主维护通道网关的功能,如果没有vAG,那Client就直接与HDA进行通信,且失去自主维护通道网关功能。
追问:没有vAG可以实现自主维护通道功能吗?
答:如果没有vAG那客户端就无法使用自动维护通道功能,只能通过FC平台以VNC的方式登陆到虚拟机进行维护。
<br>
2.C/S与B/S构架?
C/S架构是指,客户端——服务器的架构,例如QQ、微信等
B/S架构是指,浏览器——服务器的架构,例如网页版QQ、网页版微信等
<br>
3.搭建FA所需要的最少组件?
WI、ITA、HDC、DB、LICENSE
问:为什么HDA不算?
答:因为从抢建角度来看,如果是仅搭建FA这个平台,那么HDA就不需要,但是如果还需要发放桌面那么HDA就是必选组件
<br>
4.模版部署工具?
![](/upload/image/cloud/10.png)
是个iso镜像文件,挂载上后运行,有3个框
分别是:制作模版、托管机、windows系统安全加固
托管机:一般用来接管其它厂商的虚拟机或者物理机,会安装HDA并配置FA的参数与FA对接即可被接管
华为FA底层虚拟化不可对接别的虚拟化平台,但可用托管的形式管理,比较拉跨。业界云桌面做的比较好是思杰,虚拟化做的好的是VMware
系统加固:用于加固部署AD、DNS、DHCP的windows server系统,加强对系统的安全性和稳定性,同时会安装一个agent,让ITA能监控到AD的状态
<br>
5.*FA组件交互的4个流程?
登陆:
Client用户密码→vLB→WI→ITA→AD验证
获取列表:列表有用户自己的和用户组的,所以需要先向AD查询组信息
Client请求列表→vLB→WI→AD查询组信息,WI→HDC→DB查询虚拟机列表
注意:如果虚拟机未开机,则HDC会通知ITA再通知VRM将对应的虚拟机开机
预连接:
WI→HDC→DB查询桌面IP信息→HDC发起预连接→HDA,HDC→License验证,HDC返回2张票(有VAG2张,无VAG1张)→Client
连接:
有2种情况:有vAG,无vAG
有vAG:Client地址票→vAG→HDC验证票,返回IP地址与端口→vAG登陆票→HDA→HDC验证票,返回用户名密码→HDA→AD再次验证用户密码→HDA→Client建立连接→HDC更新状态→DB,HDC扣除Lincense→License
无vAG:有vAG:Client登陆票→HDA→HDC验证票,返回用户名密码→HDA→AD再次验证用户密码→HDA→Client建立连接→HDC更新状态→DB,HDC扣除Lincense→License
<br>
6.*FA排错
一般情况下需要回答8点左右
桌面灰色
注册失败:虚拟机异常、虚拟机关机、HDA异常、HDA到AD的通讯异常、AD故障、HDC故障、HDA到HDC的网络故障、HDC和DB通讯异常、DB异常、时间不同步等(合理即可)
预连接失败:虚拟机异常、虚拟机关机、HDA异常、HDC到HDA通信异常、License故障、License不足、虚拟机IP冲突、时间不同步(合理即可)
获取不到列表:DB异常、AD异常、未分配给用户、HDC-DB、HDC-AD、HDC故障
WI登陆不上:vLB故障、AD异常、ITA异常
桌面蓝色登不上什么原因:连接失败,Client到vAG通讯异常、vAG故障、vAG到HDC异常
正常使用突然黑屏:如果HDA故障就直接退出了,Client-HDA、客户端异常、vAG故障、Client-vAG、系统原因、用户网络不稳定、Client被防火墙拦截、虚拟机IP冲突
发放过程中,卡在52%:检查虚拟机IP是否可达,可能虚拟机没有IP、DHCP没有多的IP、IP冲突、IP配置错误、网卡没有正常驱动、CNA故障、CNA网络故障(合理即可)
发放失败原因:ITA和VRM网络故障、VRM故障、ITA故障、CNA故障、VRM与CNA的故障、DHCP故障、DHCP没有地址、IP冲突、没有网卡驱动、注册失败
报错误代码,卡在某一位置:会提示你是什么情况,并告诉你代码如6030是什么问题
发放流程失败百分比错误
![](/upload/image/cloud/11.png)
<br>
7.FA快速排错
![](/upload/image/cloud/12.png)
<br>
8.FA大规划故障
大规模情况下往往是由于网络、组件、硬件的异常造成
<br>
9.License有哪几种,有哪些特性?
License有2种:分为用户数与并发用户数
用户数是一个用户第一次登陆到桌面就扣除1个并一直占用,注销WI也占用,15天后会自动释放,默认15天,具体时间随license设置而定
并发用户数是用户第一次登陆时扣除1个License,注销WI与桌面后就释放,并发用户数的License的价格稍贵一些
<br>
10.什么时候扣License,登陆第二台桌面会扣吗?
Lincense在建立连接成功后,会由HDC找Lincense组件扣除一个Lincense,一般是一个用户第一次登陆桌面时会扣除一个License,如果此时还是相同的用户登陆第二台桌面,那么就不会再扣除Lincense了。
<br>
11.虚拟机模版与模版虚拟机?
虚拟机模版是已经完成模版制作并转为模版的模版,用于发放虚拟机的模版;模版虚拟机是还没转换为模版之前的虚拟机,是用来制作为模版的虚拟机。
关联关系:在ITA上发放虚拟机的时候通过模版虚拟机制作的虚拟机模版来发放,桌面组用来关联在ITA上发放的虚拟机及虚拟机组和用户组和用户组的关联关系的
<br>
12.链接克隆、完整复制、快速封装、全内存、托管机?
链接克隆共用系统盘,不需要封装,差异数据放在差分盘里,发放速度快(除了第一台),节约磁盘。只能发放池化桌面。
完整复制是独立的虚拟机,需要封装,系统盘独立互不影响,每发放一台都需要复制系统盘。可以发放池化桌面和专有桌面。
快速封装是完整复制的一个类型,系统盘也是独立的,发放速度最快,不需要封装,不清除个性化数据,发出来的虚拟机个性化数据一样(SID也一样),会有一些限制条件(如很多软件要求SID不能相同),可以发放池化桌面和专有桌面。
全内存是指将系统盘放在内存中的虚拟机,运行速度极快,性能好
托管机是指将其它平台的桌面在FA上进行托管,也可以是物理机
<br>
13.母盘与差分盘?
母盘是用于链接克隆虚拟机的系统盘,多套虚拟机共用一个母盘(最大128台),用户的数据与修改都保存于差分盘中,无论用户如何操作,母盘的数据始终不变且只读。
母盘最大可以供128台虚拟机使用,当达到129台时会重新创建母盘。
如果选择其它磁盘,那么差分盘的数据保存于母盘的一个分区中
链接克隆的系统盘=母盘+差分盘
<br>
14.链接克隆可以不加域吗?
链接克隆可以选择不加域,但是在发放的时候需要加域
<br>
15.链接克隆需要保存数据怎么做?
链接克隆一般情况下不保存个性化数据,但是如果必要可以保存
差分盘默认情况下关机后数据清空,但是可以选择永远保存,在桌面组配置里上有个“支持系统还原”的勾,如果不勾就会持久保存数据。
![](/upload/image/cloud/13.png)
动态池默认不可以保存个性化数据,静态池默认可以保存个性化数据
或者挂一块磁盘或者共享目录,将文件保存于磁盘或共享目录中。
<br>
16.如何批量的升级虚拟机?
链接克隆
建议基于现有的模版重新制作新的模版,可以将现有的模版克隆并转虚拟机开机进行操作,再封装为模版
在ITA界面的虚拟机组中,选择更新模版,然后就基于新模版会重新发放虚拟机,更新速度快,个性化数据不会丢失
完整复制
建议基于现有的模版重新制作新的模版,可以将现有的模版克隆并转虚拟机开机进行操作,再封装为模版
在ITA界面的虚拟机组中,选择更新模版,然后就基于新模版会重新发放虚拟机,而且升级过程是一台台虚拟机系统盘进行升级,速度较慢
完整复制可以用域控进行统一的管理升级,不要死板硬记
<br>
17.为什么需要封装?
清除系统里的个性化数据,如计算机名、SID、域信息、用户账户、系统设置等等。只有完整复制的模版制作时需要封装,快速封装虚拟机不需要进行封装。
追问:为什么链接克隆不需要封装?
答:因为链接克隆需要保留个性化数据、应用、配置,发放出来的虚拟机都是共用一个母盘。
<br>
18.如果SID一样能成功加域吗?
SID一样情况下可以成功加域,但是不能对域同时进行操作,但是在模版制作时会自动加域,这样发放出来的虚拟机就已经加好域了
<br>
19.删除了模版那已经发放的虚拟机还能正常使用吗?
可以的,已经发放的虚拟机模版已经创建了对应的系统盘,不再依赖模版。
<br>
20.池化桌面、专有桌面?
池化桌面:一个池用户只能看到一台虚拟机,如果有多个池就可以看到多个池的虚拟机
动态池,没有对应的关系,组里的用户随机分配池中的一台虚拟机,用完再还入池子
静态池,有部分对应关系,组里的用户第一次登陆时在池中随机分配一台虚拟机,以后再登陆时依旧分配此台虚拟机
专有桌面:
单用户,管理员可以指定将某台虚拟机给某个用户使用,只能独享
静态多用户,一个桌面可以被多个用户拥有
<br>
21.用户组、虚拟机组、桌面组?
参考宝典52页,重点
<br>
22.虚拟机发放与注册过程?
考试可能问发放的操作步骤,也可能是组件的交互
创建虚拟机:
ITA→VRM→CNA创建VM
加域:不管是完整复制还是链接克隆,在发放时都要加域
VM→DHCP获取IP
VM→ITA→找到AD加域(完整复制)或验证域(链接克隆、快速封装)
注册:注册是为了让虚拟机被HDC接管,否则就始终是虚拟机。注册在发放与开机时都会注册
ITA→VM将HDC信息写入HDA注册表
VM根据注册表信息→DNS验证HDC域名
DNS返回HDC的IP地址→HDA
HDA通过HDC的IP→向HDC注册
HDC核实HDA的合法性,如果合法则返回注册成功,并向DB记录信息
HDC向虚拟机下发License版本信息与桌面组信息
<br>
23.虚拟机发生故障怎么处理?
在虚拟机列表下方有个自助维护按钮,通过自助维护通道、通过VNC协议连接到虚拟机,双击桌面上的vdesk自主维护工具,然后自己进行修复。
Vtools可了解一下,目前vtools已经停产。考试又问到过
![](/upload/image/cloud/14.png)
如果修复不成功,那么建议在ITA上查看有无报错或者查看日志看看错误代码。
追问:6030代码对应哪个故障?
答:是客户端到HDA通讯故障;如果不知道直接说我不太清楚,但是你要明确你的操作思路,如6开头一般是客户端相关的问题,出现此类错误一般会查看产品文档参照故障代码对故障进行一个定位来排除故障。
<br>
24.IO风暴产生原因与解决方法?
IO风暴主要原因是在某一个时段内开启的虚拟机数量太多导致IO风暴造成FA组件压力
分批次开机,在桌面组中可以设置高峰预启动虚拟机数量
![](/upload/image/cloud/15.png)
开启i-cache功能
<br>
三、FS-FusionStorage
1.适用场景?
适用高IO、高并发、高呑吐量的场景,云场景和虚拟化场景也建议使用FS
在银行、公安、医院等场景中推荐使用传统存储,但是FS也趋于稳定所以也同样推荐
<br>
2.*FusionStorage与传统存储对比
可以从认可度、成本结构、性能、稳定性、缓存、磁盘利用率、组网、安全、运维等方面回答
认可度:
传统存储历史悠久,认可度高,应用时间久,可靠性高
FS因为是刚刚推出不久的分布式软件定义存储,所以认可度上还没有传统存储高
成本结构:切忌不要讲谁便宜谁贵!大忌!
传统存储有硬件绑定,需要购买一套方案,包括硬盘框、控制器、硬盘等,所有的配件都来自同一厂商,还需要高级功能的license才能使用
FS没有硬件绑定,可以安装在任何的x86服务器上没有品牌要求,硬件也没有绑定关系,CPU、内存、硬盘可以多厂商品牌组合
性能:切忌不要讲谁的性能好!大忌!
传统存储的控制器上限是32个控(其它厂商16控),容易产生性能瓶颈
FS一个集群最大有4096个节点,性能随着容量增加而增加,但达到某个阈值后增长缓慢(VBS、OSD、MDC三个组件共同参与计算)
扩展:传统存储的性能瓶颈可能有哪些原因:控制器、缓存、总线、带宽、硬盘、数据机制
缓存:
传统存储一般容缓存可以做到GB级别(内存容量受限与插槽不多),且内存作缓存风险高,容易掉电可能丢失数据
FS的缓存容量可以达到PB级别(SSD作缓存),SSD容量大性能好,可以直接用于当缓存,且SSD是持久化保存,不担心突然掉电
磁盘利用率:
传统存储一般基于RAID5做数据冗余保护,磁盘利用率较高
FS的磁盘利用率依多副本的配置情况而定,磁盘的利用率上不及传统存储,一般最大1/2
数据安全:
传统存储采用RAID磁盘阵列进保护数据,数据恢复慢,数据恢复时磁盘压力大且其它磁盘如果恢复时故障数据将丢失(RAID5)
注意:需要了解RAID0、1、3、5、10、15等机制,有概率会追问问到
FS具备多副本机制,一个数据会有多个副本,副本会保存在其它节点上,单个节点损坏不影响数据安全,会重新建立多副本关系,数据的恢复是秒级恢复
稳定性(注意此处是硬件层面上的不稳定,非FS软件上的不稳定):
传统存储已经趋于成熟,一般采用双控制器,每个控制器相互独立,有自己的CPU与内存,坏一个控制器不影响使用
FS每个节点是基于x86服务器搭建,硬件层面上几乎没有冗余,比如CPU与内存坏了就会宕机,只有电源、风扇、硬盘上有冗余。总结就是受限于单台节点硬件不稳定导致了FS集群可能不稳定
组网:
传统存储组网平面较简单,一般只需要存储网络平面
FS的组网较复杂,需要2个以上的平面,需要存储与管理平面,对组网的要求高
维护:
传统存储需要使用厂商统一的维护工具,且一个厂商可能还存在多个维护工具
FS的维护通过FSM界面,一站式完成,FSM提供了完善的管理监控告警日志功能
<br>
3.集中式存储
通过存储控制器将所有的存储资源集中管控,并且底层存储的逻辑架构及上层IO承接全部有一个角色来完成
<br>
4.ServerSan=FusionStorage吗?
ServerSan只是一种软件定义存储类型总称,是一个大类
FusionStorage即是软件定义存储,也是分布式存储,可以安装在几乎任何的x86服务器上,属于ServerSan的其中一种,所以SserverSan不能与FS划等号
┏━━━━━━━━━━━━━━━━━┓
┃ ServerSan        ┃
┃      ┏━━━━━━━━━━━┓   ┃
┃      ┃FusionStorage┃   ┃
┃      ┗━━━━━━━━━━━┛   ┃
┗━━━━━━━━━━━━━━━━━┛
<br>
5.*FusionStorage组件介绍
FSM:
FSM为管理模块,用于管理整个FS的集群,推荐主备部署
FSA:FSA是管理代理进程,部署在各个节点与FSM通信,FSA安装完可以选装VBS、OSD、MDC来实现不同的功能与角色
ZK:zookeeper是开源的集群软件,在华为FS中,zk负责MDC的选主,并维护控制集群状态,zk有半数存活机制,和半数选举机制。
VBS客户端软件进程,安装在前端计算节点上,接收数据与处理数据
MDC元数据控制组件,对分布式集群的状态控制(组件健康状态)、数据的分布式规则、数据副本机制,MDC的元数据保存在ZK盘上。所有的MDC互为心跳
主MDC:一个集群只有一个主MDC,不直接参与管理存储池,做着信息收集与同步,负责创建规则与维护集群状态。主MDC会选出接替者,在主故障时与ZK互动接替上去
归属MDC:MDC所管的存储池,归属于此存储池的MDC即为归属MDC
ZK盘:用于保存元数据,初始配置时与MDC数量一致,一般3,5,7部署,ZK可以是块磁盘,也可以是分区,默认60GB。ZK还具有集群协调作用,如MDC选主。ZK通过投票选主。
OSD服务端软件进程
扩展:MDC通过心跳感知OSD的状态,心跳1秒1次,5次即5秒没收到则判定OSD故障
FusionStorage有两个组件,一个是FSM,一个是FSA,FSM:管理模块,提供告警,监控,日志,配置等功能,要主备部署,FSA:代理进程,部署在节点上,实现节点与FSM之间的通信。
FSA:三个主要模块(进程),MDC:元数据控制,对分布式集群实现状态控制,以及控制数据分布式规则,数据重建规则,而且MDC默认部署在3,5或7个节点上(zk盘)。VBS:提供接入点服务,如果业务要调用FS的话,就是通过VBS接入来调用FS存储的。OSD:默认一个磁盘部署一个OSD,执行具体的IO操作。交互:MDC通过心跳去管理OSD,VBS,OSD每秒都会上报自己的一个状态,如果OSD 5秒钟都没有发自己的状态给MDC的话,MDC会认为它挂了,然后会触发数据的重建,重建的话首先MDC会去刷新OSD的视图并通知其他的OSD,触发数据重建指触发较小范围内的数据重建,并不会触发整个的数据重建,如果在5秒内把磁盘恢复,那么数据重建的时候会把这个磁盘纳入重建范围,如果超过5秒,数据重建的时候不把该磁盘纳入重建范围。
<br>
6.最多能坏多少盘或节点
如果是2副本场景,最多可以坏1个硬盘或1台节点。如果是3副本场景,最多可以坏2块盘或2台节点
<br>
7.传统存储的控制器相当于FS的哪个组件
VBS、OSD、MDC都是
<br>
8.为什么FS使用XFS文件系统能提供块存储?
FS是块存储,卷是由VBS模拟的
Xfs是日志性文件系统,拥有更多的inode数量和更大的容量,更适合分布式存储,放1M分片。
<br>
9.ZK选主?
ZK通过投票选主,当3个ZK投票时,其中一个ZK票数大于ZK数量的一半以上(如3ZK,>1.5即2票;5,>2.5即3票)即为主ZK。主ZK挂了之后需要重新投票选主。
注意:3个ZK情况较特殊,当主ZK挂了后,ID较小的ZK直接当选主ZK
ZK有过半存活机制,坏的超过一半集群死亡。
<br>
10.ZK为什么要3、5、7个,2、4、6或9个以上行不行?
因为ZK有坏半机制,当ZK坏的数量超过一半时直接判定集群死亡,如果是2、4、6个,坏的数量依旧也是一样,且没有意义。
如3个ZK只能坏1个,4个ZK也是只能坏1个,坏2个就不可用
其次就是奇数部署能够方便投票选主,因为票数必需要投出一半以上的才能当主ZK。
如果一定要偶数部署一般是不可以的,但是可以通过技术方式来实现。
9个以上也是可以的,但是7个已经足够安全稳定,但是没有太多必要
<br>
11.MDC启动时向ZK注册了什么?
状态信息、主机节点信息、通讯方式
<br>
12.VBS部署多个?
VBS可以通过脚本的方式部署多个,多个VBS之间是负载均衡方式运行
<br>
13.MDC启动时向ZK注册了什么?
状态信息、主机节点信息、通讯方式
<br>
14.MDC最多多少个?
MDC在系统初始化部署时数量与ZK保持一致,MDC在不足96个时,每创建一个存储池会自动创建一个MDC,当达到96个时,即97个存储池时将不再创建MDC。存储池最多128个,MDC可以管理1-2个存储池。
<br>
15.FS的元数据?(三个视图)
三个视图都是由MDC生成,保存于ZK盘,缓存于各个组件中
IO视图:partition分区对应OSD的关系(分区对应磁盘的关系),缓存于VBS上
DHT环分成若干份,其中每一份就是partition分区,每个partition分区对应相应的OSD
Partition视图:partition值对应主备OSD的关系,缓存于OSD上
OSD视图:记录OSD的ID与OSD的状态,缓存于MDC,保存在ZK上
![](/upload/image/cloud/16.png)
OSD每1秒给MDC上报心跳信息,当有5次(5秒)没有上报信息给MDC,那么就认为此OSD故障,会将OSD踢出集群
<br>
16.OSD的元数据
每个1M分片的分配关系,就是OSD的元数据,保存于OSD对应的磁盘上
也就是每个数据对应哪个KEY值的对应关系
<br>
17.IO组件的结构
VBS组件内部模块介绍
vbs-scsi:负责将io引入
vbs-vbp:将系统通用的块格式转化为fusionstorage内部的key-volue格式。
vbs-client:进行哈希计算得出数据的partion信息
vbs-vbm:负责卷快照管理工作
OSD组件内部模块介绍
RSM:内部的复制协议,负责副本双写。
SNAP:负责卷和快照io功能,对磁盘快照管理
CACHE:负责缓存机制功能
AIO:实现io下发到osd-smio模块
SMIO:负责io写入,健康检查
<br>
18.数量总结
一个FS集群最多128个存储池,总共4096个节点(装了OSD的节点)
每个存储池最少3个节点
每个存储池最少12块盘
两副本场景:一个存储池最多96块盘
三副本场景:一个存储池最多2048块盘
最大容许坏盘数量:2副本下最多坏1块盘,3副本下最多坏2块盘
三副本情况下,如果只有3个节点,最多坏1个节点;如果有多个节点,不能超过ZK数量一半,不能坏副本所在的所有节点,不能坏超过存储数据占用的剩余空间。
一个存储池的硬盘必须是同一类型:SAS SATA SSD NVME NL_SAS
一个存储池各节点主存硬盘不能大于2
一个存储池各节点主存硬盘容量差比不能大于或等于30%
当主存盘是SSD时可以不需要缓存
ZK是3,5,7个部署的 ZK最少三节点部署,因为其投票选主原则,三节点一下无法选主,无法存活
MDC初始化时数量和ZK相等 MDC和ZK之间是服务端和客户端的关系,但并非一 一对应,MDC与ZK通过TCP链接
MDC最多96个
每个MDC可以管理1-2个存储池
FSM建议部署两个(主备部署)
每个节点都有FSA
一个集群最多4096节点
VBS数量没有限制,默认运行1个,可以通过命令脚本运行多个
<br>
19.FusionStorage数据下发过程(VBS)
![](/upload/image/cloud/17.png)
APP产生IO→OS→内存→VBS→主OSD→主OSD拷贝副本给其它副OSD
具体过程:IO→VBS→经过SCSI/iSCSI协议进入SCSI模块→VBP将数据切片成1M大小并转换成key-volume格式→VBP将切片的数据LAB ID与LUN ID转换成key值→key值给CLIENT经过哈希计算算出partition值→根据MDC生成的IO视图找到对应的OSD→OSD内的RSM根据OSD生成的Partition视图复制副本给其它备OSD的RSM→两边数据写入CACHE返回成功→当达到某个周期或者水位值时异步将数据刷盘
注意OSD没有主备关系,主备只是相对数据副本复制而言
![](/upload/image/cloud/18.png)
![](/upload/image/cloud/19.png)
<br>
20.FusionStorage读Cache?
追问:为什么会先读SSD的读缓存?
因为FS有预读机制,会提前将一部分数据缓存在读缓存,这样读取的命中率更高
<br>
21.FusionStorage读IO?
IO请求→OS内存,若内存无,读VBS→VBS→根据LUN ID与LAB ID所对应的key值,根据数据路由原理找到主OSD→OSD接收到读IO请求→按照读Cache机制层层往下读,读到所需数据→返回数据给VBS
若主OSD故障,则请求会转发给备OSD继续读请求
<br>
22.*SCSI与iSCSI(此题很久没考)
注意此题除了简单对比SCSI与iSCSI外,还需要介绍两种协议与FS的关系
![](/upload/image/cloud/20.png)
SCSI:小型计算机系统接口,用于在计算机内部传输数据,传输距离有限,不需要封装与解封装,对资源的开销较小,支持存储卸载(存储压力卸载)
iSCSI:将SCSI封装在TCP/IP协议上,传输距离不受限制,但是传输时需要封装与解封装拆包与整合,会消耗一定的资源,传输效率比SCSI低,不支持存储卸载(存储压力卸载)
![](/upload/image/cloud/21.png)
注意:如果FC通过FS Block对接,那么就是通过内置的VBS访问,在创建VM时如果选了FS的存储池,那么VBS就会自动创建卷映射给VM。
如果FC通过IP-SAN对接FS,那么就需要手动在FSM上创建卷并虚拟化之后创建磁盘文件映射给VM使用。
<br>
23.FS的融合与分离部署
![](/upload/image/cloud/22.png)
![](/upload/image/cloud/23.png)
部署方式有超融合、融合、分离
超融合:VM、VBS、OSD在一个节点上,即FC、FS部署在一起(SCSI)
融合:VBS、OSD在一个节点上,即计算节点与存储节点部署在一起(SCSI)
分离:VBS、OSD不在一个节点上,即计算节点与存储节点部署不在同一服务器(iSCSI)
注意:VBS不能装在非开源系统中(如ESXI、Hyper-V场景),因为需要修改系统内核,非开源系统上的虚拟机只能通过其它VBS来访问FS,此时使用的是iSCSI方式。ESXI场景下,只能部署一台CVM虚拟机,并在虚拟机中安装VBS,其它虚拟机通过此VBS来访问。如果一定要求SCSI方式,那么必需要将VBS安装在计算节点上。
追问:CVM虚拟机是什么?怎么部署?
答:CVM虚拟机是一种安装了开源操作系统的虚拟机,可以在上边安装VBS与OSD等。可以通过模版导入的方式部署。
<br>
24.FusionStorage部署过程
安装FSM
对接下层节点,FSM会自动的安装FSA(FSM会自动推送软件包,内念VBS、MDC、OSD)
在FSM上选择节点安装对应的块客户端(VBS)
<br>
25.FusionStorage映射出来的是什么?
FS映射出来的最小单位是存储池,然后VBS中的VBM再创建卷,卷需要VM自己格式化才能使用
<br>
26.FusionStorage能使用FC-SAN网络吗?
答:不能,因为VBS组件是基于TCP/IP(以太网)的协议与OSD通信,FC-SAN没有IP地址,因此不能使用FC-SAN。
扩展点:为什么华为不太愿意使用FC-SAN?
因为FC-SAN有厂商绑定,华为没有自主的FC交换机与其它厂商存在商业竞争,而且FC-SAN设备成本非常高,设备基本上被博科垄断,同时当下 IP网络技术相当成熟,而且当前的交换机端口普遍已经具备万兆的速率(10Gbps),IP-SAN减少了配置、维护、管理的复杂度。
注意:其它厂商的高端存储大多数还是采用FC-SAN(高性能、高可靠、认可度高)
<br>
27.搭建FS最少配置?
答:3台服务器,1个存储池最少12块硬盘(为了让数据充分打散),每台需要7块,一共21块(2块由RAID-1阵列组成的系统盘,4块OSD数据主存磁盘,1块ZK盘)。如果OSD主存盘都是HDD机械硬盘,那么还需要单独配置SSD来做缓存或者使用带电池的内存条。
<br>
28.为什么FusionStorage的磁盘模式只能使用精简?
因为FusionStorage本身是分布式存储,天生就适合使用精简模式。其次数据会被分片打散,然后保存于各个OSD,且数据大小和保存位置不固定,如果是普通或者延迟置零将磁盘进行前提占位没有任何意义。
<br>
29.FusionStorage的锁机制?
FS本身数据存储原理是使用了哈希路由算法,本身这种方式就有锁机制
<br>
30.如何给银行等机构推荐FusionStorage?(FS如何保证数据安全)
此题主要回答出FS的数据安全与稳定性(吹牛逼),不要讲缺点
可以从性能、缓存、数据安全性、后期升级、维护等吹牛逼
因为FusionStorage 本身具备两种数据保护机制:数据副本机制、EC(纠删),每个架构部件都是双平面冗余设计(能防止单点故障),而且副本机制保护·数据·是跨节点,跨机柜的副本;所以就算是有一台服务器发生故障,都不会影响数据的恢复,并且恢复数据是秒级恢复,且不会中断业务。
<br>
31.磁盘故障操作
![](/upload/image/cloud/24.png)
首先FSM的页面会出现告警,同时可以查看磁盘拓扑来看节点上的故障磁盘信息(见图),确认好磁盘位置后直接从服务器上移除磁盘(因为坏盘已经被FSM记录并踢出集群),并建议5分钟后(等待数据重建完成)将新硬盘(最好是原厂部件)换上,然后将新换的硬盘重新加入存储池,待确认告警消除后即可。
亚健康的磁盘不会立即踢出存储池,会隔一定时间踢出存储池,也可以手动设定为健康。亚健康的盘一般可能因为磁盘高温、读写性能下降、SMART表错误而被判定为亚健康。
注意:如果是原先的坏盘拔出再插上,需要手动加入存储池。如果是换的新盘则会自动加入存储池。
<br>
四、私有云-OpenStack
1.*FusionSphereOpenstack与原生Openstack的区别(定位与优势)?
华为op底层对接了各种计算、存储、网络等资源,它是云操作系统软件,是一种经过商业加固的Openstack,可以对资源进行统一管理与调配,未来还可以接入更多的资源。
部署:原生的OP部署复杂难度大门槛高,华为的OP部署相对简单且规划方便
稳定性:原生的OP一年更新2次,但是每个版本都可能存在不稳定因素,而华为针对M版进行了大量的改进与改良,修复了许多BUG,打了很多补丁,很大程度上提升了稳定与安全性
高可靠:原生OP的组件默认都不是冗余部署的,华为的私有云控制节点至少都是3个节点冗余部署
健康检查:原生OP的健康检查功能少,华为的OP检查项目多、功能多样,可以提供报表、告警、硬件状态信息等数据
服务:原生的OP没有服务提供,运维门槛高难度大,华为的OP有官方的维护,需要服务可以按需求购买添加,售后有保障
页面:原生的OP页面比较简陋且单一,华为OP页面华丽美观,更适合中国人的使用习惯
版本:华为的OP是基于M版(2016-04)进行改良,版本架构较老,对新功能新特性支持程度较低。目前官方的OP最新版本为V版(2020-11),新版本可以带来更多的高级特性与功能。
<br>
2.为什么华为放弃FusionManager使用openstack?
因为自己开发一个云平台,所有的代码都需要自己重写,成本高难度大,兼容性差;openstack是开源的云操作系统内核,各家公司都积极参与开发,可以对接几乎所有的资源,兼容性好,对接难度小。
<br>
3.*openstack愿景?
狂吹OP的优点就行,然后讲出未来OP的方向即可,脑洞大,切忌讲缺点!
可以从华为ARM架构的服务器延伸,华为云后续会引入arm原生,安卓原生,
云手机等,此外windows、VMware esxi也支持了arm。开放性题目,看个人的知识拓展面。
<br>
4.openstack那么好为什么其它厂商不用?
阿里、AWS早期自己开发公有云时,openstack刚刚诞生并不成熟,得不到他们的认可,所以并没有采用openstack
阿里、AWS自己的公有云已经投入了大量的时间精力成本去打磨,所以没有必要再去将架构转换为openstack
其次其它厂商不使用openstack可能是基于商业发展考虑,因为openstack是开源软件,采用openstack就需要参与到op的开发,自己的产品本身就是与其它公司的产品竞争,采用openstack可能不利于自己产品的竞争
<br>
5.华为私有云架构
![](/upload/image/cloud/25.png)
OC与SC界面由华为自研组件提供,非原生OP中的Horizon
ServiceOM用于调整、切割接入的资源(超市的货架管理员)
CPS云装配服务用于对接后端资源(大仓库,负责收货)的三台服务器
<br>
6.华为私有云的部署工具FCD?
答:旧版的叫FCD(FusionCloudDeploy)
新版的叫HCSD(HuaweiCloudStackDeploy)
FCD、HCSD用ISO镜像装,可以装在虚拟机中,也可以装在物理服务器上
注意:新旧版本除了叫法不同,还与私有云版本配套,属于捆绑工具
安装一般情况8小时-2天不等,具体看设备配置与网络情况
<br>
7.混合云
一部分业务部署在公有云上,一部分部署在自己的私有云上,公有云与私有云网络打通,即为混合云,混合云属于非典型部署场景,混合云仅TYPE-I类型支持
<br>
8.华为私有云项目流程(规划)?
调研需求,架构,业务,成本,需求
定制方案,设备购买方案、网络规划方案、迁移方案等,并模拟业务测试
方案提交客户审核,确认方案是否按照预期规划制定
购买软硬件,购买需要的服务器、交换机、存储等
硬件实施,基础硬件准备,连线,网络配置打通
软件实施,安装软件,部署私有云
云迁移、云评估,独立于云项目,是个单独的云实施服务
测试业务,验证业务与环境可靠性
验收交付,将所有的文档表格上交给客户
结算,收费
培训相关人员
<br>
9.私有云项目软件实施?
先配置三个网络平面:External_api,Inter_base,Extrer_OM
* 安装 FusionCloud Deploy,注意需要提前配置IP与VLAN,IP与vlan为External-api的地址与vlan
![](/upload/image/cloud/26.png)
* 配置节点虚拟网络,配置文件/opt/FusionCloudDeploy/fcdscript/fcd_config.ini,填写FCD部署形态、External_OM VLAN、Internal_base VLAN、OM网络的IP与子网,然后保存退出,执行config_fcd_net.sh脚本开始自动配置虚拟网络,然后可能需要手动配置一下网卡IP并重启网络服务,即可访问FCD的WEB页面
![](/upload/image/cloud/27.png)
在FCD上新建部署工程,填写工程基本信息、部署场景选择、基础云服务、高级云服务,填写完成后再次核实
CSDR、CSHA相冲突,只能选一
![](/upload/image/cloud/28.png)
全局业务规模用于给管理虚拟机预留资源,方便后期扩容,管理虚拟机扩容非常麻烦
![](/upload/image/cloud/29.png)
配置部署参数,下载LLD表格进行填写,填写LLD中的3个子表格,上传参数
上传和校验软件包,选择了哪些云服务就需要上传对应的软件包
开始安装,首先安装组件,再安装计算节点。注意:安装失败可以跳过或重试
![](/upload/image/cloud/30.png)
布置公共虚拟机,在三台节点上安装Openstack底座与KVM
通过KVM发放管理虚拟机安装公共组件(HTTP、DNS、DHCP、SC、OC、OM等)
私有云中所有的组件都是安装在KVM虚拟机上的
安装原理
FusionCloud Deploy是FusionCloud自动化安装工具,端到端覆盖FusionCloud 6.3.1.1软件自动化部署和调测。使用FusionCloud Deploy自动化安装FusionCloud 6.3.1.1的基本原理如 图1-2所示。
![](/upload/image/cloud/31.png)
<br>
10.基础云服务与高级云服务?
基础:
LVS、NGINX、DNS、NTP、HAproxy等
![](/upload/image/cloud/32.png)
高级:
![](/upload/image/cloud/33.png)
高级云服务建议答:CSBS、CSBS-VBS、OBS、CSHA、CSDR、VHA、HSS
HSS:主机安全服务,为云服务器提供安全防护服务,通过集成360主机安全产品,可以防御新型病毒,同时提供入侵防御安全功能,保障云服务器的安全性
HDS:HDS是Hadoop服务,是一个以华为FusionInsight HD为基础的分布式数据处理系统,对外提供大容量的数据存储、分析查询和实时流式数据处理分析能力。可提供大数据服务发放和审批能力,以及提供大数据服务的使用监控能力。
公共组件建议答:NTP、DNS、LVS、NGNIX、SDR、DMK、EulerOS
<br>
11.LLD表
LLD表是一张规划表,几乎大多数项目都需要填LLD表,LLD帮助我们更好的规划项目
LLD表至少有3张表:设备信息、基本参数、网络平面映射参数
![](/upload/image/cloud/34.png)
设备信息:主要是填写节点信息、设备型号、节点用途(管理?KVM?)、指定部署组件、BMC信息、BMC用户名密码、是否为元数据节点(部署ZK盘?)
![](/upload/image/cloud/35.png)
基本参数:
建议讲NTP、时区、语言、internal_base网络、云区域展示名、AZ可用分区展示名、客户热线电话、客户邮箱地址、服务中心IP等挑简单的讲,尽量拖时间多讲讲。
问:为什么External_OM需要那么多地址?因为需要对接底下各种管理节点、VRM、FSM等等
问:External_OM需要规划多少个IP地址?需要看客户需求,比如。。。VRM、FSM。。,可以预留多一些,考虑未来扩容等
![](/upload/image/cloud/36.png)
网络平面映射:
<br>
12.私有云公共组件中LVS、NGINX、HAproxy?
云服务请求通过LVS下发,LVS转发给对应的Ngnix,Ngnix把相应的云服务请求转发到云服务Console,云服务Console通过HAproxy转发到云服务服务端
<br>
13.基础云服务与高级云服务?
基础:
LVS、NGINX、DNS、NTP、HAproxy等
![](/upload/image/cloud/37.png)
* LVS(Linux Virtual Server):Linux服务器集群系统,为私有云公共服务提供一级负载均衡。
* Nginx:为云服务Console页面提供反向代理,实现业务和数据在各个Console节点的负载均衡,达到流量分发的目的。云服务的请求会通过LVS下发,转发到Nginx,Nginx把相应云服务的请求转发到云服务Console。
* DMK(Deploy Management Kit):提供统一的部署与安装配置平台,实现所有服务的安装部署与补丁升级功能。
* GaussDB:为各云服务提供公共数据库。
* Euler OS:各云服务所在的管理类虚拟机,采用Euler OS作为操作系统。
* DNS&NTP:DNS为私有云公共服务提供域名解析服务。NTP(Network Time Protocol),为私有云公共服务提供时间同步。
* HAProxy:对云服务提供从Console节点到Service节点的负载均衡。云服务请求由Console下发到HAProxy,HAProxy根据相应的请求转发到对应云服务的Service节点。
* TaskCenter:任务中心,用于查看ECS等服务实例的创建情况。
* SDR(Service Detail Record):计量话单,提供各云服务计量计费的文件输出功能。
* CCS(Cloud Configuration Service):云配置服务,是基于私有云提供接入第三方云资源的云服务,该服务具有提供跨云统一管理和跨云部署的能力。
* API Gateway:API网关,提供API的管理以及API的内外网隔离。用户访问各云服务的API时,不是通过直接调用各云服务的API接口,而是各云服务的API先在API网关上进行注册,通过API网关将云服务API暴露给用户访问。这样可以屏蔽一些非法请求,并防止内部的管理API暴露。
* RTS(Resource Template Service):提供资源编排服务。
* Arbitration:可选,云平台仲裁服务,选择CSHA时需要。
高级:
![](/upload/image/cloud/38.png)
高级云服务建议答:CSBS、OBS、CSHA、CSDR、VHA、HSS
HSS:主机安全服务,为云服务器提供安全防护服务,通过集成360主机安全产品,可以防御新型病毒,同时提供入侵防御安全功能,保障云服务器的安全性
HDS:HDS是Hadoop服务,是一个以华为FusionInsight HD为基础的分布式数据处理系统,对外提供大容量的数据存储、分析查询和实时流式数据处理分析能力。可提供大数据服务发放和审批能力,以及提供大数据服务的使用监控能力。
<br>
14.华为私有云的安装过程
服务器硬件检查
openstack级联层/非级联层安装
创建manageone虚拟机
安装serviceOM
创建公共虚拟机(就是安装公共组件)
serviceOM配置
安装ntp,安装DMK
安装mangeONE
初始化公共虚拟机
上次OMM到DMK
配置APIG
配置ELB
安装mangeONE安装后配置
配置gaussDB
配置nginx
配置ECS UI
配置Fusioncare
配置HAproxy
配置LVS
配置镜像转换
配置DNS
配置SDR
配置fusionNetDoctor
配置CCS
配置组合API
被级联层注册域名到DNS
配置VPC
级联层注册域名到DNS
配置TaskCenter
配置EVS
云服务对接IAM
云服务注册APIgatrway
云服务注册ManageONE服务监控
云服务对接manageone运维/运营面
manageone对接及连通性校验
公共虚拟机安全加固
<br>
15.*华为私有云的12个网络平面?
私有云管理平面
![](/upload/image/cloud/39.png)
![](/upload/image/cloud/40.png)
External-api:
为管理员提供一个登陆网络平面,用于登陆到ServiceOM与CPS。
*在FusionCloud6.5版本中,此平面功能已经被弱化。
Public_service:
是一个用于公共组件交互的网络,供公共组件和云服务、OC后端使用,面向管理员。同时还给管理员提供登陆到OC的网络平面。
8.0 api平面和OM平面融合,可能会问到还有哪些平面可以融合
DMZ_Service:
服务Console,给SC前端使用,面向租户。给租户提供登陆到SC的网络平面。
Internal-base:
用于组件之间交互的网络平面,在部署私有云时还有PXE网络安装功能,默认IP为172.28.0.0/20
External-om:
主要用于对接后端资源的管理面,如VRM、FSM、XEN、vCenter等,所有节点的路由默认走这个网络。注意:KVM不需要OM网络,直接由base网络通信
私有云存储平面
问:存储怎么对接的?答:存储是自动对接的
Storage_data0:
对接后端地存储,如果后端对接fs需要一个storagedata,若对接的是ip-san则需要data0和data1做多路径,若存在data0和data1则需要三个存储平面。
Storage_data1:
如果对接1个IP-SAN的传统存储,需要2个Storage_data平面,因为一般有双控和多路径;如果是FS只需要一个Storage_data平面。
业务平面
面向用户的网络平面,给ECS提供网络提供业务的平面,ECS的IP地址处于业务平面
对接FC虚拟化平台需要对接以下网络平面,只有在CPS中的VRM对接了集群才规划此平面,只有对接的FC虚拟化平台是单独部署的不需要对接此平面
存储网络
对接FC的后端存储的网络
管理平面
用来对接VRM与CNA之间的管理网络
VIMS心跳网络
用于对接FC中VIMS的集群心跳网络平面
裸金属发放相关的平面,不建议答此平面!
BMC平面:
用于与物理服务器的BMC管理接口对接的平面,用于安装系统、BMS以及收集监控硬件
Provision平面:
裸金属服务器发放的网络平面
DMZ_Tenant:
用于存放安全服务的网络,给ECS提升网络安全服务检测保护的网络平面,如漏洞扫描、防病毒、防攻击等
Heart_Beat:
云服务心跳的一个网络平面,供eSight工具监控使用的网络平面
<br>
16.SC、OC、Service OM、CPS登陆走的平面?
登陆SC运营中心:DMZ_Service
登陆OC运维中心:Public_Service
登陆ServiceOM:External_Api
登陆CPS 与ServiceOM一致:External_Api
<br>
17.为什么网络平面会有两个storage_data?
答:因为一般存储会有两个网卡、两个ip、两个vlan,而传统存储会有2个控制器,负载均衡两个网卡同时跑数据,重复识别lun的问题由多路径软件(multpath)去解决。如果是使用FS则只需要一个storage_data平面即可。
追问:如果我的存储即有IP-SAN又有FS,那么需要多少个storage_data平面?
答:可以部署3个storage_data平面,2个给IP-SAN,1个给FS,storage_data平面数量可以按照需求进行添加
<br>
18.管理虚拟机的硬盘部署?
![](/upload/image/cloud/41.png)
可以使用本地硬盘、也可以使用FS融合部署。TYPE-I不支持本地盘作系统盘。
追问:那私有云怎么对接FS?答:FS是自动对接的,在LLD表上填好对应信息即可
<br>
19.挂载数量?
注意:云硬盘与本地盘的总数不能超过60个
一个ECS可以挂载SCSI类型硬盘59块
一个EVS(VBD)可以挂载给16个ECS
<br>
20.*云硬盘与本地硬盘的区别?
云硬盘:是一种虚拟块存储服务,来源于后端存储,主要为ECS块存储空间。云硬盘的使用方式与传统服务器硬盘完全一致,具有更高的数据可靠性,更高的I/O吞吐能力和更加简单易用等特点,是一种持久性存储。
本地磁盘:也被称为本地盘,是指弹性云服务器所在物理机(宿主机)上的本地磁盘,具有高读写I/O、低时延、高吞吐量的I/O,但作为一种临时存储,数据不能长久保存。
云硬盘模式:VBD、SCSI
VBD类型的云硬盘只支持简单的SCSI读写命令,可以作为系统盘使用,也可以用于系统盘使用。
SCSI类型的云硬盘支持SCSI指令透传,除了简单的SCSI读写命令,SCSI类型的云硬盘还可以支持更高级的SCSI命令,如scsi-3的锁机制。不支持作为系统盘使用。
类型:普通、中等性能、高性能、超高性能,性能定义是自己定义的
普通性能:适用于大容量、读写速率要求不高、事务性处理较少的应用场景,例如部署开发测试应用程序等。
中等性能:适用于对性能要求不高,但是要求具有丰富的企业级特性场景,适用于普通数据库、应用VM、中间件VM。
高性能:适用于高性能,高读写速率要求,满足高带宽吞吐能力的应用场景,例如数据仓库。
超高性能:适用于对I/O性能密度要求极高,数据密集型的场景,例如NoSQL/关系型数据库。
云硬盘来自于Cinder,云硬盘用来给ECS或者BMS提供块存储空间,由Cinder挂载给ECS用的是云硬盘,通过cinder-volume调用驱动调度存储资源。云硬盘可以支持高级特性,在线变更,快照,迁移,共享,备份;不会随服务器的启停或者迁移而丢失数据
VBD:通过Cinder在存储上创建一个LUN映射给计算节点,由计算节点将这个LUN进行格式化成一个VIMS集群级文件系统,并创建一个文件映射给ECS做硬 盘使用,只支持简单SCSI读 写命令。可用于系统盘与数据盘。
SCSI:通过Cinder在存储上创建一个LUN映射给计算节点,由计算节点将这个LUN直通给ECS,相当于裸设备,由ECS自行格式化进行使用,映射操作指令透明传输;目前只支持华为存储,不支持异构;支持高级的SCSI命令(给特殊应用使用,如Oracle需要SCSI指令渗透)。只能用于数据盘,最多59块。
本地硬盘:本地硬盘有两种:本地盘、本地直通盘。(两种盘都是通过Nova直接调用驱动去使用主机上的本地磁盘资源)
本地硬盘就是使用宿主物理主机上的磁盘资源映射给主机内的虚拟机使用,具有高读写速率、低读写延迟、呑吐量高等特点,但是没有冗余,存在单点故障的可能。本地盘是临时存储,数据不能持久保存(随着ECS释放而释放,不能挂载给其它ECS。本地盘关机后依旧可以保存数据)
本地盘:本地盘本质上是本地虚拟化盘,将磁盘格式化VIMS,并创建文件映射给虚拟机使用;适用于系统盘和数据盘(type 1 不可使用于系统盘),作为数据盘只能挂载1块盘;随ECS释放而释放,创建而创建;属于大LUN
本地直通盘:将某个磁盘裸设备映射给ECS,通过SCSI直通给ECS使用;只能用于数据盘;属于小LUN
问:为什么SCSI云硬盘与本地直通盘不能作为系统盘?
答:SCSI,不支持热迁移等高级功能,SCSI也不支持异构。
问:云硬盘与本地盘的本质区别是什么?
答:云硬盘通过Cinder对接发放,本地盘是Nova调用驱动对接进来。云硬盘和本地盘本质都是磁盘,底层都是需要磁盘提供存储。
问:云硬盘在线变更原理是什么?
答:云硬盘在线变更本质上是存储的数据的复制,是基于存储的特性实现的,在对端存储创建一个相同大小的卷然后对数据进行拷贝,然后再改变磁盘的映射来实现的在线变更。变更磁盘类型为OceanStorV3 V5系列,需要导入SmartMigration特性的License
问:云硬盘扩容原理是什么?
答:给存储下达命令,对原来的LUN或者卷进行扩容。如果是虚拟化存储则是修改磁盘文件限制大小即可扩容
问:本地盘和云硬盘能互相变更吗,为什么?
答:冷机情况下可以相互变更,热变更情况下不能相互变更,因为SC页面上没有对应的选项,但是严格来说可以在技术层面上实现,只是实现起来技术难度大风险高。
<br>
21.本地直通的两种类型
NVMe SSD盘
创建超高I/O型弹性云服务器时,最多(可使用8块
适用于高性能关系型数据库。
冷迁移、热迁移、虚拟机HA、整机快照、克隆、内存复用,
不支持变更规格(在线、离线)
支持设置CPU QoS。
HDD盘创建密集存储型弹性云服务器时,最多可以使用59块HHD盘,
适用于处理海量数据,需要高I/O能力,要求快速数据交换和处理场景。
不支持冷迁移、热迁移、虚拟机HA、整机快照、克隆,
不支持变更规格时变更为其他类型的云服务器
支持内存复用
支持设置CPU QoS。
<br>
22.云硬盘最大支持创建多少个快照?
32个
<br>
23.云硬盘最大支持多少容量
32TB(其它场景),64TB(KVM场景)
<br>
24.云硬盘的配额?
云硬盘的配额受到VDC的限制
本地盘的配额不受VDC的限制,因为本地盘是Nova调用的
<br>
25.云硬盘与本地硬盘的使用场景?
云硬盘:适合高可靠性和长期使用的场景
本地硬盘:适合可靠性要求不高,IO突发性能高,短期使用的场景
<br>
26.三大存储的区别(Swift题)?
块存储:
多个磁盘资源构成一个大的块存储池,不利于共享,原本是一块裸设备需要文件系统要手动格式化。
文件存储:
自带文件系统,用户可以共享这个存储,文件传输所以传输效率不高。
对象存储:
有一个元数据服务器(MDS),多个节点的本地文件系统构成一个大的存储资源池,对象存储的对象有数据和元数据构成,每个对象由OID对象标识符识别(对象元数据),读取数据时只需要找到OID即可读出对象,可以同时并发访问效率高,比文件存储性能更好,对象对外表现是一个存储池,将池资源分配给用户,更适合共享,适合存照片文件等数据。
最小单位是桶、通过元数据id号找到数据存放位置。
<br>
27.三大存储组件?
将Cinder、Glance、Swift都介绍一遍
问:为什么Glance也是存储组件?答:因为Glance内的Glance-api具有缓存功能,可以缓存热点镜像,而且华为和官方文档都介绍了Glance是存储组件,所以Glance是三大存储组件之一。
<br>
28.大LUN与小LUN?(面试不考)
大LUN:
小LUN:
<br>
29.各组件的内部通信是通过什么方式,组件之间呢?
内部通信通过RabbitMQ通信(AMPQ),也就是消息队列,是linux系统很重要的组件
AMPQ(MQ):消息队列,内部所有组件需要通过AMPQ进行通信
线程:内部所有组件会通过MQ来进行通信,MQ最多支持16个线程同时进行,如果同时有超过16个线程需要与
MQ转发通信时会进行排队,如果有非常紧急的线程需要转发时可以通过QOS(VIP通道)转发
追问:各个组件之间通过什么通信?
答:通过RabbitMQ消息队列,在External-om网络内平面进行相互通信
走UDP的协议
<br>
30.*OpenStack各组件介绍,8大组件?
![](/upload/image/cloud/42.png)
Nova:
负责整个openstack的计算资源,兼容多种虚拟化类型。
Cinder:
负责整个openstack的块存储资源,为虚拟机提供块级别存储
Swift:
是一款对象存储软件,在华为openstack中用来为Glance存放镜像,不提供对外存储服务
Glance:
负责管理opensatck中的镜像和管理实例快照
Neutron:
负责管理整个openstack中的网络资源,为发放虚拟机提供网络资源
Keystone:
提供一个鉴权的服务,以及提供endpoint端点目录
Ceilometer:
用来对整个openstack进行监控状态、计算费用、计量;(配合heart和nove实现虚拟机热迁移)
Heart:
编排服务,自动化部署和业务发放
Ironic:(不建议讲,可能会追问裸金属发放流程,送命题!)
裸金属服务器,为租户提供专有的物理服务器
<br>
31.有使用Horizon提供页面吗?
因为原生的Horizon界面简陋不方便操作,因此华为自己研制了界面组件,用于提供OC与SC
<br>
32.Nova的流程和结构?
Nova-api收到指令后向DB进行登记,并向keystone鉴权
Nova-conductor去DB查找,粗筛数据库,获取适合的主机列表
Nova-scheduler通过权重比(内存权重较高,CPU较低)向DB精筛,选择合适的主机
Nova-compute通过driver调度底层资源创建虚拟机
华为的Nova-compute是主备部署,每2个Nova-compute对应一个节点
nova-api收到创建ecs请求,这时nova-api会将ecs的规格登记到db中,nova-conductor会选择合适的主机(初步筛选适合规格的主机),然后nova-scheudle会选择更合适的主机,将请求丢给nova-compute,由nova-compute调用驱动去创建
追问:那Nova-Compute可以部多少个?
答:一般情况下,一个节点部署2个,也就是节点数量*2,但是如果管理节点上有VRM的虚拟机并对接FC的话,当CNA数量超过256台时,Nova-Compute的数量为VRM的CPU核心数/4。
追问:nona-compute对接kvm的驱动叫什么?
答:Libvirt
<br>
33.Cinder的流程和结构?
![](/upload/image/cloud/43.png)
![](/upload/image/cloud/44.png)
首先请求到达cinder-api,cinder-api会进行一个鉴权并接收指令,之后cinder-api向DB登记指令,然后由cinder-scheduler向DB查询合适的存储,然后由cinder-api下达挂载指令,然后指令发给cinder-volume调用对应的驱动来调度储存创建卷,由存储网络挂载给虚拟机所在的计算节点,再由计算节点进行虚拟化操作再挂载给虚拟机(VBD模式);或者计算节点直接映射给虚拟机,由虚拟机进行格式化使用(SCSI模式)
cinder-backup一般对接eBackup(通过eBackup驱动),可以对云硬盘进行备份操作
Cinder可以在后端对接哪些存储?
云硬盘来自于Cinder,通过cinder-volume调用驱动调度底层存储资源。市面上的任何存储几乎都可以对接,只要有对应的Driver(驱动)就行。IP-SAN(华为V3、V5存储,映射为LUN)、FC-SAN、第三方分布式(FusionStorage,映射为卷)、NAS等等都可以。
<br>
34.Cinder挂了,已经挂载的云硬盘还能正常用吗?
可以使用的,因为数据流量不经过cinder,只有管理指令会经过cinder,数据流量走存储平面,cinder挂了之后将无法再申请和卸载云硬盘,但是已经挂载的云硬盘不影响使用。
<br>
35.Swift对象存储
Swift在op中是个非常特殊的组件,是可以独立使用的一款对象存储软件,可以单独对外提供对象存储功能(开源OP才可以),而其它的组件都是通过驱动对接底层资源来提供服务,不能独立提供服务。
Swift是一款高可用、分布式对象存储服务,最终一致性模型,适合解决互联网应用场景下非结构化数据存储问题,且可以构筑在比较便宜的标准硬件基础设施之上。
对象存储是扁平化结构,最小的单位是桶,不需要格式化文件可以直接保存于对象存储中,映射出来是个目录而非磁盘,没有普通存储的树状结构,任何拷贝都是在逻辑上完成的,性能好于文件存储,协议是基于TCP/IP,因为对象存储可以很方便的进行共享。
工作原理:Swift的工作原理考试不考,主要考三大存储对比。Swfit原理上和FS的机制很相似,数据都会切片,然后由哈希路由算法计算出保存位置,然后保存于对应的存储中。
<br>
36.Glance的流程和结构?
![](/upload/image/cloud/45.png)
查找镜像请求 → Glance-api → 查看缓存上有无对应的镜像,有就直接返回 → Glance-registry → 在DB中查找镜像的元数据,找到镜像的保存位置 → Glance-api向image store发出请求 → 根据信息将对象存储中的镜像读取出来
Glance-api:接收请求、缓存热点镜像,通过其它模块完成查找、获取、上传、删除等请求
Glance-registry:用于与数据库交互,用于存储或获取镜像的元数据
image store:存储接口,用于对接后端存储分配给他可以直接使用的资源(桶)
Glance后端可以对接S3、Swift、Ceph、HTTP甚至是文件系统,华为OP中默认对接Swift
使用文件或对象存储的原因:方便共享,且已经有文件系统可以直接存数据
注意:Glance镜像可以保存于Glance所在节点的/var/lib/glance/images/目录中,但是需要使用命令在底层下操作,华为的op不建议进行此操作,会影响稳定性。在华为OP场景下,Glance后端对接的是Swift,专门用Swift保存镜像。
问:镜像缓存的位置?答:可能缓存于计算节点上或缓存在Glance-api节点上,但是可能是后者(源于教材),缓存的镜像在api的本地磁盘中,不是内存上。
![](/upload/image/cloud/46.png)
问:那华为的对象存储服务(OBS)是谁提供的?答:是由FusionStorageObject提供的,在私有云部署时会有个对象存储服务的勾,勾上就会启用OBS,然后需要额外添加OBS的软件包才能使用OBS
问:华为的Glance可以对接块存储吗?可以对接Cinder吗?答:华为的OP不允许使用Cinder对接Glance,但是可以对接FS的对象存储服务也就是OBS,但是原生的OP可以对接除了有Cinder外等等的块存储
<br>
37.给一个ECS加个云硬盘,会有哪些组件的参与
Nova、Cinder、Keystone、Neutron、Ceilometer
<br>
38.申请云硬盘的经过网络平面
用户通过External-api登录,再由Internal-base去数据库鉴权,再通过DMZ提供console 界面,再由public-service向后端数据库发送请求,再通过internal-base找到cinder,再通过Cinder调动后端的volume,volume再通过External-OM调动后端的存储,在存储由使用Storage-data网络。
<br>
39.Keystone
keystone提供了3个的功能:鉴权、端点目录(endpoint)、维持私有云的对象模型(Domain域、Project租户、User用户、Group用户组、Role角色、Trust委托(代维)、Service服务、Region区域、Endpoint服务关联的地址、Policy访问控制策略、Assignment三元组、Token令牌)
功能介绍:
Region用来区分私有云所在的地区(北京、广州、上海等),上层如果是一套云管平台,那就是一套云,云管平台可以接入多个地区的云。
Token是用户向keystone验证账户信息后,返回的一个票据,里边包括了Role角色、
可用域、有效期、可用的服务等信息(类似于火车票有分卧铺、三等、二等、头等座一样),票有两种:UUID、PKI,UUID每次访问服务都需要验证票(向keystone验证),PKI则是各服务客户端自行验证,安全性上UUID更高。
各组件通过端点目录(endpoint)来找到其它组件(类似于通讯录,告诉你其它组件的联系方式),各组件通信通过External_OM网络通信。
<br>
40.Ceilometer
Ceilometer用于计量、监控、计费,可以将Iaas层(基础设施即服务)量中发生的事情和系统运行情况收集起来,收集各组件DB中的数据,产生计量数据,从而进行统计、计费。
问:私有云中Cellometer有计费功能吗?答:有的,可以在私有云中开启计费功能
追问:为什么Ceilometer会有延迟?怎么降低延迟?
通过各服务的API将自己的DB中的数据上报给Ceilometer的DB(MongoDB),再通过可视化技术将数据展示出来,造成了延迟偏高(几秒到几分钟不等)。解决方法一般是在实例中安装Agent代理直接收集数据(几毫秒到几百毫秒)。
<br>
41.Heat
Heat用于自动编排,简单的说就是通过脚本批量发放业务,比如批量发放上百台实例,大量实例需要使用特定镜像或者部署应用、更改网卡IP、修改特定参数等,基于cloud-init插件来实现的。
<br>
42.Cloud-init
Cloud-init在OM里镜像上传时有个勾勾,勾上就会使用此插件,需要镜像内的系统支持此插件,可用于ECS发放前的初始化配置,比如你预先设置的网卡IP、主机名、应用或者特定参数等,都可以通过Cloud-init插件实现
<br>
43.Ironic(了解就行)
华为自己研制的一个组件,用于部署裸金属服务(BMS),原理是Nova连接服务器的BMC接口,通过BMC接口去自动进行上下电与系统安装服务
注意:裸金属服务器不支持在线调整CPU、内存,但是可以挂载卸载云硬盘(仅华为可以)。
注意:考试不建议介绍Ironic,因为发放过程非常复杂,追问多种多样
<br>
44.Ironic发放流程
通过 Nova API 发起裸金属实例部署请求。
Nova Scheduler 根据请求中的参数信息筛选合适的 ironic node。例如:调度因子通常包含在 Flavor 的 extra_spec 属性中
Nova Compute 将部署裸机所需要的信息都整理好,然后触发 一个 创建 任务,传递参数到 Ironic API 实际执行,Ironic 将此任务中所需要的硬件资源信息持久化到数据库中。
Ironic 与 OpenStack 的其他服务交互,从 Glance 服务获取 Images(Deploy Images & User Images),调用 Neutron 服务为裸机创建端口,调用 Cinder 服务获取Volumes 等。
Ironic 开始执行真正的裸机部署,PXE Driver 准备好 TFTP 和 引导程序,IPMI Driver 设置裸机启动模式为 PXE 并起电。
裸机启电后,通过 DHCP 获得 Ironic Conductor 的地址并尝试通过 TFTP 从 Conductor 获取 Deploy Images,Conductor 部署好 RAMDisk 之后,IPA 就可以通过 iSCSI 协议将裸机的硬盘暴露出来,Conductor 随后注入 User Images 到裸机磁盘作为根磁盘。
根磁盘部署完成后,IPMI Driver 调整裸机引导顺序,完成部署。
<br>
45.Neutron(非考试重点)
Neutron用于对接后端网络资源,Neutron是一个框架需要对接后端的软件或者交换机等网络设备,才能为私有云提供网络服务。
它提供了三种网络:内部网络(VPC)、外部网络(对外访问公网)、路由网络(跨VPC的网络,可以是物理交换机或者OVS)。
考试主要考3道追问:Neutron能提供哪些类型的网络?这些网络的概念是什么?Neutron能自己提供网络吗?
<br>
46.ECS发放时组件交互流程?
发放ECS指令(已选择好对应的配置、网络、镜像、硬盘等)→keystone鉴权→Nova→Nova-api向DB登记→Nova-conductor粗选主机列表→Nova-scheduler根据权重精先合适的compute→Nova-conductor对Nova-compute下达指令→Nova-compute调用驱动调度后端虚拟化平台创建虚拟机→Nova通过Nova-api找到cinder-api并下达指令→cinder-scheduler通过DB找到适合的cinder-volume下过指令→cinder-volume通过调用驱动调度后端存储创建卷→通过SAN网络挂载到对应的节点→挂载到虚拟机上→Neutron→Neutron-Server通知agent,由OVS与DHCP发放IP地址(内网OVS生成,外网由交换机生成,如果要双向访问需要绑定EIP)→Glance-api→Glance-api查看自身有无对应缓存镜像,有直接返回→Glance-registry访问DB查找镜像→找到image-store内的镜像→(华为OP还会在Swift内查找镜像)→共享给ECS下载→镜像下载后装载到系统磁盘上→发放完成
![](/upload/image/cloud/47.png)
<br>
47.TYPE-I、TYPE-II、TYPE-III区别?
![](/upload/image/cloud/48.png)
追问:那I、II、III我应该选择哪一种呢?
答:需要根据客户的需求与成本的考量来选择
追问:fusion cloud 组网,SDN,是怎么实现具体的网络功能?
答:通过agent实现的
<br>
48.软硬SDN是怎么实现的?
软SDN是用2台服务器,安装了vRouter软件配合Neutron实现了软件SDN与网络功能的功能,属于TYPE-I类型,2次NAT转换,外网>内大网>私有IP
硬SDN是用3台服务器安装AC控制器并配合对应的网络设备实现的,属于TYPE-II类型,1次NAT转换,外网>私有IP
<br>
49.级联与被级联层?
级联层: 北京,运管平台
Openstack
┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉╱ │ ╲┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉┉
被级联层: 武汉 广州 上海
Openstack Openstack Openstack
有级联层:有云管平台的OP(总公司)
被级联层:没有云管平台的OP(分公司)
<br>
50.虚拟机的IP地址谁分配的?
虚拟机的IP地址来自于租户网段tenant_network(业务平面),默认192.168.25.0/24
虚拟机只是在内网传输数据不访问外网,这个虚拟机的IP就来自OVS分配的一个IP地址;
但是虚拟机如果还有访问外网,就需要添加一个网关,由外部物理交换机分配一个IP地址
<br>
51.EIP?
EIP是弹性IP,可以绑定ECS、BMS、负载均衡上,通过NAT转换实现,让私网的ECS能够对外提供服务
EIP是项云服务,NAT是具体的实现技术。但在VPC中也可以申请NAT网关,EIP绑定NAT
<br>
52.EIP入与出方向经过多少次NAT转换(EIP流量走向)?
入方向经过2次NAT转换,出方向经过1次NAT转换
![](/upload/image/cloud/49.png)
![](/upload/image/cloud/50.png)
追问:TYPE-I、II、III的EIP实现原理?
答:首先TYPE-III没有EIP,I中的EIP是通过软SDN实现,TYPE-I中的EIP是通过2次NAT转换实现的,II中的EIP是通过硬SDN实现,II中华为文档中没有关于此EIP原理的细节。此问题原理非常复杂,不知道直接说不知道即可,但是需要表明你查过资料到不到原理。
<br>
53.什么是VPC?
VPC是虚拟私有云,一个VDC下可以有多个VPC,VPC默认之间网络互不相通,如果需要相通需要配置对等网络连接。VPC内部可以通过子网划分出多个独立的网络,还可以通过SG安全组来实现隔离
<br>
54.什么是VIP?
VIP是虚拟IP,可以用来绑定多个角色或多个IP,一般用于主备部署时使用,比如VIP平时访问主节点,当主节点挂了会访问备节点,上层一直都是访问的VIP且无感知
<br>
55.私有云哪些组件是负载均衡部署,哪些是主备?
一般管理节点的组件都是负载均衡部署,计算节点上的组件是主备部署
<br>
56.*有4个网口怎么规划网络?6网口规划呢?
2网口时(非标准场景):3个平面共用2个网口,服务器网口数量不足时才用!
4网口时:管理、存储平面共用2,业务2 或 管理业务共用2,存储2;当跑的是大数据服务的时候存储网络会很忙碌所以就需要将管理平面和业务平面共用2个,存储平面单独使用2个,而管理平面是相对负载较轻的。
6网口时:2管理、2业务、2存储。
![](/upload/image/cloud/51.png)
任何情况下都任何平面都不建议用1个网口,因为没有冗余,可能存在单点故障。
共用与复用不是一个概念,此处是共用网口!
![](/upload/image/cloud/52.png)
![](/upload/image/cloud/53.png)
![](/upload/image/cloud/54.png)
![](/upload/image/cloud/55.png)
<br>
57.业务平面和存储平面能否共用两个网口?
从技术上可以实现业务和存储共用两个网口,但是生产环境中不建议业务和存储共用两个网口,一般来说是管理和存储共用两个网口。
<br>
58.IMS是什么?
IMS是镜像服务,可以对外提供服务,用于管理镜像,方便使用镜像直接部署ECS,提升部署ECS的效率,同时还可以自己制作对应的镜像来发放自己需要的ECS。
<br>
59.私有云有哪几种镜像?区别是什么?在哪里设置?
私有云的镜像分为:公共镜像;共享镜像;私有镜像;
公共镜像由管理员在ServiceOM内上传,上传之后的公有镜像所以用户都可以使用,可以用来发放ECS
私有镜像由用户自己将ECS转换成模版时生成,可以按照自己需求保留个性化数据与应用,但是需要提前安装好应用与配置数据
共享镜像就是由管理员将某个用户的私有镜像转换成共享镜像,将此镜像共享给某个用户,可以让某个用户使用该镜像,方便使用此镜像进行快速的发放,缩短业务上线周期
<br>
60.VIMS集群级文件系统和SCSI锁的区别?
VIMS集群级文件系统:在一个VIMS域中每个CNA都可以看到完整的VIMS空间,允许每个虚拟机和服务器共享集群式存储池;每个CNA服务器都将它的虚拟机文件存储在VIMS文件系统内的特定子目录中。当一个虚拟机运行时,VIMS会将虚拟机使用的虚拟机文件锁定,这样其他CNA便无法更新它们;VIMS确保一个虚拟机磁盘可以被读共享,写独占。
SCSI锁:
SCSI锁因为不能区分同一台主机上的不同ECS,所以需要配合反亲和组才能生效,即共享该盘的ECS不能在同一个主机上,这样SCSI锁才能识别不同ECS。SCSI锁通过SCSI Reservation命令实现,当其中一台ECS向共享盘发送此命令后,其它的ECS将不同往该共享盘里写数据,但是可读。
![](/upload/image/cloud/56.png)
VIMS集群级文件系统:在一个VIMS域
<br>
61.云服务的名词
存储服务:
EVS弹性云硬盘
OBS对象存储服务
SFS弹性文件服务(SFS-Console控制端、SFS-DJ服务端),SFS(Scalable File Service),即弹性文件服务,为用户的弹性云服务器(ECS)提供一个完全托管的共享文件存储,符合标准文件协议(NFS和CIFS),能够弹性伸缩至PB规模,具备可扩展的性能,为海量数据、高带宽型应用提供有力支持。
SFS是由manila组件实现的,有兴趣的可以了解一下manila,提供openstack的文件服务
网络服务:
VPC虚拟私有云
EIP弹性IP,可以给ECS、BMS、VIP、ELC绑定公共的IP地址
ELB弹性负载均衡
VFW虚拟防火墙
VPN虚拟专线网络
SG安全组
DC云专线
计算服务:
ECS弹性云服务器
BMS裸金属服务
IMS镜像服务
AS弹性伸缩
灾备服务(需要知道原理):
CSBS-VBS云硬盘备份服务
CSBS云服务器备份,备份服务器规格与系统盘、数据盘
CSHA云服务器高可用,基于HA特性实现
CSDR云服务器容灾
VHA云硬盘高可用
管理服务:
SMN消息通知服务
DMK提供统一部署安装平台,为各服务器升级与部署提供了环境
LVS LinuxVirtualServer用于提供前级的负载均衡
NGINX提供后端的负载均衡
AZ可用区域
HSS主机安全服务
HDS华为大数据服务
eSight华为综合运维工具
<br>
62.VDC概念与配额公式
VDC不是云服务!VDC仅是云上的一种概念。
VDC(Virtual Data Center)是ManageOne运营面进行资源分配的单位,适用于分级运营的场景。例如,对于跨国运营商或跨省公司,包含多个子公司或省公司(一级VDC),省公司或子公司又包含多个下级部门(下级VDC)。在进行资源分配时,每个省公司或子公司使用的所有虚拟资源划分为一个一级VDC进行统一管理,每个下级部门使用的资源可以划分为一个下级VDC。一个VDC可以包含多个下级VDC。目前支持最多划分五级VDC。如果不需要分级运营,则只需创建一个一级VDC,将一级VDC管理员作为全局管理员。
一个VDC包括配额、用户、资源、服务目录、网络、模版
本级VDC的配额 = 上一级的VDC的配额总量 - 上一级VDC本级配额
![](/upload/image/cloud/57.png)
<br>
63.虚拟化备份与云备份区别
呈现形式:虚拟化中是单独的功能;云是一个功能服务
组件交互:虚拟化中是ebackup发起的请求,由CNA打快照;私有云是一个console端,通过cinder-backup调用驱动向ebackup发指令
实现的组网方式:虚拟化中一般用的是lan-base和lan-free;私有云中一般是存储层容灾,所以只能使用lan-free
<br>
64.CSDR、CSHA、CSBS
CSDR云服务器容灾的保护对象主要是云服务器,它可以跨地区容灾,采用的是同步或异步远程复制技术。通过在存储层使用远程复制技术,同时在主机层使用占位虚拟机的方式,来跨区域容灾。
![](/upload/image/cloud/58.png)
CSBS原理:
在CSBS界面上下发备份任务。
Karbor将备份任务下发给eBackup Manager&Workflow。
eBackup Manager&Workflow调用Nova接口获取云服务器元数据。
eBackup Manager&Workflow下发创建快照命令和备份命令给Cinder。
Cinder下发创建快照命令给Cinder Driver。
Cinder Driver自动调度,在生产存储上面创建备份快照。
Cinder下发备份命令给eBackup Driver。
eBackup Driver下发备份给指定的eBackup Server&Proxy,eBackup Server&Proxy自动调度将生产数据备份到备份存储中。
CSHA:
CSHA(Cloud Server High Availability),即云服务器高可用服务,为弹性云服务器提供同城数据中心间的高可用保护。当生产中心发生灾难时,被保护的弹性云服务器能够自动或手动切换到灾备中心。属于存储层双活
VDC业务员在ManageOne运营面申请云服务器高可用服务实例。
BCManager eReplication收到创建容灾保护任务后,调用Nova API查询AZ1云服务器所挂载的卷的数量。
BCManager eReplication调用Cinder API在对应的双活存储设备上创建双活从卷,查询AZ1云服务器所挂载的卷的容量,并获取对应的存储设备。
BCManager eReplication调用DRExtend API创建主卷和从卷之间的双活Pair。将服务实例中所有的双活Pair加入到双活一致性组。
BCManager eReplication调用Nova API,将AZ2云服务器的系统卷卸载。
VBS:
在VBS界面上下发备份任务。
Karbor下发创建快照命令和备份命令下发给Cinder。
Cinder下发创建快照命令给Cinder Driver。
Cinder Driver自动调度,在生产存储上面创建备份快照。
Cinder下发备份命令给eBackup Driver。
eBackup Driver下发备份给指定的eBackup Server&Proxy,eBackup Server&Proxy自动调度将生产数据备份到备份存储中。
问:一个租户可以执行多少次云硬盘备份?
答:一个用户可以执行32个云硬盘备份策略,每个策略可以备份64个云硬盘,最多备份2048个云硬盘
VHA:
VDC业务员在ManageOne运营面申请云硬盘高可用服务实例。
BCManager eReplication收到创建容灾保护任务后,调用Nova API查询云服务器所挂载的卷的数量。
BCManager eReplication 调用Cinder API在对应的双活存储设备上创建双活从卷,查询云服务所挂载的卷的容量,并获取对应的存储设备。
BCManager eReplication调用DRExtend API创建主卷和从卷之间的双活Pair。将服务实例中所有的双活Pair加入到双活一致性组。
BCManager eReplication调用Nova API,将创建的双活从卷挂载给云服务器。
![](/upload/image/cloud/59.png)
![](/upload/image/cloud/60.png)
<br>
65.FusionCare
FusionCare 工具是一个基于 Web 的 B/S 程序,有两个主要功能:健康检查和信息收集。
健康检查支持检查 FusionCompute、 FusionManager、 FusionStorage、
FusionSphereOpenStack、FusionAccess 产品。
信息收集支持收集云计算五个产品的信息,包括:FusionCompute,FusionManager,
FusionStorage,FusionSphereOpenStack 和 FusionAccess。
<br>
五、迁移-RainBow
1.rainbow的定位与优势,应用场景,迁移原则?
定位:华为用于在华为云化场景使用的迁移软件,可以将物理机或者虚拟机上的业务迁移到华为的虚拟化平台和私有云平台(6.5.1以上支持),还可以实现低版本私有云迁移到高版本私有云
优势:Windows支持块级迁移、linux支持文件级迁移,而且迁移的成功率较高,可以提供迁移的监控与日志功能,而且迁移对象基本支持主流的操作系统,旧版本的rainbow还支持断点继传,当前版本已经不再支持断点续传。
应用场景:支持P2V和V2V,支持x86构架,新版还支持ARM架构迁移。同时还支持I2I,也就是离线镜像转换(华为云平台内部虚拟机迁移)
迁移原则:RTO从长到短、复杂度从易到难、风险从低到高、对业务的影响从小到大
追问:什么是云迁移?(此题极易与rainbow定位优势混淆)
一定要弄清楚,云迁移是个大型项目,rainbow是个工具
答:指将用户传统环境下的IT业务及相应的配套服务及数据迁移到华为云(公有云(数据库迁移方案、主机迁移方案SMS、数据迁移方案、数据快递方案【硬盘快递】)以及私有云)或者虚拟化上
<br>
2.华为云迁移项目规划?
调研、定制方案、实施、交付
<br>
3.源端可以是不同厂商,那目的端也可以是不同厂商吗?可以是公有云吗?
不可以,只能从其它厂商迁移到华为虚拟化平台或者私有云平台,不支持迁移到公有云,公有云有专用的软件。
<br>
4.可以离线迁移吗?
不可以,不支持离线迁移,但是可以离线镜像转换
<br>
5.可以迁移winXP吗?
不可以,因为系统版本太旧,没有vss卷影复制技术,而且驱动容易不兼容,安全性存在问题。至少支持windows2008、win7及以上版本。
<br>
6.可以迁移unix系统或者AIX构架吗?
不可以,因为unix系统不在rainbow兼容性列表中且迁移后平台无法保证兼容运行。AIX架构rainbow也不兼容,虚拟化平台和私有云场景也不兼容AIX架构。
<br>
7.业务迁移是服务吗?
是,迁移是一种高级服务,不包含在私有云中,需要单独付费实施的项目。但是迁移的项目中可以包含有云或者虚拟化的项目。
<br>
8.业务迁移顺序设计?
![](/upload/image/cloud/61.png)
千万不要照着答,应该按照迁移原则来回答
迁移前务必备份当前的系统数据,以免出现意外!!!
![](/upload/image/cloud/62.png)
<br>
9.华为的迁移工具?
迁移工具:Rainbow hConvertor,,需要安装在windows系统上,是个系统级迁移工具,支持P2V(P to V,物理机到虚拟机)以及V2V(V to V,虚拟机对虚拟机),迁移的目的平台可以是FusionCompute或FusionCloud。
功能:在线块级迁移、文件级迁移、数据同步与离线镜像转换(I2I)
扩展点:一般V2V是将VMware、思杰、微软等其它厂商的VM迁移过来,就是给别人戴绿帽。但是如果系统版本比较旧(如CentOS-5、WindowsXP等)可能迁移后会有一些兼容性等问题。
注意:一般情况下V2V不可以华为迁出为VMware等其它厂商,原因很清楚(商业竞争、华为不愿意、转换不方便、影响业务等等)。一般只能迁移同架构的服务器,比如x86→
x86,8.0版本的还可以迁移ARM架构,不可以ARM、x86、AIX等架构互迁!
<br>
10.华为的迁移工具安装注意事项?
如果系统中有安装PostoreSQL数据库需要卸载数据库,如果已经有JAVA环境配置需要先清除JAVA环境变量。需要关闭防火墙,保证65432、8089、8443端口的正常通信。
注意7443对接FC平台
<br>
11.迁移的准备与流程?
![](/upload/image/cloud/63.png)
前期准备:
确保所有网络链路互通,不支持NAT
目的端的VM配置应该大于等于源主机的硬件配置
在目的端创建空VM,描述要求包含Rainbow
迁移流程(Linux):
首先准备一台安装好Rainbow的主机,可以是虚拟机或者物理机,用于发送指令
在目标集群上创建一台空的VM,描述为rainbow
在目标VM上挂载LiveCD.iso(一个非常精简的linux,运行于内存中)
开启VM并引导LiveCD进入系统,然后配置网卡IP,保证网络互通
在LiveCD中,可以选择自动分区(源目分区一样)也可以手动分区(方便对分区大小进行调整)手动分区:将VM的硬盘依据源主机的分区进行相应的分区、格式化操作,并临时挂载到/mnt/vsda1)
在Rainbow服务器上下创建迁移任务,下达迁移指令,迁移开始(linux基于文件迁移,windows基于块迁移),数据开始同步
同步结束后给目标主机制作grup引导:grub -install /dev/sda
卸载ISO,重启系统,测试VM能否正常引导进入系统
测试业务,客户验收,迁移完成
迁移流程(windows):
首先准备一台安装好Rainbow的主机,可以是虚拟机或者物理机,用于发送指令
在源端主机上安装Agent
在目标集群上创建一台空的VM,描述为rainbow
在目标VM上挂载winPE(一个非常精简的系统,运行于内存中)
开启VM并引导winPE进入系统,然后配置网卡IP,保证网络互通
在Rainbow服务器上下达迁移指令,然后会对VM上的磁盘进行分区与格式化(分区信息源目一致)
Agent制作快照+镜像,锁定原卷,并将源卷镜像复制到目的VM(通过VSS技术,卷影复制)
复制完成后可以点击数据同步,手动点击,同步越多最后的数据片越小
点击最终同步后,将源主机停止,将最后的数据片迁移过来,,将源端主机IP挂到目的VM上,在目的VM上启动业务
卸载ISO,重启系统,测试VM能否正常引导进入系统
测试业务,客户验收,迁移完成
追问:迁移完成后可以立即删除源主机上的系统与数据吗(源端下线)
答:不可以也不建议,因为可能应用运行中会各种原因出错,可能无法通过软件方式解决,有可能会业务会退回源主机。
<br>
12.迁移图解与原理
![](/upload/image/cloud/64.png)
Linux平台:不需要安装Agent,文件级传输,方式基于tar包+SSH传输。在源主机系统上执行tar命令,然后以scp协议传输,同步数据是基于rsync,在目的VM上tar解包,完成传输,而且在迁移前可以选择排除的目录。旧版本rainbow支持文件级与块级迁移,新版仅支持文件级迁移。
Windows平台:需要在系统里安装Agent,迁移方式使用块级别迁移,首先将源盘打快照,将快照使用fastcopy传输到目的端。使用文件级迁移因为可能损坏原有的文件系统和分区格式。旧版rainbow支持文件级与块级迁移,新版仅支持块级迁移。
注意:使用文件级还是块级只是相对系统而言,两种系统都可以使用文件级与块级迁移,但是一般小文件较多建议用块级迁移,小文件不多或大文件较多建议用文件级迁移。
<br>
13.迁移组网
虚拟化迁移组网:
![](/upload/image/cloud/65.png)
私有云迁移组网:
![](/upload/image/cloud/66.png)
源端与目的端的网络需要打通,能够互相通信。比如目的端是FusionCompute,那么需要将源主机、VRM、CNA的网络打通
<br>
14.迁移的经验
![](/upload/image/cloud/67.png)
<br>
15.迁移方法论
![](/upload/image/cloud/68.png)
<br>
16.数据同步rsync
原理:使用rsync进行数据同步
首次同步会比较慢,待数据量较小时,将停机几分钟最后进行同步
追问:那它怎么知道哪些数据已经同步完哪些没同步?答:对比块的hash值
<br>
17.业务停机时间?
如果是离线迁移,迁移会比较快,但是停机时间会比较长
RTO=迁移时间+业务验证时间
如果是在线迁移,迁移会比较慢,但是停机时间很短
RTO=最后一次同步时间+业务验证时间
<br>
18.迁移的效率主要因素
迁移的网络带宽及质量
源端主机与目的主机的磁盘性能(IO)、CPU、内存等配置
迁移的数据总量多少
<br>
19.迁移的网络约束
仅支持局域网迁移,不支持广域网、NAT网络迁移。
仅支持私有云迁移,不支持公有云、桌面云迁移。
迁移实施要求网络无丢包、无抖动、延迟<2ms、带宽>100Mbps,如不满足此QoS要求,则迁移失败风险较高。
组网需要确保“Rainbow服务器”、“源主机”、“FusionCompute/FusionCloud平台上的虚拟机”网络互通。
“Rainbow服务器”能访问“FusionCompute平台的管理层”网络。
安全组策略需要满足数据正常传输进出方向的规则。
需要确保系统防火墙和网络防火墙开放部分端口的访问权限,端口详情请参考《Rainbow 6.5.1 hConvertor通信矩阵》。
迁移速率受实际环境的影响,可能与设置的迁移速率有一定的差异。
不支持
功能,若迁移中断,需要重新迁移。
<br>
20.迁移失败?
迁移失败可能的原因:
可能由于目的端主机硬件不兼容,可能需要开启IMC
可能由于目的端主机硬件存在硬件外设绑定
可能由于目的端主机系统与Rainbow不兼容
可能驱动、tools不兼容,需要获取旧版本的驱动
可能由于存在空洞文件,需要增加目的端磁盘空间
可能根驱动不兼容,需要修复驱动(/,就是rootfs)
可能端口被阻拦,Linux检查22端口,Windows检查8899端口
根驱动修复:
挂载linux系统镜像,并在引导grub的界面选择进入救援模式
chroot /mnt/sysimage,将sysimage转换成指定根目录
制作grup引导:grub2 -install /dev/sda
vim /boot/grub2/grub.cfg查看驱动文件名
dracut /boot/initramfs*****.img $(uname -r) RHEL6 mk修复驱动
<br>
21.Rainbow端口总结
登陆rainbow页面80和8443端口
对接VRM平台7443端口
对接源目端口Linux 22端口
对接源端Windows 8899端口,对接目的端为8900
<br>
22.Linux系统可以单独选择某些文件或者目录同步吗?
![](/upload/image/cloud/69.png)
![](/upload/image/cloud/70.png)
可以的,在高级配置里有个选项叫排除目录,可以自己选择需要排除的目录或者文件
<br>
23.Rainbow可以迁移数据库吗?
可以的,但是不建议使用rainbow迁移,可以迁移Mysql数据库,但是Oracle数据库严格意义上不可以迁移到云端,可能会有各种问题。迁移数据库建议使用数据库自带的迁移工具迁移,且最好是数据库厂商的工程师在现场一同配合。
<br>
24.镜像转换工具?
OVF_Convertor,可以将VMware、XEN、Hyper-V和KVM的镜像转换成VHD然后导入到FusionSphere
目前ovf_convertor已经停产,无法下载。
追问:镜像转换的原理?
答:其底层是调用了 qemu-img 工具将其他虚拟磁盘格式转换成华为 fusioncompute 所兼容的 raw、vhd 格式,并生成 fusioncompute 平台兼容的 xml 虚拟机描述文件(规格配置信息等)
<br>
六、备份-eBackup
1.备份的应用
备份主要是应用于保护数据,备份是容灾的基础,把数据从一端备份到另一端
<br>
2.华为ebackup架构
ebackup是备份管理软件,管理服务器有且只有1台,备份代理可以有多台(负载均衡)
不需要agent,代理安装在备份服务器后端,CNA内置了备份功能,只需要对接上对应的api接口即可使用
没有介质服务器,介质服务器的功能集成在了备份服务器软件中
备份服务器(backup server):运行备份软件的服务器,负责备份和恢复等任务的调度和监控,备份存储和生产系统的管理,并直接接收和响应用户的请求。备份服务器同时具备备份代理的功能。
备份代理(backup proxy):运行备份软件的服务器,负责接收备份服务器下发的备份和恢复等任务,与生产系统和备份存储直接交互,以执行任务。
<br>
3.华为ebackup的组件?
备份服务器,备份代理,备份存储,前端业务组件
<br>
4.备份时间窗口?
时间窗口=备份数据量/备份速率
如果时间窗口要求严格,应当选择lan-free,但是成本较高;反之可以选择lan-base
备份一般选择在业务不繁忙时段进行,如夜间与凌晨。
<br>
5.*备份组网
lan-base,基于lan网络,组网简单,所有的流量走lan网络,适用于数据量较小,备份时间窗口要求较低的场景
lan-free,释放lan网络,组网稍复杂,指令走lan网络,数据流走san网络,适用于数据量较大,备份时间窗口要求严格的场景
ebackup不支持server-free
![](/upload/image/cloud/71.png)
![](/upload/image/cloud/72.png)
lan-base组网情况下,备份服务器向备份代理发指令,备份代理通知VRM,VRM再通知CNA,CNA再通知hcagent下指令拍快照,快照由CNA打,然后通过lan网络复制,然后由备份代理将数据写进备份存储中。如果是使用FS,那么需要使用IP-SAN映射(LAN-base不支持生产端存储使用FS)
lan-free在私有云场景中也采用此组网,组网情况下,备份服务器向备份代理发指令,备份代理通知VRM,VRM再对CNA下指令拍快照,快照由CNA内的hcagent通知文件系统打,然后数据通过san网络复制到备份存储,存储位置由备份代理决定。如果是使用FS,则需要在备份服务器上安装VBS
![](/upload/image/cloud/73.png)
server-free组网与lan-free基本一致,属于传统场景,备份服务器连接到前端的备份代理,备份代理下达快照指令给生产存储,然后将生产存储自己打快照(COW),介质服务器拷贝数据传输经过san网络传输到介质服务器,介质服务器将数据保存到备份存储,整个过程主机不参与,对业务无影响,但是需要生产存储和备份软件同一指令同一厂家,所以也不能使用FS
server-free与lan-free的区别在于做备份时生产主机是否参与备份过程
如果是IP-SAN就是CNA打快照,如果是FS那就是FS自己打快照
追问:ebackup后端可以对接哪些存储?
答:可以对接NFS(NAS)、SAN(存储LUN映射)、CIFS(windows)、S3、本地磁盘等
<br>
6.云场景下备份组网(HCS场景下)?
私有云场景下备份是采用lan-free组网,如果走lan-base组网,那么流量会走组件交互的internal_base网络,会造成此网络平面繁忙,同时流量本身不经过cinder,cinder只是下发指令,还有lan_base不支持san网络,基于以上原因只能采用lan-free
<br>
7.备份网络平面(常考)
![](/upload/image/cloud/74.png)
<br>
8.备份的三种类型
全量备份:每次都备份整个磁盘数据
差异备份:每次备份与上次全量备份不同的部分
增量备份:第一次传输全量数据,后边传输快照数据
![](/upload/image/cloud/75.png)
<br>
9.重删的三种类型
文件级重删:
块级重删:
字节级重删:
<br>
10.快照原理
COW写前拷贝:打快照会生成快照LUN和COW数据空间,写数据时源卷的原数据会拷贝到COW空间,新数据写入到源卷,并修改快照LUN映射关系。如果再打快照,就再建立新的快照LUN,拷贝的数据保存在COW数据空间的同一位置,通过时间戳来进行识别前后的数据,同时修改快照LUN的映射关系。
ROW写时重定向:打快照时会生成快照LUN,写数据时原卷不动,数据直接写入到ROW数据空间,并建立映射关系,如果再打快照就继续建立ROW数据空间,再建议映射关系。
快照只能保护那一时刻的数据,COW源卷中的元数据始终不会改变,COW只有一个COW数据空间,COW在写数据时比较缓慢;ROW有多个ROW数据空间,ROW快照较多时会影响读取性能。COW基于块存储的LUN打快照,ROW基于文件系统的文件打快照。
注意:FS打快照是ROW,因为有自己的XFS文件系统(分布式存储文件系统),CNA打的快照是ROW,如果是传统存储则是COW。
总结:
ROW:CNA、FS、VIMS、Dorado
COW:V3、V5
<br>
11.ebackup部署方式
虚拟化部署:模版导入或使用软件包
物理部署:软件包,安装前需要更新SUSE11或12的内核,再使用软件包安装
![](/upload/image/cloud/76.png)
<br>
12.ebackup的特性
支持lan-free备份恢复
支持文件级粒度恢复
永久支持增量备份
支持数据重删
支持备份代理负载均衡
支持失败任务切换
<br>
13.ebackup备份的最小单位,恢复的最小单位呢?
备份的最小单位是磁盘,恢复的最小单位是文件
文件级细粒恢复原理是先将磁盘全盘恢复到某个磁盘或者某个目录,然后复制出需要的文件,再删除掉原来的文件。
<br>
14.数据重删?
通过hash计算,算出快照中的相同的数据块,然后删除掉重复的数据,仅保留一份。
<br>
15.什么是CBT?
CBT叫变更块跟踪技术,会将虚拟机快照后变化的数据块记录到CBT文件中
原理:
跟踪虚拟机所做的更改,仅备份变更的数据块
可将CBT用于恢复,仅恢复变更的数据块
![](/upload/image/cloud/77.png)
第一次备份启动时,会同时生成内存位图与CBT1文件,并复制CBT1得到CBT1‘
此时会将备份数据与CBT1复制到备份存储,会生成快照新数据保存在增量盘内,内存位图会持续记录修改的数据块,快照备份完成后会删除快照合并为新磁盘
当第二次备份启动时时,会将CBT1’与内存位图合并生成CBT2并复制得到CBT2‘,合并完成后内存位图重置,新数据落到增量盘内,然后将CBT2与CBT1作比较,得知变化的数据,将变化的数据与CBT2拷贝到备份存储中,备份完成后删除快照
当第三次备份启动时,会将内存位图与CBT2进行合并生成CBT3并复制出CBT3’,重置内存位图,新数据落盘到增量盘内,根据CBT3与CBT2的对比得知变化数据,对变化数据与CBT3进行备份,备份完成后删除快照,以此类推
当合并成一个新的CBT文件后内存位图会重置,重新记录到下次备份时数据的变化
概念:
内存位图:首先启动CBT备份时,会在虚拟机所在主机上启用内存位图,用1bit来记录虚拟机的数据块的变更情况,。如果没有变化,用0表示,有变化1表示。
CBT文件:首先启动CBT时,会在虚拟机磁盘所在存储空间上创建CBT文件,用于记录每一个数据块变更的状态。与内存位图不同的是,CBT文件记录了不同备份点上的数据块变更情况,并同时与备份文件一起备份到备份服务器存储中。
CBT版本号
用于标识备份次数相对应的序号,用来标记从第几次备份中找到数据
<br>
16.谁打的快照?
在生产端是数据存储的情况下,ebackup中拍快照是有CNA中vims对vhd文件打快照;在生产存储是fs的时候,拍快照是由fs自己拍的
<br>
17.谁通知备份代理拷贝数据?
CNA中本身自带的有HcAgent代理,所以快照打完了以后是又这个HcAgent来通知备份代理,这个应该是备份代理收到快照打完后自己触发拷贝数据的
<br>
18.hcagent是什么?
hcagent在产品文档上没有详细介绍,誉天老师猜测是huawei copy agent(华为拷贝代理),该agent的作用是用来接收来自备份代理的指令,并通知文件系统进行快照操作,同时还与备份代理报告状态(包含进度与快照拍完了)
Huawei convertor agent 跟迁移里面的agent是一个东西,不是copy
<br>
19.备份代理怎么拷贝数据
此题有2种解答:
看备份组网的模式是怎么样的,lan-free备份代理通过san网络将数据拷贝过来,lan-base备份代理通过lan网络将数据拷贝过来
通过https协议(基于tcp),通过35000与35020端口拷贝
<br>
20.拷贝过来的数据放在那里?
拷贝过来的数据存放在备份存储设备中
<br>
21.备份指令存在哪里?怎么调用?
备份指令都是存在ebackup中的ibase数据库中,ibase是通过北向的rest接口调用的
![](/upload/image/cloud/78.png)
<br>
22.备份存 储存了什么东西?
备份存储池存了备份的数据以及CBT文件
<br>
七、容灾-eReplication
1.BCmanager介绍
eReplication定位为企业数据中心容灾业务管理软件,满足多种应用场景(主备、两地三中心、双活数据中心、本地高可用、本地保护等)容灾运维需求,支持容灾测试、一键容灾切换、检测业务或虚拟化平台故障容灾,可以兼容私有云、虚拟化、VMware场景下的容灾(如图),可以对ORACLE、Exchange(微软的邮件服务器软件)、微软SQL Server以及IBM的DB2等应用进行容灾。
![](/upload/image/cloud/79.png)
追问:eReplication Agent了解吗?在什么场景下需要安装?
答:eReplication Agent当保护对象为FusionSphere虚拟机、VMware虚拟机或NAS文件系统时,无需安装eReplication Agent;当保护对象为应用服务器时,需要安装eReplication Agent,如AIX、HP-UX、Solaris等系统。
追问:容灾管理服务器,最低的配置要求是多少?
答:至少2个CPU、4G内存、10G系统盘,网络带宽建议2M以上。
<br>
2.容灾特性总结(基础题,一定几率会考)
存储层远程复制:Hyper Replication
存储层双活:Hyper Metro
卷镜像:Hyper Mirror
主机层复制(VRG):IO-Mirror
<br>
3.UltraVR为什么不用了?
华为还有eReplication,功能可以覆盖UltraVR的所有功能,还支持数据库和私有云容灾,UltraVR没有eRepilcation功能强大,eReplication还可以实现云场景与虚拟化场景的容灾。UltraVR只能做虚拟化容灾,通过VRG来实现容灾。
注意:UltraVR在8.0版本又重新加入,可以对ARM架构进行容灾
<br>
4.容灾与备份的区别?
备份:可以防止逻辑错误
对象:备份的对象侧重于保护数据,保障数据的安全性
可以对数据进行完整的保护,可以防止人为误操作,可以防止基本的非常入侵与计算机病毒,容灾不行,比如有人删库了,那么可以通过备份恢复回备份时的数据,但是容灾由于同步的关系,两边数据都会同步,无法保护人为误操作
容灾:防止区域性灾难
对象:容灾的对象侧重于保护业务,保障业务的连续性
容灾可以防止区域性容灾,比如洪水、战争、地震、严重气象灾害等等,可以保证在灾难发生时可以快速的恢复业务,数据可以做到实时同步,而备份是周期进行,备份再恢复时数据会有一定的丢失RPO>0,而容灾的RPO可以做到=0
<br>
5.容灾在FusionSphere场景下的限制
不支持对管理虚拟机、链接克隆虚拟机及共享磁盘虚拟机进行容灾
不支持对虚拟机的GPU、USB等外设进行容灾
不支持对磁盘模式为非持久化的虚拟机进行容灾
不支持对没有网卡、没有虚拟机磁盘的虚拟机进行容灾
<br>
6.容灾是不是部署越多越好
严格意义上来说是的,但是需要综合业务情况进行考虑,如果业务重要性与容灾成本不成正比,业务中断损失与容灾成本对比,那么可能对客户来说,过多的容灾会造成成本暴涨
<br>
7.容灾的应用
容灾主要是应用于保护业务,备份是容灾的基础,通过各种技术减小业务的中断时间
<br>
8.*容灾全景图(方案)
全景图就是华为根据多年的容灾经验,将距离由近到远把容灾分成了三个不同的层面,有本地容灾、同城容灾、异地容灾,距离多远由自己定义,可近可远。
答题时由近到远,层层递近
本地容灾:本地高可用(应用层、主机层、存储层)、主备容灾(存储层同步)
同城容灾:同城双活(六层)、主备容灾(存储层同步、异步)、VRG、三镜像(不考也不要主动讲)
异地容灾:主备容灾(存储层异步)、VRG、两地三中心方案(级联、并联)、云容灾(不考也不要主动讲)
本地容灾
本地高可用方案:
应用层高可用:通过第三方软件实现高可靠集群软件(负载均衡、DNS、Oracle Rack)
主机层高可用:虚拟化平台自带的HA技术(热迁移、自治、DRS调度)
存储层高可用:存储层远程复制(同步、异步),存储层双活,卷镜像(不主动问别讲)
主备容灾解决方案:
存储层同步远程复制技术(hyper replication)
同城容灾
同城双活:双活六层,成本非常高,一般情况下不会采用,一些特殊机构会使用此方案
主备容灾解决方案:存储层远程复制技术(同步或异步)
VRG
异地容灾
两地三中心:并联、级联
主备容灾异步复制
VRG
<br>
9.两地三中心,级联与并联
两地三中心就是在同城建立了2个DC,在异地再建立个DC
串联:安全性稍弱,当同城灾备站点故障后,异地站点也不可用
![](/upload/image/cloud/80.png)
并联:
安全性相对较高,对主DC的压力较大
![](/upload/image/cloud/81.png)
环形:一般情况下不问就不要主动讲
此种环形连接方式一般是三活,没有绝对的主备关系,三个DC都可以对外提供业务。数据的同步可以是顺时针,也可以是逆时针,此种方式成本非常高,适用于对业务与数据安全性与稳定性要求极高的场景。
![](/upload/image/cloud/82.png)
追问:那我异地一定不能做双活吗?
答:可以做双活,但是不推荐,因为距离远延迟高,会对业务造成一定的影响
追问:那远距离还需要什么东西(设备)?
答:需要波分设备(FC组网》25KM,IP组网》80KM)和长距离license(超过10公里时)
追问:那波分的作用是什么?
答:波分主要的作用有1.增强光信号,可以让光信号传输的距离更远 2.提升链路的稳定性,降低传输链路的延迟 3.提升链接的带宽,利用波分复用技术实现在一个光缆上传输尽可能多的数据
<br>
10.什么是GSLB、SLB?
GSLB就是全局负载均衡,一般使用硬件F5实现,比如两个DC使用了双活,都能对外提供业务,那么DC可以采用全局负载均衡,用户访问这个GSLB就可以自动选择适合的DC,防止单个DC负载较高
SLB是应用在单个DC上的二级负载均衡、防止某个交换机负载过高影响业务
<br>
11.*容灾组网
组网有2种:存储层容灾、主机层容灾
存储层远程复制技术、主机层虚拟网关复制技术VRG(基于虚拟化)
扩展点:主机层远程复制技术是基于虚拟化平台实现,需要在两端FC平台部署VRG(虚拟复制网关)
追问:2种技术的优缺点
存储层容灾:
优点:对主机影响小、同步远程复制的RPO=0、基于LUN保护
缺点:依赖华为存储设备、两端需要同厂商、成本高、做不到RTO=0
主机层容灾:
优点:充分利用现有设备、对虚拟机保护、成本相对较低、RTO相对比存储层要低些
缺点:对主机有一定的影响、只能对虚拟机容灾、RPO与RTO都>0
可能的追问:
什么是VRG?VRG的配置?要是VRG的复制链路速度远小于业务下发速度会怎么样?VRG的数据盘为什么要100G,一定是100G吗?VRG有哪些平面(管理、业务、容灾)?VRG保护对象只能是150台虚拟机吗?带宽要求的公式(连续IO与非连续IO)?
<br>
12.VRG虚拟复制网关,主机层远程复制?
VRG部署在两端的虚拟化平台下,用于对接VRM,一般是模版导入,系统盘15G,数据盘100G,在对端也会创建相同的占位虚拟机,有IO写入时,通过iomirror同时写入保护VM对应的存储和VRG的磁盘中,当达到某个周期或水位值时将数据打包压缩传输给对端VRG,对端VRG再解压缩,通过write agent(因为占位虚拟机不开机,只能强制写入)将数据写入占位虚拟机的磁盘中,VRG属于异步远程复制。RPO>0,RTO>0
一个CNA只能装一个VRG,VRG最大150个通道,可以保护150个VM,不能超过150个
追问:那我想保存170个虚拟机怎么办?
将剩下的20台VM迁移到其它CNA上来进行保护
追问:VRG是模版部署吗?
VRG只能通过模版导入进行部署,而且只能是虚拟化部署
追问:占位虚拟机开机后业务马上就能恢复吗?
不能,因为磁盘挂载需要时间,虚拟机开机进入系统也需要时间
主机层远程复制新版已经不再使用,但是考试仍然考,在6.0版本上可以使用
灾难发生时,容灾软件会监控到一端的故障,会自动或者手动切换到灾备端,将占位虚拟机开机,并将磁盘挂载到虚拟机上,实现业务恢复
追问:主机层复制宽带的计算公式?
如果是连续IO=>容灾虚拟机数量*8/0.7,建议70MB/S以上
如果是非连续IO=>待容灾虚拟机数量*数据块大小*每台虚拟机复制周期内业务繁忙期间平均写IOPS*8/0.7,建议50MB/S以上
延迟:建议<=50ms,峰值应该<=200ms
追问:主机层远程复制有什么缺点?
主机层远程复制只能用于虚拟化场景,只能异步同步,VRG还会对主机的性能产生影响
<br>
13.同城双活(双活六层,双活数据中心)
双活六层:主机层、应用层、存储层、安全层、网络层、传输层
双活数据中心是指在同一个城市构建两个数据中心,两个数据中心可以同时对外提供业务,六个层面都是双活,数据也是共享状态,互相之间为AA双活(真双活,两个同时工作),用户访问全局负载均衡来智能分发请求。
同城双活是在一个数据中心通过六层双活构建双活数据中心,在另一个数据中心也以同样的方式构建,两个数据中心通过全局负载均衡来打通。
同时还有AP双活,两个DC互相为主备关系,平时只有1个DC对外提供业务
存储层:存储双活,通过存储自带的Hyper Metro技术实现
主机层:通过FC自带的高可用特性,HA及DRS配合热迁移实现
应用层:上层应用集群技术 orcal rack DB2 集群的高可用
网络层:GSLB全局负载均衡(一级)、SLB二级负载均衡、网络冗余
传输层:多板卡、多设备、交换机堆叠、双网卡绑定
安全层:防火墙1+1冗余
扩展点:目前主流的软件负载均衡有LVS、Ngnix、HAproxy,一般情况下会多个负载均衡软件相互配合使用,硬件负载均衡有F5,效果上比软件负载均衡更好,适合一级的负载均衡。
追问:那做哪几层就可以是A类真双活呢?
答:一般情况应用层、存储层、网络层做到就可以算是真双活了
追问:那以上这几种哪个最难做呢?
答:技术层面上哪个都不太好做,不管是实施、业务、还有网络方面都很难做
追问:从下往上排列?
答:存储、主机、应用、网络、传输、安全
<br>
14.主机层可以做双活吗?
主机层无法做双活,但是可以配合应用层来做。在官方文档中是使用FC自带的HA技术及配合DRS以及热迁移实现
<br>
15.容灾设计方案前应该做什么
用户需求,RPO=0?
根据距离提出建议
综合成本
<br>
16.存储层远程复制
远程复制基于Hyper Replication特性
同步远程复制
数据IO双写,两边写入完成时才返回成功(大量占用宽带)
RPO=0,PTO>0(切换LUN需要时间)
需要2台传统存储
此种方式两端网络延迟不能太高,否则影响性能
追问:为什么RTO>0呢,我可以自动切换到灾备端吗?
答:因为当灾难发生时,原本由主端存储提供业务,那么存储故障了就需要手动切换到灾备端存储,但是切换存储需要时间。可以使用自动,但是不建议启用自动切换,可能会造成误判,是个风险较高的功能。
异步远程复制
数据IO下发时先写到主,写入完成时返回成功
当到达某个周期或数据量水位值时自动进行数据同步(更有效的利用带宽)
RPO>0(丢失了灾难发生时和上一次同步的时间差的数据),PTO>0
需要2台传统存储
此种方式延迟低对网络要求不高,性能较好
同步周期:
手动可以设置同步时间,3秒-1440分钟
同步开始时定时等待,3秒-1440分钟
同步结束时定时等待,3秒-1440分钟
<br>
17.VRG方案中,容灾服务器部署方式
容灾服务器有2种部署方式:
集中式部署:仅部1台署在灾备站点
分布式部署:在主站点和者容备站点都部署1台
必需至少部一台在灾备端的原因是,当主DC挂了需要有个角色去拉起灾备DC的虚拟机。
如果是各部署1台则更好,互相有心跳,并且延迟更低
<br>
18.容灾服务器的作用
灾难发生时,生产站点发生故障,可以实现手动拉活
它不是容灾的执行者,是容灾策略与指令的下发者,通过对存储或集群下达指令来实现容灾功能
<br>
19.占位虚拟机
两个VRM都对接容灾服务器,会在对端创建个一模一样的占位虚拟机,默认关机状态。当灾难发生时占位虚拟机开机,同时对应的LUN会挂载给该虚拟机,经过简单的配置,可以快速的恢复业务
<br>
20.存储层双活
注意:双活没有主备关系!考试不要讲主备!两个存储都是主都能提供业务
近端和远端的存储都可以提供服务,基于Hyper Metro,数据下发时IO会被镜像并同时双写到两端,写数据时需要两端都写完成才返回成功,IO可以从近端读也可以从远端读(根据优先级高低),RPO=0,RTO=0但是无限接近0(读中断会将IO请求重新转发到另一端)
要求:
近端与远端距离不能太远
2台同厂商的存储
距离较远的时候需要特殊的license
双活优先级:静态优先级、第三方仲裁
<br>
21.远程复制和双活谁的成本高
首先都需要2台存储
双活的license比远程复制的更贵(主要原因)
两者一般都需要波分设备
双活需要配置静态优先级或者一台仲裁服务器(连接两端存储检测心跳,判定请求走向)
<br>
22.卷镜像(非考试重点)
在同一台存储内实现Hyper Mirror来实现双写,将数据同时双写到同个存储不同的LUN中
硬盘级保护,RPO=0,PTO>0
首先创建2个不同的硬盘域,并创建各自的LUN,其中一个LUN映射给主机,另一个保护映射给主机的LUN,然后在IO下发时存储管理模块会使用Hyper Mirror对IO进行复制,两边同时双写完成后向上返回写成功。
补充:hyper mirror的镜像副本不一定要在两个硬盘域,配合virtualization特性可以实现异构接管后的高可用。
![](/upload/image/cloud/83.png)
扩展:存储的单位:硬盘域>存储池>LUN
<br>
23.桌面云容灾
客户端自主业务容灾
GSLB业务容灾
GSLB+NAS容灾
阵列复制容灾
![](/upload/image/cloud/84.png)
<br>
24.私有云容灾
参考64点,CSDR