使用Tanzu KubernetesGrid中的Zones实现工作负的高可用_第1页
使用Tanzu KubernetesGrid中的Zones实现工作负的高可用_第2页
使用Tanzu KubernetesGrid中的Zones实现工作负的高可用_第3页
使用Tanzu KubernetesGrid中的Zones实现工作负的高可用_第4页
使用Tanzu KubernetesGrid中的Zones实现工作负的高可用_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

使用TanzuKubernetesGrid

中的Zones实现工作负的高可用技术创新,变革未来议程©概述vSphere

Zone

简介实施细节(网络、存储等)通过

vSphere

管理员帐户演示从

Kubernetes

角度看可用区拓扑感知卷置备演示

DevOps概述当前模式:单个故障域Namespace主管集群Tanzu

Kubernetes

集群NamespaceNamespacePodPodPodvCenter主管集群和

TKG

集群只能部署在一个

vSphere

集群上一个

vSphere

集群表示一个故障域主管集群和

vSphere

集群之间一对一耦合©vSphere

集群单个故障域概述云原生可用性要求我们的期望:实现真正的云原生可用性,并能够应对整个可用区故障!!!我们的需求:跨不同故障域分配主管集群节点❓跨不同故障域分配

TKG

控制平面节点和

TKG

Worker

节点❓跨不同故障域分配工作负载(拓扑感知调度)❓跨不同故障域分配持久卷(可用区本地存储)❓https://kubernetes.io/docs/setup/best-practices/multiple-zones/©vSphere

Zone

简介未来模式:多个

vSphere

ZoneTanzuKubernetes

集群NamespaceNamespacePodPodPod机架

2机架

1机架

3Namespace主管集群vSphere

集群vCenterZone

表示单个

vCenter

服务器中的故障域主管集群和

Tanzu

Kubernetes集群虚拟机分布在不同

Zone

中机架

6Zone

2机架

7vSphere

集群机架

8机架

9Zone

3机架

10vSphere

集群机架

11适用于基于

NSX和VDS

的网络连接vSphere

8.0

支持这种模式Zone

1vSphere

Zone

简介整体情况机架

2机架

3机架

1vSphere

集群Zone

1SV

CP虚拟机

1机架

6机架

7机架

8vSphere

集群Zone

2机架

9机架

10机架

11Zone

3vSphere

集群SV

CP虚拟机

2SV

CP虚拟机

3延伸主管集群TKGWorker

1TKG

CP虚拟机

1TKGWorker

2TKG

CP虚拟机

2TKGWorker

3TKG

CP虚拟机

3标签:Zone

1标签:Zone

2标签:Zone

2标签:Zone

3标签:Zone

3标签:Zone

1Tanzu

Kubernetes

集群内的

K8s

调度程序©Pod

1Pod

2Pod

3故障域

1故障域

2故障域

3实施细节©要求vSphere

8.x至少

3

vSphere

集群(1

个集群表示

1

Zone)所有集群/Zone

中的所有

ESXi

主机都要能够访问同一

NSX-T

叠加传输域和相同的

VDS

端口组确保跨

Zone

分隔

Edge

集群的

NSX-T

Edge

节点采用

NSX-T

Edge

故障域确保跨

Zone

分隔

NSX

ALB

SEZone

本地数据存储,采用启用了拓扑的

vSphere

存储策略创建

vSphere

Zone©通过

vSphere

Zone

启用主管集群©新主管集群页面©演示如何启用主管集群将屏幕截图放置在此处从

Kubernetes

角度看可用区概述云原生可用性要求我们的期望:实现真正的云原生可用性,并能够应对整个可用区故障!!!我们的需求:跨不同故障域分配主管集群节点✅跨不同故障域分配

TKG

控制平面节点和

TKG

Worker

节点❓https://kubernetes.io/docs/setup/best-practices/multiple-zones/跨故障域分配

TKC

节点每个可用区/故障域一个节点池至少需要

3

个故障域/节点池采用启用拓扑(分区)的

vSphere

存储策略不要使用低于

1.22.6

TKR演示如何创建

TKC将屏幕截图放置在此处概述云原生可用性要求我们的期望:实现真正的云原生可用性,并能够应对整个可用区故障!!!我们的需求:跨不同故障域分配主管集群节点✅跨不同故障域分配

TKG

控制平面节点和

TKG

Worker

节点✅跨不同故障域分配工作负载(拓扑感知调度)❓©https://kubernetes.io/docs/setup/best-practices/multiple-zones/从

Kubernetes

角度看工作负载分配如何确保

Kubernetes

工作负载分布在跨不同故障域运行的节点上?节点标签和

Kubernetes

调度程序:https://kubernetes.io/docs/concepts/workloads/pods/pod-topology-spread-constraints/©概述云原生可用性要求我们的期望:实现真正的云原生可用性,并能够应对整个可用区故障!!!我们的需求:跨不同故障域分配主管集群节点✅跨不同故障域分配

TKG

控制平面节点和

TKG

Worker

节点✅跨不同故障域分配工作负载(拓扑感知调度)✅跨不同故障域分配持久卷(可用区本地存储)❓https://kubernetes.io/docs/setup/best-practices/multiple-zones/©拓扑感知卷置备创建存储策略

-

Zone/集群本地存储©拓扑感知卷置备创建存储策略

-

Zone/集群本地存储©拓扑感知卷置备检查

CSINode

topologyKeys

和节点标签kubectlgetnodes-L

topology.kubernetes.io/zone©拓扑感知卷置备volumeBindingMode:ImmediatePersistentVolumeClaim

创建完成后立即执行卷绑定和动态置备!对于集群中所有节点都无法访问的存储后端(拓扑约束),PersistentVolumes

将在不了解

Pod

调度需求的情况下进行置备。这可能会产生不可调度的

Pod!©拓扑感知卷置备volumeBindingMode:WaitForFirstConsumer在使用

PVC

pod

创建之前,为PersistentVolumeClaim

延迟创建和绑定PersistentVolume!PersistentVolumes

将根据

Pod

的调度约束指定的拓扑进行置备!需要在

Deployment/StatefulSet

清单中指定

Zone参数!©拓扑感知卷置备检查结果kubectlgetpv

-o=jsonpath='{range.items[*]}{.}{"\t"}{.spec.claimR}{"\t"}{.spec.nodeAffinity}{"\n"}{end}'©演示拓扑感知卷置备将屏幕截图放置在此处28©©概述云原生可用性要求我们的期望:实现真正的云原生可用性,并能够应对整个可用区故障!!!我们的需求:跨不同故障域分配主管

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论