符合中小企业对网站设计、功能常规化式的企业展示型网站建设
本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...
商城网站建设因基本功能的需求不同费用上面也有很大的差别...
手机微信网站开发、微信官网、微信商城网站...
本篇文章为大家展示了如何进行kubernetes scheduler backend调度的实现,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
北林ssl适用于网站、小程序/APP、API接口等需要进行数据传输应用场景,ssl证书未来市场广阔!成为创新互联建站的ssl证书销售渠道,可以享受市场价格4-6折优惠!如果有意向欢迎电话联系或者加微信:18982081108(备注:SSL证书合作)期待与您的合作!
随着k8s快来越火热,以及自动部署,自动伸缩等优点,我们今天来探讨一下,基于k8s的backend的调度怎么来实现
整个数据流就是消费者-生产者模型
组件 | 解释 |
---|---|
kubernetesClient | 跟k8s进行交互,如:任务的提交,杀任务 |
podsPollingSnapshotSource | 从k8s中拉取pod的任务状态,存储到podSnapshotStore |
podsWatchSnapshotSource | 监控任务的watcher,以获取任务状态,存储到podSnapshotStore |
podSnapshotStore | pod状态的存储 |
podState | pod内部状态转换 |
podsSnapshot | pod 的状态镜像 |
taskPodsLifecycleManager | 从podSnapshotStore消费pod的状态,以便根据任务的状态进行后续操作 |
特别说明
对于podsWatchSnapshotSource的实现,我们是基于k8s watch机制实现的,但是存在一个问题:
假如某一时刻,podsWatchSnapshotSource发生了故障导致了该组件发生了重启,那么问题来了,重启这段时间就会丢失event,
这里我们采用k8s的resourceVersion机制,如果我们定时存储resourceVersion,且在重启的时候读取,就能做到断点续传的作用
注意一点的是:该resourceVersion在 Kubernetes 服务器的保留是有限制的。使用etcd2的旧集群最多可保留1000次更改。
默认情况下,使用etcd3的较新集群会在最近5分钟内保留更改,如果超过了该resourceVersion超过了服务器的resourceVersion的值
则会报错
backend通过被调用reviveOffer获取能获取到的backend资源.
获取到资源后,通过kubernetesClient向k8s提交任务
减少对应向k8s 提交任务的资源量
更新backend内部的对应job状态为Running状态,如果该存在job状态为Runnnig状态,则更新对应的job状态为updated状态
podsWatchSnapshotSource 监控刚才提交的任务,获取任务更新的状态,存储到podSnapshotStore中,以便后续任务的处理
podsPollingSnapshotSource 定时拉取应用提交的所有任务,存储到podSnapshotStore中,以便进行final任务的清理
podSnapshotStore 对任务状态更新为内部状态,并对订阅此podSnapshotStore的snapshot进行函数回调
taskPodsLifecycleManager 订阅了上述的snapshot,对该snapshot进行处理:1.如果任务状态为podFailed或者PodSucceeded时,更新backend job的内猪状态,如果存在对应的Running的job,调用k8s api删除该pod,以及删除该pod所占用的资源(cpus,mem等),如果存在对应updated的job状态,则把updated的状态更新为Running状态,防止外界任务的更新,导致任务的资源量更新不一致
2.调用kubernetesTaskSchedulerBackend的statusUpdate方法进行任务的更新进行处理
因为公司有自己的调度平台,所以主要从调度的粒度来进行对比:
spark on k8s调度的是executor级别的,是粗粒度调度
k8s backend 调度的是job级别,每个job一个pod container,属于细粒度的精准调度
上述内容就是如何进行kubernetes scheduler backend调度的实现,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。