有什么开源的Kuernetes平台吗?
作者:卡卷网发布时间:2025-01-08 18:50浏览数量:91次评论数量:0次
花折-KueDoor
花开堪折直须折莫待无花空折枝
开思开源第一弹:基于AI推荐+专家经验的K8S负载感知调度与容量管控
概述
<>花折-KueDoor>是一个使用Python+Vue开发,基于K8S准入控制机制的微服务资源管控平台。专注微服务每高峰时段的资源视角,实现了微服务的资源分析计与强管控,确保微服务资源的资源申请率和实使用率一致。
架构图
功能描述
采集K8S微服务每业务高峰时段P95的CPU内存消耗,以及需求、值与Pod数。基于采集的数据实现了一个Grafana看板并集成到了WEUI。
<>基于维度采集每高峰时段P95的资源数据>,可以很好的观察各微服务长期的资源变化情况,即使查看1年的数据也很流畅。高峰时段全局资源计与各<>资源TOP10>命名空间级别高峰时段P95资源使用量与<>资源消耗占整体资源的例><>微服务级别>高峰期整体资源与使用率分析微服务与<>Pod级别>的资源曲线图(需求值,值,使用值)
每从采集的数据中,获取最近10天各微服务的资源信息,获取资源消耗最大的P95资源,作为微服务的需求值写入数据库。
✨<>基于准入控制机制>实现K8S微服务资源的<>实使用率和资源申请需求值保持一致>,具有非常重要的意义。<>K8S调度器>通过实的资源需求值就能够更精确地将Pod调度到合适的节点上,<>避免资源碎片,实现节点的资源均衡>。♻<>K8S自动扩缩容>也依赖资源需求值来判断,<>实的需求值可以更精准的触发扩缩容作>。<>K8S的保障服务质量>(QoS机制)与需求值结合,实需求值的Pod会被优先保留,<>保证关键服务的正常运行>。
实现了一个K8S管控与展示的WEUI。
⚙️对微服务的最新、每高峰期的<>P95资源展示>,以及对<>Pod数、资源值>的。⏱️支持<>即时、定时、周期性>任务执行微服务的<>扩缩容和重启>作。基于NGINXasic<>认证>,支持LDAP,支持所有<>作审计>志与通知。在前端页面集成Grafana看板,更优雅的展示与分析采集的微服务数据。
当微服务更新部署时,基于K8S准入控制机制对资源进行管控【默认不开启】:
<>控制每个微服务的Pod数、需求值、值>必须与数据库一致,以确保微服务的实使用率和资源申请需求值相等,从而实现微服务的一管控与Pod的负载感知调度均衡能力。<>对未管控的微服务,会部署失败并通知>,必须在WEUI新增微服务后才能部署。(作为新增微服务的唯一管控入口,杜绝未经允许的新服务部署。)通过本项目基于<>K8S准入机制的扩展>思路,大家可以自行简单定制需求,即可对K8S实现各种高灵活性与扩展性附加能力,诸如一或者个性化的<>拦截、、策略、标记微服务>等功能。
K8S准入控制逻辑
<>如果觉得项目不错,麻烦动动小手点个⭐️Star⭐️如果你还有想法或者需求,欢迎在issue中交流>
<>项目仓库:s://githu/CassInfra/KueDoor>
2025KueDoorRoadMap
<>KueDoor项目进度>s://githu/orgs/CassInfra/projects/1多K8S支持:在一的WeUI对多K8S做管控和资源分析展示。英文版发布集成K8S实时监控能力,实现一键部署,整合K8S实时资源看板,接入K8S异常AI分析能力。微服务AI评分:根据资源使用情况,发现资源浪费的问题,结合AI缩容,降本增效,做AI综合评分。微服务AI缩容:基于微服务高峰期的资源信息,对接AI分析与专家经验,计算微服务Pod数是否合理,生成缩容指令与计。根据K8S节点资源使用率做节点管控与调度分析采集更多的微服务资源信息:QPS/JVM/GC针对微服务Pod做精细化作:隔离、删除、dump、jstack、jfr、jvm
部署说明
0.需要已有Prometheus监控K8S
需要有cadvisor
和kue-state-metri
这2个JO,才能采集到K8S的以下指标-container_cpu_usage_seconds_total
-container_memory_working_set_ytes
-container_spec_cpu_quota
-kue_pod_container_
-kue_pod_container_resoce_limits
-kue_pod_container_resoce_requests
1.部署Cert-manager
用于K8utatingWehook的强制s认证
kuectlapply-fs://StarsL/kuedoor/00.cert-manager_v1.16.2_cn.yaml
2.部署ClickHouse并初始化
用于存储采集的指标数据与微服务的资源信息
#默认使用dockercompose运行,部署在/opt/clickhouse目录下。
cl-ss://StarsL/kuedoor/install-clickhouse.sh|sudoash
#启动ClickHouse(启动后会自动初始化表结构)
cd/opt/clickhouse&&dockercomposeup-d
如果已有ClickHouse,请逐条执行以下SQL,完成初始化表结构
s://StarsL/kuedoor/kuedoor-init.sql
3.部署KueDoor
ets://StarsL/kuedoor/kuedoor.tgz
tar-zxvfkuedoor.tgz
#编辑values.yaml文件,请仔细阅读注释,根据描述修改配置内容。
vimkuedoor/values.yaml
#使用helm安装(注意在kuedoor目录外执行。)
helminstallkuedoor./kuedoor
#安装完成后,所有资源都会部署在kuedoor命名空间。
4.访问WeUI并初始化数据
使用K8S节点IP+kuedoor-we的NodePort访问,默认账号密码都是<>kuedoor
>点击配置中心
,输入需要采集的历史数据时长,点击采集并更新
,即可采集历史数据并更新高峰时段数据到管控表。<>默认会从Prometheus采集10天数据(建议采集1个月),并将10天内最大资源消耗的数据写入到管控表,如果耗时较长,请等待采集完成或缩短采集时长。重复执行采集并更新
不会导致重复写入数据,请放心使用,每次采集后都会自动将10天内最大资源消耗的数据写入到管控表。>点击管控状态
的开关,显示管控已启用
,表示已开启。
⛔注意事项
部署完成后,<>默认不会开启管控机制>,你可以按上述作通过WeUI来开关管控能力。特殊情况下,你也可以使用kuectl
来开关管控功能:```ash开启管控kuectlapply-fs://StarsL/kuedoor/99.kuedoor-Mutating.yaml关闭管控kuectldeletemutatingwehookconfigationskuedoor-wehook-configation```<>开启管控机制后>,目前只会拦截<>deployment的创建,更新,扩缩容>作;管控<>pod数,需求值,值>。不会控制其它作和属性。<>开启管控机制后>,通过任何方式对Deployment执行扩缩容或者更新作都会受到管控。<>开启管控机制后>,扩缩容或者重启Deployment时,Pod数优先取指定Pod
字段,若该字段为-1,则取当Pod
字段。
管控例子
你通过Kuectl对一个Deployment执行了扩容10个Pod后,<>会触发拦截机制>,到数据库中去查询该微服务的Pod,然后使用该值来进行实际的扩缩容。(正确的做法应该是在KueDoor-We来执行扩缩容作。)你通过某发布修改了Deployment的镜像版本,执行发布作,<>会触发拦截机制>,到数据库中去查询该微服务的Pod数,需求值,值,然后使用这些值值以及新的镜像来进行实际的更新作。
管控原则
<>你对deployment的作不会触发deployment重启的,也没有修改Pod数的:>触发管控拦截后,只会按照你的作来更新deployment(不会重启Deployment)<>你对deployment的作不会触发deployment重启的,并且修改Pod数的:>触发管控拦截后,Pod数会根据数据库的值以及你修改的其它信息来更新Deployment。(不会重启Deployment)<>你对deployment的作会触发deployment重启的:>触发管控拦截后,会到数据库中去查询该微服务的Pod数,需求值,值,然后使用这些值以及你修改的其它信息来更新Deployment。(会重启Deployment)
鸣谢
感谢如下优秀的项目,没有这些项目,不可能会有<>KueDoor>:
后端技术栈FlaskGrafanaNginx前端技术栈VueElementPluspe-<>特别鸣谢>CassTime:<>KueDoor>的诞生离不开<>开思>的支持。
你 发表评论:
欢迎