一、从多云多集群到分布式云原生:时代给 Kurator 的“命题”
如果把过去十年的云原生看作“单集群的基础设施革命”,那接下来五到十年,更像是“多云多集群 + 云边端一体化”的系统性升级。
Gartner 早就把“分布式云”列为未来数年持续演进的重要方向之一,核心诉求其实就两点:
-
业务不再只跑在一个云、一个集群上
- 公有云 + 私有云混合部署
- 业务跨区域、跨运营商、跨数据中心
- 边缘侧(IoT、5G、工业互联网)和中心云协同
-
研发和运维又不希望被复杂度“反噬”
- 不想为每个云、每个集群、每种技术栈重新搭建一套工具
- 希望“以应用为中心”,而不是“被集群牵着走”
在这样的背景里,Kuber***es 不再是终点,只是起点:
- 上层必须要有一套能够横跨多云、多集群、多形态算力的“控制平面”;
- 这套控制平面既要继承 ***CF 生态的开放能力,又要把多种开源项目真正“整合为一栈”,而不是“堆项目”。
Kurator 正是带着这样的使命出现的。
从 GitHub 与社区公开信息来看,Kurator 被定义为一个面向分布式云场景的开源云原生平台,构建在 Kuber***es 及一系列主流开源项目之上,提供统一的资源编排、统一调度、统一流量治理以及统一遥测等能力。
换句话说:它不是又一个“更花哨的 K8s 发行版”,而是瞄准“分布式云原生应用管理平台”这条新赛道。
二、Kurator 的整体视角:一栈统一的设计理念
2.1 “站在巨人肩膀上”的一站式平台
从官方仓库和社区文章可以看到,Kurator 的技术路径非常明确:
它没有试图“重造轮子”,而是在 Karmada、KubeEdge、Volcano、Istio、Prometheus、Thanos、Kyverno、GitOps 工具等开源项目之上构建统一控制平面和产品化体验。
Kurator 的整体目标可以概括为四个“统一”:
-
统一资源编排(Unified Resource Orchestration):
面向多云、多集群、多 Region,将底层资源抽象为统一模型,解除“每个集群一套运维方式”的束缚。 -
统一调度(Unified Scheduling):
在多集群和异构算力(云、边、AI 集群)之间做更智能的全局调度。 -
统一流量治理(Unified Traffic Management):
基于服务网格,对多集群、多环境的流量进行统一控制和灰度管理。 -
统一遥测(Unified Telemetry):
利用 Prometheus/Thanos/Grafana 等,把分散在各个集群、边缘节点上的指标与日志汇聚到统一视图。
2.2 两个核心角色:Cluster Operator 与 Fleet Manager
从华为云与社区的资料来看,Kurator 的总体架构可以拆解为两个核心角色:
-
Cluster Operator:面向单集群生命周期的“基础设施控制器”
- 基于 Cluster API,对 Kuber***es 集群的创建、扩缩、升级、删除进行声明式管理;
- 支持本地数据中心集群和第三方云厂商上的自建集群;
- 通过 CRD 描述集群期望状态,Controller 负责对齐实际状态。
-
Fleet Manager:面向多集群的“舰队指挥官”
- 把一组集群抽象为一个 Fleet;
- 实现集群注册/注销、应用跨集群同步、跨集群服务发现与流量治理;
- 负责多集群监控数据的聚合以及策略的统一下发。
从我的视角看,这两者的关系可以类比为:
- Cluster Operator:解决的是“我如何用同一种方式管理一堆集群”;
- Fleet Manager:解决的是“我如何把这堆集群看作一个逻辑整体来用”。
在此基础上,Kurator 再“往上叠”应用分发、CI/CD、渐进式发布、统一监控与策略管理,形成一套相对闭环的分布式云原生平台能力。
三、Kurator 集成的云原生优秀项目巡礼
征文要求中重点提到需要介绍 Kurator 所集成的开源项目,并分析其衍生出的创新优势。下面我就逐一拆开看。
3.1 Karmada:多集群编排的控制中枢
Karmada 是 ***CF 旗下的多集群调度与编排开源项目,能够:
- 以 Kuber***es 原生 API 的方式管理多集群资源;
- 基于策略实现工作负载跨集群分发、容灾与流量切分;
- 具备多集群调度、故障恢复和就近访问等能力。
Kurator 在 Karmada 之上构建多集群能力,相当于:
- 借用了一个成熟的多集群编排“内核”;
- 在此基础上增加更统一的“舰队”抽象和更高层级的应用视角。
3.2 KubeEdge:云边协同的关键枢纽
KubeEdge 主要解决的问题是:
- 如何在边缘侧运行 Kuber***es 风格的工作负载;
- 如何在边缘节点与云端之间建立可靠通信和数据同步机制。
Kurator 将 KubeEdge 纳入自己的技术栈意味着:
-
它不仅考虑“多云多集群”,还进一步把边缘节点纳入“舰队”管理范围;
-
可以构建“云-边-端”一体化的应用部署与运维方案,例如:
- 在中心云进行 AI 模型训练;
- 通过 Kurator 把推理服务分发到大量边缘站点;
- 统一观测这些边缘实例的健康状态与指标。
3.3 Volcano:面向批处理和 AI 场景的高性能调度
Volcano 的定位是面向 HPC 和 AI/深度学习场景的 batch 调度器,在大规模任务队列、GPU 资源管理、多租户隔离等方面具有优势。
结合 Kurator 的“统一调度”目标,可以预见的发展方向包括:
- 在多个算力集群(GPU 池、异构集群)之间做更智能的工作负载布置;
- 支持训练任务和在线服务混布场景下的资源弹性调度;
- 在分布式 AI 场景中实现跨集群的 Job 编排(比如跨 Region 的数据预处理 + 中心集群的集中训练)。
3.4 Istio:服务网格赋能统一流量治理
Istio 已经是服务网格事实标准之一,覆盖:
- East-West / North-South 流量治理;
- 熔断、重试、限流、超时等流控策略;
- mTLS、零信任架构、请求级别可观测性。
Kurator 在多集群层面利用 Istio 的一个关键点在于:
不仅在单集群内部做服务网格,而是通过 Fleet 概念做跨集群流量治理与渐进式发布:
- 跨集群的灰度/金丝雀、A/B 测试和蓝绿发布;
- 基于 SLO 的自动回滚;
- 对多 Region、多环境(dev/staging/prod)的统一流量编排。
3.5 Prometheus + Thanos + Grafana:统一监控与遥测体系
在监控体系上,Kurator 借助:
- Prometheus:各集群指标采集;
- Thanos:实现多集群、多 Region 的指标聚合与长周期存储;
- Grafana:统一展示视图与看板。
Kurator 的价值在于:它把“如何为一群集群部署这套链路”这件事情抽象并自动化了——
- Fleet 维度自动为集群下发监控组件;
- 自动把各集群指标注册到统一的 Thanos 网关;
- 通过 Kurator 的 API 生成多集群 Dashboard。
3.6 Kyverno:策略引擎支撑统一策略治理
Kyverno 是 Kuber***es 原生策略引擎,与 OPA/ Gatekeeper 相比更偏向“用 YAML 写策略”的模式,敏捷性强。
在 Kurator 的框架里,Kyverno 主要用于:
- 对集群/命名空间/应用进行统一合规校验(如必须打标签、必须启用资源限额等);
- 在 Fleet 范围内下发安全与合规策略;
- 配合 CI/CD 流水线,在入仓/上线前进行策略验证。
3.7 GitOps 工具链(FluxCD / Argo / Tekton 等):应用生命周期大脑
Kurator 在 v0.6.0 中增强了 CI/CD 能力,引入 Tekton 风格的流水线与渐进式发布能力(配合金丝雀、A/B 测试与蓝绿发布)。
同时 README 中也提到基于 FluxCD 等 GitOps 工具,实现:
- 从代码仓到应用部署的自动化闭环;
- 以 Git 仓库为“单一事实源”的环境管理方式。
这一套组合拳,让 Kurator 不仅能“管集群”,还能更好地“管应用”。
四、在这些项目之上:Kurator 的独特创新优势
很多人第一次看 Kurator 的项目列表会觉得:
“这不就是把一堆开源项目打包在一起吗?”
但从我自己在云原生社区的实践经验来看,真正的难点从来不在“项目数量”,而在“整合深度”。单靠“Helm 一键部署一堆组件”远远不够,企业真正的诉求是:
“你能不能用一套统一的抽象和运维模式,把我复杂的多云多集群环境变得‘像一个逻辑平台’一样好用?”
Kurator 至少在几个维度做出了明显的差异化。
4.1 Fleet 抽象带来的“逻辑大集群”体验
README 中对 Fleet 的描述非常关键:
- 支持集群注册/注销进 Fleet;
- 支持应用的自定义与多集群同步;
- 支持 Namespace、ServiceA***ount、Service 等在 Fleet 内的“同构性”;
- 提供跨集群服务发现与通信能力;
- 聚合 Fleet 内所有集群的指标;
- 利用策略引擎保证 Fleet 内集群策略一致。
从平台建设视角看,这相当于:
- 把多集群抽象为“一个逻辑大集群(Fleet)”;
- 让平台团队可以“面向 Fleet 运营”,而不是“在十几个独立集群之间疲于奔命”。
这类抽象在大规模企业中是极具价值的:
- 可以按业务线、按区域、按环境划分不同 Fleet;
- 在 Fleet 内部实现标准化治理与统一观测;
- 对上层业务提供统一入口和统一能力。
4.2 基于 IaC 的分布式基础设施治理
Kurator 强调 Infrastructure-as-Code(IaC),把集群、节点、网络(VPC)、边缘站点等基础设施都纳入声明式管理。
这带来的好处包括:
- 集群环境可以版本化、可审计;
- 多云环境的异构差异通过同一套 CRD 抽象屏蔽;
- 在 CI/CD 流水线中不仅可以交付应用,也可以交付环境本身。
在分布式云场景里,这一点尤其关键:
只有当基础设施本身是“可编排”的,你才能在多云多集群上真正做到自动化、可重复和可追溯。
4.3 “统一应用分发 + 渐进式发布”的一体化能力
Kurator 在统一应用分发之上,叠加了:
- 基于代码仓的 CI/CD 流水线;
- 金丝雀、A/B 测试、蓝绿发布三种渐进式发布策略;
- 与 Istio 网格能力深度结合的流量分配与健康检查;
- 基于指标(请求成功率、延迟等)的动态决策。
在多集群场景下,这等于给企业提供了一个“开箱即用的 GitOps + Progressive Delivery 平台”:
- 开发改代码 -> 提交仓库 -> 触发 Kurator Pipeline 构建镜像并签名 -> 更新部署模板;
- Application Controller 侦测到配置变化 -> 根据预设发布策略逐步放量;
- 监控指标不达标自动回滚。
这比企业自己在每个集群分别部署 Argo Rollouts、手写各种 YAML,要稳定可控得多。
4.4 统一监控与策略管理:从“能看”到“能治理”
Kurator 提供的统一监控与策略管理能力,解决的是分布式云中长期存在的两类痛点:
-
观测碎片化
- 每个集群一套 Prometheus,一套 Grafana,看板不一致;
- 多云之间延迟和错配难以追踪。
-
安全策略不一致
- 不同集群由不同团队维护,安全策略/准入规则不统一;
- 新环境上线时容易忘记对齐策略。
通过 Kurator 的统一监控方案(Prometheus + Thanos + Fleet)与基于 Kyverno 的策略下发机制:
- 平台团队可以在 Fleet 维度定义“默认安全基线”;
- 新集群接入 Fleet 时自动继承这些基线;
- 运维只需要在 Kurator 视图中查看整体健康状态,不再被集群数量压垮。
五、典型实践场景:Kurator 如何落地“云原生实战派”
结合我在社区与企业实践中看到的一些场景,可以更直观地理解 Kurator 带来的价值。下面列几个代表性的 use case。
5.1 多云多集群统一治理:平台团队的“主战场”
痛点写实:
- 不同业务线基于不同云厂商自建 k8s;
- 各自部署一套监控、一套日志、一套网关;
- 平台团队既要维护底层集群,又要协调各业务线自发选型带来的兼容问题。
Kurator 的切入方式:
- 使用 Cluster Operator 接管各类集群的生命周期与配置;
- 将这些集群按业务/区域纳入不同 Fleet;
- 统一应用分发:例如 A 业务线需要在“国内多 Region + 海外单 Region”统一发布;
- 统一监控/策略:平台统一定义安全策略、SLO 度量与报警模板。
最终效果:
- 业务开发侧只需面对 Kurator 提供的“应用管理平台”,而不太需要关心底层在哪个云;
- 平台团队从“接工单挨个登录集群排查”转变为“在统一控制面中洞察全局”。
5.2 云边协同:工业互联网与 IoT 场景
在工业互联网、城市物联、零售终端场景中:
- 终端站点数量巨大(上百、上千);
- 边缘节点资源有限且网络状况复杂;
- 需要在边缘侧运行本地处理逻辑(数据预处理、实时预测),同时与中心云保持同步。
基于 Kurator 的构想路径:
- 通过 Cluster Operator 和 KubeEdge 把边缘集群纳入统一管理;
- 为不同区域站点组建 Fleet(如“华东边缘站点 Fleet”、“海外门店 Fleet”);
- 利用统一应用分发,将特定版本的边缘应用分发至对应 Fleet;
- 利用统一监控与策略管理保障边缘环境的稳定与安全。
这种模式下,更像是在“运营一个边缘云平台”,而不是“到处远程 SSH 上去改配置”。
5.3 AI 训练 + 推理的全栈云原生平台
在 AI 场景中,典型的需求包括:
- GPU 训练集群通常集中在少数 Region;
- 推理服务需要在靠近业务的 Region 或边缘节点部署;
- 训练和推理之间需要有一条自动化的“模型上线流水线”。
借助 Kurator 集成的 Volcano 调度、统一应用分发以及渐进式发布能力,可以构建如下闭环:
- 在训练集群中,通过 Volcano 高效调度训练 Job;
- 训练产生的新模型版本,通过 CI/CD 流水线自动构建推理镜像;
- 利用统分发 + 金丝雀发布,将新模型逐步放量到多 Region 或边缘 Fleet;
- 利用 Prometheus/Thanos 的多集群指标采集,对关键指标(RT、错误率、业务 KPI)进行统一观测和回滚控制。
对于希望走向“AI 原生云原生”的团队而言,这类能力非常关键。
六、结合社区实践的观察:分布式云原生技术走向何方?
在参与国内外云原生社区、帮助企业做平台落地的过程中,我个人对分布式云原生的发展有几个直观感受,也可以借 Kurator 这个“样本”来印证。
6.1 从“多集群管理”走向“多运行时、多算力统一调度”
早期的多集群主要是:
- “我有多个 k8s 集群,需要一个 Console 来统一看”;
- 城市级、园区级、不同业务线的独立集群。
接下来演化为:
- 多种运行时(容器、Serverless、FaaS、Batch、边缘轻量运行时)并存;
- 多种算力形态(CPU、GPU、NPU、昇腾、云手机等)统一调度。
这要求平台有能力:
- 不仅能管理 k8s 集群,还要理解上层工作负载的语义;
- 不仅是“集群层面的调度”,而是“能力层面的调度”(例如:带 GPU 的 Fleet、符合合规的 Fleet、低碳排放的 Fleet)。
Kurator 通过对 Fleet 和 Volcano 等组件的整合,为这条演进路径提供了一个可行的技术基础。
6.2 从“集群中心”迁移到“应用/产品中心”
很多平台项目在初期容易陷入“集群视角”:
- Dashboard 里第一屏永远是集群列表;
- 用户需要先理解节点、存储、网络,才能使用平台。
但业务团队真正关心的是:
“我这个应用在所有环境里的发布节奏、健康状态、成本情况怎么样?”
Kurator 通过统一应用分发、CI/CD 流水线、渐进式发布,把视角逐渐上移到“应用/环境组合”:
- 应用在 dev/staging/prod 多环境、多 Region 的发布状态;
- 与 Fleet 的组合关系,而不是与单个集群的绑定关系;
- 应用策略(SLO、配额、配置信任域)的统一治理。
这种转变我认为是分布式云原生平台能否被业务真正接受的关键一步。
6.3 DevOps → GitOps → AIOps:自动化程度持续提升
从 Kurator v0.6.0 对流水线和渐进式发布的增强可以看出,其整体方向其实是:
- 用 GitOps 把环境与应用的状态都收敛到仓库;
- 用统一监控与策略引擎把“观测 + 控制”打通;
- 为未来接入 AIOps(异常检测、智能扩缩容、自动根因分析)预留空间。
在我看来,分布式云原生平台未来一定会走向 “数据驱动 + AI 驱动”的自动运维:
- 利用历史指标与拓扑信息做异常预判;
- 用 LLM、Agent 协助分析告警和自动生成缓解方案;
- 通过策略引擎自动落地修复动作(扩容、限流、流量切换)。
Kurator 现在已经搭好了“数据管道”(遥测)和“动作执行口”(策略、调度),接下来很自然的方向就是上层 AI 能力。
6.4 FinOps 与 GreenOps:分布式时代的新栏目
当资源分布在多个云、多个 Region、多个算力池时,成本与能耗变成了绕不开的话题:
- 同一业务部署在多云上的成本如何对比?
- 某个 Fleet 的成本构成如何?
- 高能耗集群是否可以在业务低谷期进行“绿色调度”?
从平台能力角度看,这需要:
- 在统一遥测中增加成本与能耗维度的指标;
- 在统一调度策略中增加“成本/碳排”的约束条件。
Kurator 目前主要聚焦在可靠性与可运维性,但我认为在未来迭代中,可以在 Fleet 与调度层面引入 FinOps/GreenOps 相关指标,为企业的降本增效提供更细粒度的控制手段。
七、面向 Kurator 的前瞻创想与具体建议
结合以上趋势与 Kurator 现有能力,这里从“前瞻创想”的角度提出一些更具操作性的想法。希望未来社区或许可以考虑逐步演进。
7.1 打造 AI Native 的 Kurator:从“AI 场景支持”到“AI 驱动平台”
1)AI 驱动调度与容量规划
- 利用历史指标数据 + 业务峰谷规律,训练容量预测模型;
- 在 Fleet 维度预测未来一段时间的资源需求,将调度策略从“被动自适应”升级为“主动规划”;
- 自动生成扩容/缩容计划,并通过 Cluster Operator 执行。
2)AI 辅助运维与 SRE Copilot
-
基于 LLM 构建面向平台运维的“运维助手”:
- 支持自然语言查询多集群拓扑与指标;
- 对告警进行自动归并与根因分析;
- 自动给出“建议操作”(调优参数、扩容策略、流量路由调整等);
-
在 Kurator 控制台中集成 Chat 窗口,做“运维对话式体验”。
3)面向 AI 工作负载的“模型生命周期管理”
- 在 Kurator 中引入“Model” 一等资源概念,与 Deployment / Job 等协同;
- 支持从训练集群到推理 Fleet 的自动化模型分发与 A/B 测试;
- 可视化展示不同模型版本在不同 Region 的表现指标。
7.2 构建开放插件生态:把 Kurator 变成“平台的平台”
为了让 Kurator 社区更可持续,我认为可以考虑:
-
在 Fleet Manager 与 Cluster Operator 层面设计清晰的扩展点(Extension Point),例如:
- 自定义调度策略插件;
- 自定义策略后端(不仅是 Kyverno,还可以是 OPA 等);
- 自定义监控后端(Prometheus/ VictoriaMetrics / 商业监控)。
-
提供类似 OperatorHub 的“Kurator 插件市场”,让社区贡献:
- 域内特定能力(如边缘工业协议适配、5G UPF 管理等);
- 行业化解决方案模板(金融、政务、车联网)。
这样,Kurator 不仅是一个“产品”,更是一个“平台框架”。
7.3 eBPF / WASM 融合:从可观测性到可编程数据平面
1)基于 eBPF 的深度观测与安全防护
- 利用 eBPF 对内核层面网络与系统调用进行高精度观测;
- 汇聚到 Kurator 的统一遥测体系中,形成“应用层 + 内核层”的全链路观测;
- 对可疑行为(异常端口访问、可疑进程行为)触发策略引擎,自动做限流或隔离。
2)WASM 化的网格扩展
- 在 Istio/envoy 侧利用 WASM 扩展点,动态注入自定义业务逻辑(鉴权、路由决策、A/B 判定);
- Kurator 负责在 Fleet 维度统一分发和版本控制这些 WASM Filter;
- 为企业构建“可编程的分布式流量治理平台”。
7.4 面向行业的 Solution Pack:模板化分布式云原生实践
单纯提供通用能力虽然灵活,但对很多行业用户来说门槛仍偏高。
Kurator 完全可以考虑推出行业化的 Solution Pack,例如:
-
运营商与边缘 MEC 场景
- 内置适配 5G Core / MEC 平台的网络拓扑模型与调度策略;
- 提供多 Region + 边缘站点的标准化发布流水线。
-
工业互联网 / 智慧工厂
- 融合 KubeEdge 与工业协议网关;
- 提供“工厂区域 Fleet”模板,封装常用安全策略与监控面板。
-
车路协同与智能座舱
- 支持车端、路侧和云中心的协同部署模型;
- 集成高可靠/低时延场景下的调度与发布策略。
通过这些 Solution Pack,Kurator 可以从“技术栈平台”升级为“行业数字底座”。
7.5 极致 Developer Experience:把复杂度留给平台
对于开发者,使用平台的门槛是 Kurator 能否“出圈”的关键。
我比较期待的方向包括:
-
可视化编排 + YAML 反向生成
- 类似“架构白板”:拖拽定义应用在不同 Fleet 的拓扑、流量与策略;
- Kurator 在后台生成/维护对应的 CRD YAML,保证“所见即所得”。
-
一键 Playground 环境
- 提供在线 Playground,让用户在浏览器中体验多集群/渐进式发布,而无需自建环境;
- 在 Playground 中附带教程和实验脚本,降低入门门槛。
-
CLI + SDK 友好
- 提供完善的 CLI 子命令:如
kurator fleet list、kurator rollout status等; - 为主流语言(Go/Java/Python)提供 SDK,方便接入企业自有 Portal。
- 提供完善的 CLI 子命令:如
7.6 安全与合规:跨地域、跨法规域的策略治理
在分布式云场景中,安全合规往往会跨越国界与法规环境:
- 不同国家/地区对数据跨境流动要求不同;
- 同一集团内不同子公司有不同数据隔离要求。
Kurator 可以:
- 将“合规域(***pliance Zone)”作为 Fleet 的一类元数据;
- 在策略层面表达“数据不得跨合规域”、“日志存储必须在本地”等约束;
- 与策略引擎结合,实现 “平台级别的合规内建(***pliance by Design)”。
八、给分布式云原生社区的一些建议
从 Kurator 这个案例延伸出去,我也想结合个人经历,对整体分布式云原生社区的发展说几点建议式的思考。
8.1 加强标准化与互操作性
- 在多集群 API、跨集群服务发现、策略语义上增加更多标准或事实标准;
- 不同开源项目之间形成更清晰的“责任边界”和兼容约束;
- 让企业在选择具体项目时成本更可控,减少被某一生态“锁死”的风险。
8.2 坚持开放治理与社区共建
对于像 Kurator 这样的项目来说:
- 建议继续保持“开源优先”的路线,重要特性在社区透明讨论;
- 鼓励来自不同企业、不同地区的贡献者参与设计讨论与 Roadmap 制定;
- 推动更多的实践案例开源出来,包括成功和踩坑经验。
只有在开放治理下形成的技术栈,才能真正成为分布式云原生时代的“公共基础设施”。
8.3 加大教育与人才培养投入
分布式云原生的门槛并不在技术本身,而在心智模型:
- 如何从“单集群思维”迁移到“Fleet + 应用”的思维;
- 如何从“运维工具链”进化到“平台工程(Platform Engineering)”;
- 如何在多云场景下真正做到 DevOps/GitOps,一体化交付。
Kurator 这类项目可以考虑:
- 编写成体系的实验教程(例如配套华为云开发者空间的一系列课程);
- 与高校、培训机构合作,把“分布式云原生平台”纳入课程体系;
- 通过 CSDN 等社区开展更多实战征文、Hands-on 活动,降低开发者上手门槛。
8.4 加强国内外生态的联动
分布式云原生本质上是一个全球性议题:
- 国外有 Karmada、Submariner、Cluster API 等多集群项目;
- 国内在分布式云、云边协同、行业云等方面也积累了大量实践。
Kurator 这种“上层一体化平台”其实很适合作为桥梁:
- 一方面跟踪 ***CF 与国际开源社区的进展;
- 一方面沉淀国内在行业场景中的具体经验;
- 最终把这些实践反哺到开源社区中,形成“共同语言”。
九、结语:从“云原生实战派”到“分布式云原生引领者”
回到这次「Kurator·云原生实战派」征文的主题,我认为:
- “实战派”意味着不是停留在概念,而是真正落在多云多集群、云边协同、AI 场景这些具体问题上;
- “前瞻创想”则要求我们在当前能力之上,思考下一步系统性演进的方向。
在我看来,Kurator 已经完成了第一步——
在主流云原生技术栈(Karmada、KubeEdge、Volcano、Istio、Prometheus、Kyverno、GitOps 工具等)之上,构建了一套相对完整的一栈分布式云原生平台。
而下一步,它完全有潜力走向:
- AI Native 的分布式云原生控制平面:用 AI 驱动调度和运维;
- 生态开放型的平台框架:通过插件与 Solution Pack 向更多行业延展;
- 以应用和产品为中心的“分布式应用操作系统”。
对每一个参与 Kurator 的开发者、使用者、社区贡献者来说,现在都是一个非常好的时间点:
- 云原生技术栈已经足够成熟;
- 分布式云的需求越来越强;
- AI 与可观测性的结合正在打开全新可能性。
如果说 Kuber***es 解决的是“如何优雅地管理单集群容器化应用”,
那 Kurator 和它代表的这类平台,将决定我们“如何优雅地管理分布式云原生世界”。
也期待更多同学加入到 Kurator 社区和分布式云原生生态中,一起把这个“前瞻创想”变成落地实践 🚀。