技术

下一个平台Agent 激发LLM涌现——提示工程 LLM微调理论及实践 大佬沉思 LLM外挂知识库 LLMOps 多模态LLM Python一些比较有意思的库 LLM部分技术源码学习 LangChain源码学习 通用分布式计算引擎Ray Python并发 go依赖注入 go collection gc的基本原理 golang性能分析及优化 数据湖 高性能计算与存储 Linux2.1.13网络源代码学习 《大数据经典论文解读》 三驾马车学习 Spark 内存管理及调优 Yarn学习 从Spark部署模式开始讲源码分析 容器狂占内存资源怎么办? 多角度理解一致性 golang io使用及优化模式 Flink学习 c++学习 学习ebpf go设计哲学 ceph学习 学习mesh kvm虚拟化 学习MQ go编译器以及defer实现 学习go 为什么要有堆栈 汇编语言 计算机组成原理 运行时和库 Prometheus client mysql 事务 mysql 事务的隔离级别 mysql 索引 坏味道 学习分布式 学习网络 学习Linux go堆内存分配 golang 系统调用与阻塞处理 Goroutine 调度过程 重新认识cpu mosn有的没的 负载均衡泛谈 单元测试的新解读 《Redis核心技术与实现》笔记 《Prometheus监控实战》笔记 Prometheus 告警学习 calico源码分析 对容器云平台的理解 Prometheus 源码分析 并发的成本 基础设施优化 hashicorp raft源码学习 docker 架构 mosn细节 与微服务框架整合 Java动态代理 编程范式 并发通信模型 《网络是怎样连接的》笔记 go channel codereview gc分析 jvm 线程实现 go打包机制 go interface及反射 如何学习Kubernetes 《编译原理之美》笔记——后端部分 《编译原理之美》笔记——前端部分 Pilot MCP协议分析 go gc 内存管理玩法汇总 软件机制 istio流量管理 Pilot源码分析 golang io 学习Spring mosn源码浅析 MOSN简介 《datacenter as a computer》笔记 学习JVM Tomcat源码分析 Linux可观测性 学习存储 学计算 Gotty源码分析 kubernetes operator kaggle泰坦尼克问题实践 kubernetes扩缩容 神经网络模型优化 直觉上理解深度学习 如何学习机器学习 TIDB源码分析 什么是云原生 Alibaba Java诊断工具Arthas TIDB存储——TIKV 《Apache Kafka源码分析》——简介 netty中的线程池 guava cache 源码分析 Springboot 启动过程分析 Spring 创建Bean的年代变迁 Linux内存管理 自定义CNI IPAM 共识算法 spring redis 源码分析 kafka实践 spring kafka 源码分析 Linux进程调度 让kafka支持优先级队列 Codis源码分析 Redis源码分析 C语言学习 《趣谈Linux操作系统》笔记 docker和k8s安全访问机制 jvm crash分析 Prometheus 学习 Kubernetes监控 容器日志采集 Kubernetes 控制器模型 容器狂占资源怎么办? Kubernetes资源调度——scheduler 时序性数据库介绍及对比 influxdb入门 maven的基本概念 《Apache Kafka源码分析》——server Kubernetes类型系统 源码分析体会 《数据结构与算法之美》——算法新解 Kubernetes源码分析——controller mananger Kubernetes源码分析——apiserver Kubernetes源码分析——kubelet Kubernetes介绍 ansible学习 Kubernetes源码分析——从kubectl开始 jib源码分析之Step实现 jib源码分析之细节 线程排队 跨主机容器通信 jib源码分析及应用 为容器选择一个合适的entrypoint kubernetes yaml配置 《持续交付36讲》笔记 mybatis学习 程序猿应该知道的 无锁数据结构和算法 CNI——容器网络是如何打通的 为什么很多业务程序猿觉得数据结构和算法没用? 串一串一致性协议 当我在说PaaS时,我在说什么 《数据结构与算法之美》——数据结构笔记 PouchContainer技术分享体会 harbor学习 用groovy 来动态化你的代码 精简代码的利器——lombok 学习 《深入剖析kubernetes》笔记 编程语言那些事儿 rxjava3——背压 rxjava2——线程切换 spring cloud 初识 《深入拆解java 虚拟机》笔记 《how tomcat works》笔记 hystrix 学习 rxjava1——概念 Redis 学习 TIDB 学习 如何分发计算 Storm 学习 AQS1——论文学习 Unsafe Spark Stream 学习 linux vfs轮廓 《自己动手写docker》笔记 java8 实践 中本聪比特币白皮书 细读 区块链泛谈 比特币 大杂烩 总纲——如何学习分布式系统 hbase 泛谈 forkjoin 泛谈 看不见摸不着的cdn是啥 《jdk8 in action》笔记 程序猿视角看网络 bgp初识 calico学习 AQS——粗略的代码分析 我们能用反射做什么 web 跨域问题 《clean code》笔记 《Elasticsearch权威指南》笔记 mockito简介及源码分析 2017软件开发小结—— 从做功能到做系统 《Apache Kafka源码分析》——clients dns隐藏的一个坑 《mysql技术内幕》笔记 log4j学习 为什么netty比较难懂? 递归、回溯、动态规划 apollo client源码分析及看待面向对象设计 学习并发 docker运行java项目的常见问题 OpenTSDB 入门 spring事务小结 分布式事务 javascript应用在哪里 《netty in action》读书笔记 netty对http2协议的解析 ssl证书是什么东西 http那些事 苹果APNs推送框架pushy apple 推送那些事儿 编写java框架的几大利器 java内存模型和jvm内存布局 java exception Linux IO学习 netty内存管理 测试环境docker化实践 netty在框架中的使用套路 Nginx简单使用 《Linux内核设计的艺术》小结 Go并发机制及语言层工具 Linux网络源代码学习——数据包的发送与接收 《docker源码分析》小结 docker namespace和cgroup zookeeper三重奏 数据库的一些知识 Spark 泛谈 链式处理的那些套路 netty回顾 Thrift基本原理与实践(二) Thrift基本原理与实践(一) 回调 异步执行抽象——Executor与Future Docker0.1.0源码分析 java gc Jedis源码分析 深度学习泛谈 Linux网络命令操作 JTA与TCC 换个角度看待设计模式 Scala初识 向Hadoop学习NIO的使用 以新的角度看数据结构 并发控制相关的硬件与内核支持 systemd 简介 quartz 源码分析 基于docker搭建测试环境(二) spring aop 实现原理简述 自己动手写spring(八) 支持AOP 自己动手写spring(七) 类结构设计调整 分析log日志 自己动手写spring(六) 支持FactoryBean 自己动手写spring(九) 总结 自己动手写spring(五) bean的生命周期管理 自己动手写spring(四) 整合xml与注解方式 自己动手写spring(三) 支持注解方式 自己动手写spring(二) 创建一个bean工厂 自己动手写spring(一) 使用digester varnish 简单使用 关于docker image的那点事儿 基于docker搭建测试环境 分布式配置系统 JVM执行 git maven/ant/gradle/make使用 再看tcp kv系统 java nio的多线程扩展 《Concurrency Models》笔记 回头看Spring IOC IntelliJ IDEA使用 Java泛型 vagrant 使用 Go常用的一些库 Python初学 Goroutine 调度模型 虚拟网络 《程序员的自我修养》小结 Kubernetes存储 访问Kubernetes上的Service Kubernetes副本管理 Kubernetes pod 组件 Go基础 JVM类加载 硬币和扑克牌问题 LRU实现 virtualbox 使用 ThreadLocal小结 docker快速入门

架构

大模型推理服务框架 模型服务化(未完成) 大模型RHLF 大模型训练 大模型推理 从Attention到Transformer k8s设备管理 LLM工具栈 ddd从理念到代码 如何应用LLM 小鼠如何驾驭大象(LLM)? 多类型负载协调员Koordinator controller-runtime细节分析 finops学习 kubevela多集群 kubevela中cue的应用 基于k8s的工作流 容器和CPU那些事儿 kubevela源码分析 数据集管理fluid 应用管理平台kubevela karmada支持crd 多集群管理 AutoML和AutoDL 特征平台 实时训练 分布式链路追踪 helm tensorflow原理——python层分析 如何学习tensorflow 数据并行——allreduce 数据并行——ps 机器学习中的python调用c 机器学习训练框架概述 embedding的原理及实践 tensornet源码分析 大模型训练和推理 X的生成——特征工程 tvm tensorflow原理——core层分析 模型演变 《深度学习推荐系统实战》笔记 keras 和 Estimator tensorflow分布式训练 分布式训练的一些问题 基于Volcano的弹性训练 图神经网络 pytorch弹性分布式训练 从混部到统一调度 从RNN到Attention pytorch分布式训练 CNN 《动手学深度学习》笔记 pytorch与线性回归 多活 volcano特性源码分析 推理服务 kubebuilder 学习 mpi 学习pytorch client-go学习 tensorflow学习 提高gpu 利用率 GPU与容器的结合 GPU入门 AI云平台梳理 tf-operator源码分析 k8s批处理调度/Job调度 喜马拉雅容器化实践 Kubernetes 实践 学习rpc BFF openkruise学习 可观察性和监控系统 基于Kubernetes选主及应用 《许式伟的架构课》笔记 Admission Controller 与 Admission Webhook 发布平台系统设计 k8s水平扩缩容 Scheduler如何给Node打分 Scheduler扩展 深入controller openkruise cloneset学习 controller-runtime源码分析 pv与pvc实现 csi学习 client-go informer源码分析 kubelet 组件分析 调度实践 Pod是如何被创建出来的? 《软件设计之美》笔记 mecha 架构学习 Kubernetes events学习及应用 CRI 资源调度泛谈 业务系统设计原则 grpc学习 元编程 以应用为中心 istio学习 下一代微服务Service Mesh 《实现领域驱动设计》笔记 概率论 serverless 泛谈 《架构整洁之道》笔记 处理复杂性 那些年追过的并发 服务器端编程 网络通信协议 架构大杂烩 如何学习架构 《反应式设计模式》笔记 项目的演化特点 反应式架构摸索 函数式编程的设计模式 服务化 ddd反模式——CRUD的败笔 研发效能平台 重新看面向对象设计 业务系统设计的一些体会 函数式编程 《左耳听风》笔记 业务程序猿眼中的微服务管理 DDD实践——CQRS 项目隔离——案例研究 《编程的本质》笔记 系统故障排查汇总及教训 平台支持类系统的几个点 代码腾挪的艺术 abtest 系统设计汇总 《从0开始学架构》笔记 初级权限系统设计 领域驱动理念 现有上传协议分析 移动网络下的文件上传要注意的几个问题 推送系统的几个基本问题 做配置中心要想好的几个基本问题 不同层面的异步 分层那些事儿 性能问题分析 用户认证问题 资源的分配与回收——池 消息/任务队列

标签

k8s设备管理 多类型负载协调员Koordinator controller-runtime细节分析 finops学习 kubevela多集群 kubevela中cue的应用 基于k8s的工作流 容器和CPU那些事儿 kubevela源码分析 数据集管理fluid 应用管理平台kubevela karmada支持crd 多集群管理 helm 从混部到统一调度 volcano特性源码分析 kubebuilder 学习 client-go学习 tf-operator源码分析 k8s批处理调度/Job调度 喜马拉雅容器化实践 Kubernetes 实践 openkruise学习 基于Kubernetes选主及应用 Admission Controller 与 Admission Webhook k8s水平扩缩容 Scheduler如何给Node打分 Scheduler扩展 深入controller openkruise cloneset学习 controller-runtime源码分析 pv与pvc实现 csi学习 client-go informer源码分析 kubelet 组件分析 调度实践 Pod是如何被创建出来的? Kubernetes events学习及应用 CRI 资源调度泛谈 如何学习Kubernetes 以应用为中心 kubernetes operator kubernetes扩缩容 serverless 泛谈 什么是云原生 自定义CNI IPAM docker和k8s安全访问机制 Kubernetes监控 Kubernetes 控制器模型 Kubernetes资源调度——scheduler Kubernetes类型系统 Kubernetes源码分析——controller mananger Kubernetes源码分析——apiserver Kubernetes源码分析——kubelet Kubernetes介绍 Kubernetes源码分析——从kubectl开始 kubernetes yaml配置 CNI——容器网络是如何打通的 当我在说PaaS时,我在说什么 《深入剖析kubernetes》笔记 Kubernetes存储 访问Kubernetes上的Service Kubernetes副本管理 Kubernetes pod 组件

controller-runtime源码分析

2020年08月10日

简介

当我们谈到 k8s 的控制器模型时,其伪代码如下

for {
    actualState := GetResourceActualState(rsvc)
    expectState := GetResourceExpectState(rsvc) // 来自yaml 文件
    if actualState == expectState {
        // do nothing
    } else {
        Reconcile(rsvc) // 编排逻辑,调谐的最终结果一般是对被控制对象的某种写操作,比如增/删/改 Pod
    }
}

Control Loop通过code-generator生成,开发者编写差异处理逻辑Reconcile即可。controller-runtime 代码结构

/sigs.k8s.io/controller-runtime/pkg
    /manager
        /manager.go     // 定义了 Manager interface
        /internal.go    // 定义了Manager 实现类 controllerManager ,因为可能有多个controller
    /controller
        /controller.go  // 定义了 Controller interface
    /reconcile
        /reconcile.go   // 定义了 Reconciler interface
    /handler            // 事件处理器/入队器,负责将informer 的cud event 转换为reconcile.Request加入到queue中

controller-runtime 的核心是Manager 驱动 Controller 进而驱动 Reconciler。kubebuiler 用Manager.start 作为驱动入口, Reconciler 作为自定义入口(变的部分),Controller 是不变的部分。

用法

使用client-go

单纯使用 client-go informer 机制 监听 某个object的写法。

kubeClient = kubernetes.NewForConfigOrDie(opt.Config)
// 基于GVK 操作资源,假设需要操作数十种不同资源时,我们需要为每一种资源实现各自的函数
podInformer = informers.NewSharedInformerFactory(pod.kubeClient, 0).Core().V1().Pods()
podLister = pod.podInformer.Lister()
podSynced = pod.podInformer.Informer().HasSynced
podInformer.Informer().AddEventHandler(cache.ResourceEventHandlerFuncs{
	AddFunc:    AddPod,
	DeleteFunc: DeletePod,
	UpdateFunc: UpdatePod,
})

// 启动informer
podInformer.Informer().Run(stopCh)
cache.WaitForCacheSync(stopCh, podSynced)
// 此处没有使用workqueue,但一般都是会用workqueue 增强处理逻辑的

单纯基于 client-go informer 可以监听 object 变化并做出处理,但仍然有很多问题,还需进一步的封装,于是引出了controller-runtime。

  1. 多个object 的informer 与 多个worklaod 的reconcile 可能具有多对多关系
    1. 一个workload 可能需要针对多个 object 的event 进行reconcile
    2. 多个workload,每一个workload 都持有 podInformer 会有重复的问题,为解决这个问题,需要一个独立的对象(比如叫cache)持有所有用到的informer(一个object 一个informer),向informer 注册eventhandler 也应改为向 cache 注册eventhandler
  2. reconcile 时失败、延迟重试等功能

使用controller-runtime

每段旅程需要一个起点,每个程序需要一个入口函数,一个operator 程序本质是如下的样子

func main(){
	// 初始化 Manager,同时生成一个默认配置的 Cache
 	mgr, err = ctrl.NewManager(ctrl.GetConfigOrDie(), ctrl.Options{ 
        Scheme:             scheme,
        Namespace:          namespace,
    })
	if err := mgr.Start(ctrl.SetupSignalHandler()); err != nil {
        setupLog.Error(err, "problem running manager")
        os.Exit(1)
    }
}

接下来就是 用 Reconciler 实现业务逻辑,并将其挂在 manager 上。Reconciler 接受一个对象的名称,并返回我们是否需要再次尝试。

type ApplicationReconciler struct {
	client.Client
	Scheme *runtime.Scheme
    Log    logr.Logger
}
func (r *ApplicationReconciler) Reconcile(req ctrl.Request) (ctrl.Result, error) {
	// get application
	application := &xx.Application{}
	if err := r.client.Get(ctx, req.NamespacedName, application); err != nil {...}

    // your logic here

    return ctrl.Result{}, nil
}
// 将 Reconcile 添加到 manager 中,这样当 manager 启动时它就会被启动。
func (r *ApplicationReconciler) SetupWithManager(mgr ctrl.Manager) error {
    return ctrl.NewControllerManagedBy(mgr).
        For(&xx.Application{}).
        Complete(r)
}

ApplicationReconciler 持有Client,便有能力对 相关资源进行 crud

  1. 从request 中资源name ,进而通过client 获取资源obj
  2. 处理完毕后,通过Result 告知是Requeue 下次重新处理,还是处理成功开始下一个

如果我们要给 Reconciler 传一些参数的话 可以改造下 SetupWithManager

func SetupWithManager(mgr ctrl.Manager, cfg *Config, 其它参数) error {
	r := &applicationReconciler{
		client:        mgr.GetClient(),
		cfg:           cfg,
		log:           ctrl.LoggerFrom(context.Background()).WithName(name),
		recorder:      mgr.GetEventRecorderFor(name),
	}
	return ctrl.NewControllerManagedBy(mgr).
        For(&xx.Application{}).
        Complete(r)
}

将 crd 的scheme 注入到 manager 的scheme,将 Reconcile 添加到 manager 中

func main() {
  	scheme := runtime.NewScheme()
  	_ = corev1.AddToScheme(scheme)
	// 1. init Manager
  	mgr, _ := ctrl.NewManager(ctrl.GetConfigOrDie(), ctrl.Options{
    	Scheme: scheme,
    	Port:   9443,
  	})
  	// 2. init Reconciler
  	application.SetupWithManager(mgr)
  	// 3. start Manager
  	if err := mgr.Start(ctrl.SetupSignalHandler()); err != nil {
  	}
}

整体设计

Manager 管理多个Controller 的运行,并提供 数据读(cache)写(client)等crudw基础能力,或者说 Manager 负责初始化cache、clients 等公共依赖,并提供个runnbale 使用。

  1. Cache, 负责在 Controller 进程里面根据 Scheme 同步 Api Server 中所有该 Controller 关心 的资源对象,其核心是 相关Resource的 Informer,Informer 会负责监听对应 Resource的创建/删除/更新操作,以触发 Controller 的 Reconcile 逻辑。
  2. Clients, Reconciler不可避免地需要对某些资源类型进行crud,就是通过该 Clients 实现的,其中查询功能实际查询是本地的 Cache,写操作直接访问 Api Server。

Cache 顾名思义就是缓存,用于建立 Informer 对 ApiServer 进行连接 watch 资源,并将 watch 到的 object 推入队列;Controller 一方面会向 Informer 注册 eventHandler,另一方面会从队列中拿数据并执行用户侧 Reconciler 的函数。A Controller manages a work queue fed reconcile.Requests from source.Sources. Work is performed through the reconcile.Reconciler for each enqueued item. Work typically is reads and writes Kubernetes objects to make the system state match the state specified in the object Spec.

当我们观察Manager/Contronller/Reconciler Interface 的时候,接口定义是非常清晰的,但是为了实现接口定义的 能力(方法)要聚合很多struct,初始化时要为它们赋值,这个部分代码实现的比较复杂,可能是go 缺少类似ioc 工具带来的问题。

启动流程

kubebuilder 生成的 controller-runtime 代码相对晦涩一些,很多时候crd 已经在其它项目中定义完成,我们需要监听一个或多个crd 完成一些工作,这种场景下对crd 的处理逻辑可以参考 kubeflow/tf-operator 等项目。

启动逻辑比较简单:创建数据结构,并建立数据结构之间的关系。

  1. 初始化Manager;初始化流程主要是创建cache 与 Clients。
    1. 创建 Cache,可以看到 Cache 主要就是创建了 InformersMap,Scheme 里面的每个 GVK 都创建了对应的 Informer,通过 informersByGVK 这个 map 做 GVK 到 Informer 的映射,每个 Informer 会根据 ListWatch 函数对对应的 GVK 进行 List 和 Watch。PS: 肯定不能一个Controller 一个informer,但controller 之间会共用informer,所以informer 要找一个地方集中持有。
    2. 创建 Clients,读操作使用上面创建的 Cache,写操作使用 K8s go-client 直连。
  2. 将 Manager 的 Client 传给 Controller,并且调用 SetupWithManager 方法传入 Manager 进行 Controller 的初始化;
  3. 启动 Manager。即 Manager.Start(stopCh)

因为Controller 的逻辑相对固定, 所以main 入口只有Reconciler 和Manager,Controller 被隐藏了。

func main() {
	...
	// manager -> controller -> reconciler 的对象层级结构
	// 主体分为两部分,一是配置manager,二是启动manager
    // 1. init Manager 
	mgr, err := ctrl.NewManager(ctrl.GetConfigOrDie(), ctrl.Options{
		Scheme:             scheme,		// 要将你监听的crd 加入到scheme 中
		Port:               9443,})
    // 2. init Reconciler(Controller)
	c := &controllers.ApplicationReconciler{
		Client: mgr.GetClient(),
		Scheme: mgr.GetScheme(),
	}
	if err = c.SetupWithManager(mgr); err != nil {...}
    // 3. start Manager
	if err := mgr.Start(ctrl.SetupSignalHandler()); err != nil {...}
}

ApplicationReconciler 是我们定义的Application object 对应的Reconciler 实现。ApplicationReconciler.SetupWithManager 有点绕

  1. 创建Reconciler,将Reconciler 加入到controller
  2. 创建controller,将controller 加入到manager
  3. 创建时 会执行Controller.watch 配置controller 监听哪些gvk 或者说将哪些gvk 加入到cache
// kubebuilder 生成
func (r *ApplicationReconciler) SetupWithManager(mgr ctrl.Manager) error {
	c, err := controller.New(r.ControllerName(), mgr, controller.Options{
		Reconciler: r,
	})
	// 为Controller指定cr
	c.Watch(&source.Kind{Type: &appsv1alpha1.Application{}}, &handler.EnqueueRequestForObject{},
		predicate.Funcs{CreateFunc: r.onOwnerCreateFunc()},
	)
	return nil
}
func New(name string, mgr manager.Manager, options Options) (Controller, error) {
	...
	// Inject dependencies into Reconciler
	if err := mgr.SetFields(options.Reconciler); err != nil {...}
	c := &controller.Controller{    // Create controller with dependencies set
		Do:       options.Reconciler,
		Cache:    mgr.GetCache(),
		Config:   mgr.GetConfig(),
		Scheme:   mgr.GetScheme(),
		Client:   mgr.GetClient(),
        Name:     name,
	}
	return c, mgr.Add(c)    // Add the controller as a Manager components
}

Manager 启动

controller-runtime 之 manager 实现 Manager interface 充分体现了它的作用:添加Controller 并Start 它们。

manager中可以设置多个controller,但是一个controller中只有一个Reconciler。

// Manager 初始化共享的依赖关系,比如 Caches 和 Client,并将他们提供给 Runnables
type Manager interface {
 	// Add 将在组件上设置所需的依赖关系,并在调用 Start 时启动组件
  	// Add 将注入接口的依赖关系 - 比如 注入 inject.Client
  	// 根据 Runnable 是否实现了 LeaderElectionRunnable 接口判断Runnable 可以在非 LeaderElection 模式(始终运行)或 LeaderElection 模式(如果启用了 LeaderElection,则由 LeaderElection 管理)下运行
  	Add(Runnable) error
 	// SetFields 设置对象上的所有依赖关系,而该对象已经实现了 inject 接口
  	// 比如 inject.Client
 	SetFields(interface{}) error
 	// Start 启动所有已注册的控制器,并一直运行,直到停止通道关闭
  	// 如果使用了 LeaderElection,则必须在此返回后立即退出二进制,否则需要 Leader 选举的组件可能会在 Leader 锁丢失后继续运行
 	Start(<-chan struct{}) error
 	...
}

Manager 可以管理 Runnable的生命周期(添加/启动),Controller 只是 Runnable 的一个特例

  1. 持有Runnable共同的依赖:client、cache、scheme 等。
  2. 提供了object getter(例如GetClient()),还有一个简单的依赖注入机制(runtime/inject),
  3. 支持领导人选举,提供了一个用于优雅关闭的信号处理程序。PS:所以哪怕 不是处理crd,普通的一个 服务端程序如果需要选主,也可以使用Manager
func (cm *controllerManager) Start(stop <-chan struct{}) error {
    // 启动metric 组件供Prometheus 拉取数据
    go cm.serveMetrics(cm.internalStop)
    // 启动健康检查探针
	go cm.serveHealthProbes(cm.internalStop)
	go cm.startNonLeaderElectionRunnables()
	if cm.resourceLock != nil {
		if err := cm.startLeaderElection(); err != nil{...}
	} else {
		go cm.startLeaderElectionRunnables()
	}
    ...
}
type controllerManager struct {
    ...
	// leaderElectionRunnables is the set of Controllers that the controllerManager injects deps into and Starts.
	// These Runnables are managed by lead election.
	leaderElectionRunnables []Runnable
}
// 启动cache/informer 及 Controller
func (cm *controllerManager) startLeaderElectionRunnables() {
    // 核心是启动Informer, waitForCache ==> cm.startCache = cm.cache.Start ==> InformersMap.Start ==> 
    // InformersMap.structured/unstructured.Start ==> Informer.Run
	cm.waitForCache()
	for _, c := range cm.leaderElectionRunnables {
		ctrl := c
		go func() {
            // 启动Controller
			if err := ctrl.Start(cm.internalStop); err != nil {...}
		}()
	}
}

Controller

Controller 管理一个工作队列,并从 source.Sources 中获取 reconcile.Requests 加入队列, 通过执行 reconcile.Reconciler 来处理队列中的每项 reconcile.Requests。Controller 逻辑主要有两个,对应两个函数是 Watch 与 Start

  1. 监听 object 事件并加入到 queue 中。
    1. Controller 会先向 Informer 注册特定资源的 eventHandler;然后 Cache 会启动 Informer,Informer 向 ApiServer 发出请求,建立连接;当 Informer 检测到有资源变动后,使用 Controller 注册进来的 eventHandler 判断是否推入队列中;
    2. 为提高扩展性 Controller 将这个职责独立出来交给了 Source 组件,不只是监听apiserver,任何外界资源变动 都可以通过 Source 接口加入 到Reconcile 逻辑中。
  2. 从queue 中取出object event 执行Reconcile 逻辑。 PS:一个controller 持有了一个queue,一手包办了queue的生产和消费

controller-runtime 之控制器实现

type Controller interface {
	// Reconciler is called to reconcile an object by Namespace/Name
	reconcile.Reconciler
	// Watch takes events provided by a Source and uses the EventHandler to enqueue reconcile.Requests in response to the events.
	Watch(src source.Source, eventhandler handler.EventHandler, predicates ...predicate.Predicate) error
	// Start starts the controller.  Start blocks until the context is closed or a controller has an error starting.
	Start(ctx context.Context) error
	...
}
// sigs.k8s.io/controller-runtime/pkg/controller/controller.go
type Controller struct {
	Name string // Name is used to uniquely identify a Controller in tracing, logging and monitoring. Name is required.
	Do reconcile.Reconciler
	Client client.Client // Client is a lazily initialized Client.  
	Scheme *runtime.Scheme
	Cache cache.Cache
	Config *rest.Config // Config is the rest.Config used to talk to the apiserver.  
	// Queue is an listeningQueue that listens for events from Informers and adds object keys to the Queue for processing
	Queue workqueue.RateLimitingInterface
    ...
}
func New(name string, mgr manager.Manager, options Options) (Controller, error) {
	c, err := NewUnmanaged(name, mgr, options)
	// Add the controller as a Manager components
	return c, mgr.Add(c)
}

一个controller主要包含Watch和Start两个方法,以及一个调协方法Reconcile。在controller的定义中,看上去没有资源对象的Informer或者Indexer数据,而在K8s中所有与kube-apiserver资源的交互是通过Informer实现的,实际上这里是通过下面的 startWatches 属性做了一层封装。

type Controller struct {
	// startWatches maintains a list of sources, handlers, and predicates to start when the controller is started.
   	startWatches []watchDescription
}

watch event 并将其放入队列中

Watch方法首先会判断当前的controller是否已启动,如果未启动,会将watch的内容暂存到startWatches中等待controller启动。如果已启动,则会直接调用src.Start(c.ctx, evthdler, c.Queue, prct...), 其中Source可以为informer、kind、channel等。src.Start方法作用是获取对应的informer,为informer注册了一个internal.EventHandler。internal.EventHandler实现了OnAdd、OnUpdate、OnDelete等方法,以OnAdd方法为例,该方法最后会调用EventHandler.Create 方法。EventHandler为一个接口,有EnqueueRequestForObject、Funcs、EnqueueRequestForOwner、enqueueRequestsFromMapFunc四个实现类。Reconcile协调执行的数据对象,实际是通过Informer中的EventHandler入队的。

以 tf-job的 TFJobReconciler 为例

// 这里明确了 Controller 监听哪些Type, 或者说哪些 event 会触发Controller
func (r *TFJobReconciler) SetupWithManager(mgr ctrl.Manager) error {
	c, err := controller.New(r.ControllerName(), mgr, controller.Options{Reconciler: r,})
	// using onOwnerCreateFunc is easier to set defaults
	c.Watch(&source.Kind{Type: &tfv1.TFJob{}}, &handler.EnqueueRequestForObject{},predicate.Funcs{...}) 
	// inject watching for job related pod
	c.Watch(&source.Kind{Type: &corev1.Pod{}}, &handler.EnqueueRequestForOwner{...}, predicate.Funcs{...)
	// inject watching for job related service
	...
	return nil
}
// watch 就是启动 source.start
func (c *Controller) Watch(src source.Source, evthdler handler.EventHandler, prct ...predicate.Predicate) error {
	// Inject Cache into arguments
	c.SetFields(src)
	c.SetFields(evthdler)
	for _, pr := range prct {
		c.SetFields(pr)
	}
	c.Log.Info("Starting EventSource", "source", src)
	return src.Start(c.ctx, evthdler, c.Queue, prct...)
}

Source 抽象了事件源,event 由 具体实现提供,将其加入到 workqueue。

  1. Kind 来处理来自集群的事件(如 Pod 创建、Pod 更新、Deployment 更新);
  2. Channel 来处理来自集群外部的事件(如 GitHub Webhook 回调、轮询外部 URL)。
    // pkg/source/source.go
    type Source interface {  
       // Start() 是 Controller-runtime 的内部⽅法,应该仅由 Controller 调⽤
       Start(context.Context, handler.EventHandler, workqueue.RateLimitingInterface, ...predicate.Predicate) error  
    }
    // Kind 用于提供来自集群内部的事件源,这些事件来自于 Watches(例如 Pod Create 事件)
    type Kind struct {
     	// Type 是 watch 对象的类型,比如 &v1.Pod{}
     	Type runtime.Object
     	// cache 用于 watch 的 APIs 接口
     	cache cache.Cache
    }
    func (ks *Kind) Start(handler handler.EventHandler, queue workqueue.RateLimitingInterface,prct ...predicate.Predicate) error {
     	// 从 Cache 中获取 Informer 并添加一个事件处理程序来添加队列
     	i, err := ks.cache.GetInformer(context.TODO(), ks.Type)
    i.AddEventHandler(internal.EventHandler{Queue: queue, EventHandler: handler, Predicates: prct})
     	return nil
    }
    

watch 在 controller 初始化时调用,明确了 Controller 监听哪些Type,订阅这些Type的变化(入队逻辑挂到informer 上)。Controller.Watch ==> Source.Start 也就是 Kind.Start 就是从cache 中获取资源对象的 Informer 并注册事件监听函数。 对 事件监听函数进行了封装,放入到工作队列中的元素不是以前默认的元素唯一的 KEY,而是经过封装的 reconcile.Request 对象,当然通过这个对象也可以很方便获取对象的唯一标识 KEY。

start 触发队列消费

start 由manager.Start 触发,消费workqueue,和 一般控制器中启动控制循环比较类似。Start方法有两个主要功能,一是调用所有startWatches中Source的start方法,注册EventHandler。二是启动Work来处理资源对象,processNextWorkItem从Queue中获取资源对象,reconcileHandler 函数就是我们真正执行元素业务处理的地方,函数中包含了事件处理以及错误处理,真正的事件处理是通过c.Do.Reconcile(req) 暴露给开发者的,所以对于开发者来说,只需要在 Reconcile 函数中去处理业务逻辑就可以了。

// sigs.k8s.io/controller-runtime/pkg/internal/controller/controller.go
func (c *Controller) Start(stop <-chan struct{}) error {
	err := func() error {
        ...
		// Launch workers to process resources
		for i := 0; i < c.MaxConcurrentReconciles; i++ {
			// Process work items
			go wait.Until(c.worker, c.JitterPeriod, stop)
		}
		return nil
	}()
	return nil
}
func (c *Controller) worker() {
	for c.processNextWorkItem() {
	}
}
// 从队列中取出 变更的对象(也就是需要处理的对象),包括队列操作相关的线速、重试等,并触发Reconcile 逻辑
func (c *Controller) processNextWorkItem() bool {
	obj, shutdown := c.Queue.Get()
	if shutdown {
		return false// Stop working
	}
	defer c.Queue.Done(obj)
	return c.reconcileHandler(obj)
}
func (c *Controller) reconcileHandler(obj interface{}) bool {
	if req, ok = obj.(reconcile.Request); !ok {...}
	// RunInformersAndControllers the syncHandler, passing it the namespace/Name string of the resource to be synced.
	if result, err := c.Do.Reconcile(req); err != nil {
		c.Queue.AddRateLimited(req)
		return false
	} else if result.RequeueAfter > 0 {
		c.Queue.Forget(obj)
		c.Queue.AddAfter(req, result.RequeueAfter)
		return true
	} else if result.Requeue {
		c.Queue.AddRateLimited(req)
		return true
	}
	c.Queue.Forget(obj)
	return true
}

其它

依赖注入

类比spring ioc,“受体” 想要自己的某个field 被赋值,应该支持 setXX 方法。controller-runtimey类似,“受体”想要cache 成员被赋值,即需要实现 InjectCache 方法(也就实现了 Cache interface)。

// controller-runtime/pkg/runtime/inject/inject.go
type Cache interface {	// 很像spring 中的XXAware
	InjectCache(cache cache.Cache) error
}
func CacheInto(c cache.Cache, i interface{}) (bool, error) {
	if s, ok := i.(Cache); ok {
		return true, s.InjectCache(c)
	}
	return false, nil
}
type Config interface {
	InjectConfig(*rest.Config) error
}
type Client interface {
	InjectClient(client.Client) error
}
type Scheme interface {
	InjectScheme(scheme *runtime.Scheme) error
}
...

controllerManager 持有了Config/Client/APIReader/Scheme/Cache/Injector/StopChannel/Mapper 实例,将这些数据通过 SetFields 注入到Controller 中。Controller 再转手 将部分实例注入到 Source 中(Source 需要监听apiserver)

func (c *Controller) Watch(src source.Source, evthdler handler.EventHandler, prct ...predicate.Predicate) error {
	// Inject Cache into arguments   
	if err := c.SetFields(src); err != nil {...}
	if err := c.SetFields(evthdler); err != nil {...}
	for _, pr := range prct {
		if err := c.SetFields(pr); err != nil {...}
    }
    ...
}
func (cm *controllerManager) SetFields(i interface{}) error {
	if _, err := inject.ConfigInto(cm.config, i); err != nil {return err}
	if _, err := inject.ClientInto(cm.client, i); err != nil {return err}
	if _, err := inject.APIReaderInto(cm.apiReader, i); err != nil {return err}
	if _, err := inject.SchemeInto(cm.scheme, i); err != nil {return err}
	if _, err := inject.CacheInto(cm.cache, i); err != nil {return err}
	if _, err := inject.InjectorInto(cm.SetFields, i); err != nil {return err}
	if _, err := inject.StopChannelInto(cm.internalStop, i); err != nil {return err}
	if _, err := inject.MapperInto(cm.mapper, i); err != nil {return err}
	return nil
}
// ReplicaSetReconciler 实现了 Client 接口
type ReplicaSetReconciler struct {
	client.Client
}
func (a *ReplicaSetReconciler) InjectClient(c client.Client) error {
	a.Client = c
	return nil
}

入队器

一般一个crd 对应一个 reconciler。以Application crd为例,可能需要根据pod 变化采取动作,因此Application Controller 需要监听 Application及关联的pod的变更。

Watch函数支持三种资源监听类型,通过定义 eventhandler 实现:

  1. EnqueueRequestForObject:资源变动时将资源key加入workqueue,例如直接监听Pod变动
  2. EnqueueRequestForOwner:资源变动时将资源owner的key加入workqueue,例如在Pod变动时,若Pod的Owner为ReplicaSet,则通知ReplicaSet发生了资源变动
  3. EnqueueRequestsFromMapFunc:定义一个关联函数,资源变动时生成一组reconcile.Request,例如在集群扩容时添加了Node,通知一组对象发生了资源变动

此外还可以自定义 predicates,用于过滤资源,例如只监听指定命名空间、包含指定注解或标签的资源。

// 从B 中获取A得名字
aFn := handler.MapFunc(
	func(object client.Object) []reconcile.Request {
		b := object.(*v1alpha1.B)
		requests := append(requests, reconcile.Request{
				NamespacedName: types.NamespacedName{
					Namespace: object.GetNamespace(),
					Name:      b.Annotations["aName"],
				},
			})
		return requests
	})
_, err := ctrl.NewControllerManagedBy(mgr).
	WithOptions(controller.Options{
		CacheSyncTimeout:        controllerCtx.Config.ControllerConfig.SyncTimeout.Duration,
		MaxConcurrentReconciles: controllerCtx.Config.ControllerConfig.Concurrency,
	}).
	For(&v1alpha1.A{}).
	// 当B 变更时,也触发A
	Watches(&source.Kind{Type: &v1alpha1.B{}}, handler.EnqueueRequestsFromMapFunc(aFn)).
	Build(r)