icon

Sealos,在云桌面中运行分布式应用程序,像使用个人电脑一样使用云

icon

去看看👀

icon

扫码加入微信群,和云原生大佬们一起探讨云原生和不可描述的事情!

wechat qr code
 
今日天气
 
舔狗日记

 修复 Service Endpoint 更新的延迟
  1. 博客/

修复 Service Endpoint 更新的延迟

·1206 字·3 分钟· · ·
云原生 Kubernetes
米开朗基杨
作者
米开朗基杨
云原生搬砖师 & Sealos 开发者布道师 & FastGPT 熟练工
Table of Contents
gptgod
FastGPT
Laf
Contact me

几个月前,我在更新 Kubernetes 集群中的 Deployment 时发现了一个很奇怪的连接超时现象,在更新 Deployment 之后的 30 秒到两分钟左右,所有与以该 Deployment 作为服务后端的 Service 的连接都会超时或失败。同时我还注意到其他应用在这段时间内也会出现莫名其妙的延迟现象。

一开始我怀疑是应用没有优雅删除导致的,但当我在更新 Deployment 的过程中(删除旧的 Pod,启动新的 Pod)通过 curl 来测试该应用的健康检查(liveness)和就绪检查(readiness)Endpoints 时,很快就排除了这个可能性。

我开始怀疑人生,开始怀疑我的职业选择,几个小时之后我忽然想起来 Service 并不是直接与 Deployment 关联的,而是按照标签对一组提供相同功能的 Pods 的抽象,并为它们提供一个统一的入口。更重要的是,Service 是由一组 Endpoint 组成的,只要 Service 中的一组 Pod 发生变更,Endpoint 就会被更新。

想到这里,就可以继续排查问题了。下面在更新 Deployment 的过程中通过 watch 命令来观察有问题的 Service 的 Endpoint。

$ watch kubectl describe endpoints [endpoint name]

然后我就发现了罪魁祸首,在旧 Pod 被移除的 30 秒到几分钟左右的时间段内,这些被删除的 Pod 的 IP:Port 仍然出现在 Endpoint 的就绪列表中,同时新启动的 Pod 的 IP:Port 也没有被添加到 Endpoint 中。终于发现了连接失败的根源,但是为什么会出现这种状况呢?仍然无解。

又经历了几天折腾之后,我又有了新点子,那就是调试负责更新 Endpoint 的组件:kube-controller-manager,最后终于在 kube-controller-manager 的日志输出中发现了如下可疑的信息:

I0412 22:59:59.914517       1 request.go:638] Throttling request took 2.489742918s, request: GET:https://10.3.0.1:443/api/v1/namespaces/[some namespace]/endpoints/[some endpoints]"

但还是感觉哪里不对劲,明明延迟了几分钟,为什么这里显示的只有两秒?

在阅读了 kube-controller-manager 的源码后,我发现了问题所在。Kube-controller-manager 的主要职责是通过内部的众多 Controller 将集群的当前状态调整到期望状态,其中 Endpoint Controller 用于监控 Pod 的生命周期事件并根据这些事件更新 Endpoint。

Endpoint Controller 内部运行了一组 workers 来处理这些事件并更新 Endpoint,如果有足够多的对 Endpoint 发起的请求被阻塞,那么所有的 workers 都会忙于等待被阻塞的请求,这时候新事件只能被添加到队列中排队等待,如果该队列很长,就会花很长时间来更新 Endpoint。

为了解决这个问题,首先我通过调整 kube-controller-manager 的 参数 --concurrent-endpoints-syncs 来增加 Endpoint Controller 的 workers,但收效甚微。

再次仔细阅读源码后,我找到了两个可以可以扭转战局的参数:--kube-api-qps--kube-api-burst。kube-controller-manager 可以通过这两个参数来限制任何 Controller(包括 Endpoint Controller)对 kube-apiserver 发起的请求的速率。

这两个参数的默认值是 20,但当集群中的主机数量非常多时,默认值显然不满足集群运行的工作负载。经过不断调试之后,我将参数 --kube-api-qps 的值设置为 300,将 --kube-api-burst 的值设置为 325,上面的日志信息便消失了,同时添加或移除 Pod 时 Endpoint 也能够立即更新。

–kube-api-qps–kube-api-burst 参数的值越大,kube-apiserver 和 etcd 的负载就越高。在我的集群中,通过适当地增加一些负载来解决这个问题是很值得的。

原文链接
#


-------他日江湖相逢 再当杯酒言欢-------

相关文章

Descheduler 使用指南
·1438 字·3 分钟·
云原生 Kubernetes
Kubernetes 的奇技淫巧
·1725 字·4 分钟·
云原生 Kubernetes
CRI-O 简介
·1523 字·4 分钟·
云原生 Kubernetes Docker
Kubernetes 中的容器运行时
·979 字·2 分钟·
云原生 Kubernetes Docker
Kubernetes 使用集群联邦实现多集群管理
·4309 字·9 分钟·
云原生 Kubernetes
Kubernetes 网络扩展
·3527 字·8 分钟·
云原生 Kubernetes Docker

公众号二维码