節點崩壞時如何快速處理 Pod
前言
Kubernetes 除了基本的 Pod 類型外也提供諸多更高階的運算類型,如 Deployment, DaemonSet, StatefulSet 等,而這些高階管理器能夠讓你的 Pod 以多副本的方式來提供服務,基於多副本的架構下更容易去達到高可用性的架構。
然而當 Kubernetes 節點出現故障問題,譬如斷掉,網路損毀,系統損毀等狀況導致該節點暫時不能使用時,節點上的 Pod 該何去何從?
從高可用性的角度來說,有些人會認為應用程式有多個副本,所以節點壞掉不影響服務運作,但是某些情況下,該應用程式屬於 StatefulSet,因此沒有辦法不停水平擴展,這種情況下就會需要當節點壞損時,相關 Pod 被快速重新調度來提供服務。
實驗環境
KIND 的架構是基於 Docker 去完成,本文的實驗環境是於 Ubuntu 20.04 上以 KIND 創建一個三節點的 Kubernetes 叢集,其中一個節點作為控制平面,另外兩個則作為一般的 Worker.
節點
Kubelet 本身屬於節點上的 Agent,其本身會定期計算與回報關於節點的狀態並且通知控制平面,技術上目前有兩種不同的實作方式,其中的分水嶺可以認定為 1.17 以後。
首先我們要先知道,到底 Kubelet 需要回報什麼資訊給控制平面,以下列指令 kubectl get nodes k8slab-worker2 -o yaml
為範例
1 | status: |
基本上整個 status 欄位內的所有資訊都需要由 kubelet 回報,而這些欄位可以觀察到資訊繁多,傳遞的資訊量並不小。
因此從 kubelet 回傳資訊的角度來看,實際上可以區分成兩種回報
- Status 的內容回報
- Heartbeat 的健康度更新
而本文所探討的重點,當節點被標示為 “NotReady” 狀況的反應實際上對應到的就是 (2) 的資訊,所謂的 heartbeat 資訊
從官方文件 中所述,節點的 Heartbeats 可以區分成兩種方式,分別是
- updates to the .status of a Node
- Lease objects within the kube-node-lease namespace. Each Node has an associated Lease object.
接下來就針對這兩種實作方式探討一下概念與相關設定檔案。
NodeStatus
如同前述, Kubelet 本身會需要回傳節點上的各種運作狀態以及 heartbeat 資訊,而最初的 Kubernetes 則是將這兩個資訊一起更新,其更新的頻率預設是 10 秒,可以透過 KubeletConfiguration
內的 nodeStatusUpdateFrequency
的欄位更新
此外對於每次的狀態更新, kubelet 都有實作重試機制,每次傳遞預設都會嘗試五次,而這個數字目前是不可更改的,寫死於程式碼, kubelet.go中
1 | const ( |
1 | func (kl *Kubelet) updateNodeStatus(ctx context.Context) error { |
下圖簡易的描述更新方式
然而這種實作方式實務上卻帶來的效能上的瓶頸,每次 kubelet 資訊回報都伴隨大量的狀態資訊,每十秒一次且節點數量過多時,就會對整個 etcd 造成系統壓力使得整個叢集的效能降低,因此 1.13 版本後決定採用新的實作方式並且於 1.17 版本正式宣佈為 stable 版本。
Lease
為了改善整個 NodeStatus 更新的效率與效能問題,Official Proposal被提出並且打算採用基於 Lease 架構來完成,其核心概念就是將前述的 NodeStatus 與 Heartbeat 兩個資訊給拆開,兩件事情獨立去處理。
Heartbeat 本身的流量負擔小,維持過往的頻率並不會造成多大的效能問題,然而 NodeStatus 的資訊相對龐大,因此其更新頻率就進行調整。
Heartbeat
以 Heartbeat 來說,採用 Kubernetes 內建API Lease 的架構,當此架構運作時,可以觀察到系統會自動創建一個名為 kube-node-lease
的 namespace,並且所有個 K8s 節點都會與之對應到一個同名稱的 Lease 物件
1 | azureuser@course:~$ kubectl -n kube-node-lease get lease |
1 | azureuser@course:~$ kubectl -n kube-node-lease get lease k8slab-worker -o yaml |
這些 Lease 物件則透過 renewTime 與 holderIdentity 來代表每個節點最後一次更新的時候,這些時間之後會被 Controller 用來判定節點本身是否 Ready/NotReady.
根據 kubelet 原始碼
1 | const ( |
可以觀察到 renewInternval 的計算方式是 nodeLeaseRenewIntervalFraction
* NodeLeaseDurationSeconds
,前者是一個固定的常數 0.25,而後者根據 kubelet 中關於 nodeLeaseDurationSeconds 的介紹,預設值是 40
。
根據這個計算可以得到 0.25 * 40 = 10,因此 kubelet 每 10 秒會更新一次。
根據這個理論,嘗試透過指令觀察 Lease 物件的變化kubectl -n kube-node-lease get lease k8slab-worker2 -o yaml -w
1 |
|
從上述物件的更新狀態,觀察 renewTime 的差異,分別是 07:39:45 與 07:39:35,其差值為 10 秒,與理論一致。
嘗試將該 leaseDurationSeconds 改成 60 秒,觀察 renewTime
的變化。
1 | apiVersion: coordination.k8s.io/v1 |
可以觀察到兩個時間分別為 07:36:29 與 07:36:14,間隔為 15 秒,與計算理論相符。
Lease 架構下透過此方式來更新節點的最新 heartbeat 狀態,至於 Controller 是如何利用這些資訊判斷節點是否為 Ready/NotReady 等等就會介紹。
以下列圖來總結一下 Lease 架構下 Heartbeat 的更新方式
Status
為了改善 Status 傳送資料頻繁造成 etcd 壓力的問題,新架構中將 Status 的傳送機制進行調整,首先將 Status 分成兩個階段
- 計算
- 回報
計算階段就是去統計收集當前節點上的資訊,而回報則是將這些資訊給回報給 API Server,而這兩個階段是獨立進行,因此彼此的運作週期是不一致的。
以計算來說,目前預設情況下是每 10s 去計算一次,而回報部分則有兩個步驟
- 根據計算結果,若有任何有意義的更新則馬上回報給 API Server
- 否則,等待 5m 的時間才更新到 API Server。
根據 KubeletConfiguration 中的介紹,可以透過 nodeStatusUpdateFrequency 與 nodeStatusReportFrequency 兩個變數來分別調整相關頻率。
根據說明
1 | nodeStatusUpdateFrequency is the frequency that kubelet computes node status. |
1 | originalNode, err := kl.heartbeatClient.CoreV1().Nodes().Get(ctx, string(kl.nodeName), opts) |
每次進行 NodeStatus 更新時都會嘗試跟當前物件進行比對,只有當有物件發生改變或是時間超過 nodeStatusReportFrequency 時才會真正的發送資訊到 API Server。
藉由這種機制降低整個更新頻率,並降低頻繁更新造成的效能影響。
將兩者結合起來的話,其示意圖如下
以預設設定下,運作邏輯圖如下, Kubelet 如今產生兩條不同的路,一條負責 Status,一條負責 Heartbeat
Controller Manager
前述探討了 Kubelet 是如何回報節點到控制平面,而真正判別節點為 Reday/NotReady 則是由 Controller 內的 node lifecycle controller 來判別的。
其概念很簡單,就是定期去檢查每個節點對應的 Lease 物件狀態,只要該 Lease 物件超過一定時間沒有 Renew,就認定該節點太久沒有回報資訊,因此會將其狀態設定為 NotReady。
上述概念內有兩個參數可以設定
- Controller 多久去檢查 Lease 物件
- Renew 時間超過多久沒有更新視為 NotReady
根據 kube-controller-manager 中所述,有兩個參數可以調整,分別是
–node-monitor-period duration 與 –node-monitor-grace-period duration
node-monitor-period 的說明如下 (預設 5s)
1 | The period for syncing NodeStatus in cloud-node-lifecycle-controller. |
可以觀察到下列的設定
1 | ... |
期透過 go routine 每 nodeMonitorPeriod 的時間就去執行一次 monitorNodeHealth 來檢查節點的狀況。
而 node-monitor-grace-period 的說明如下(預設 40s)
1 | Amount of time which we allow running Node to be unresponsive before marking it unhealthy. Must be N times more than kubelet's nodeStatusUpdateFrequency, where N means number of retries allowed for kubelet to post node status. |
1 | func (nc *Controller) tryUpdateNodeHealth(ctx context.Context, node *v1.Node) (time.Duration, v1.NodeCondition, *v1.NodeCondition, error) { |
由上述的程式碼可以觀察到,其會先將設定好的 nodeMonitorGracePeriod 賦予到本地變數 gracePeriod,接者就會去檢查當前時間是否超過 lease + gracePeriod, 若是則將節點設定為 NotReady,並且理由設定為 “Unknown”。
範例如下 (kubectl get node k8slab-worker -o yaml)
1 | status: |
所以將這些概念整合起來,可以得到下列的概念圖,Kubelet 本身與 Controller 是非同步工作,一個負責更新狀態,一個負責確認狀態並且更新
而整個邏輯工作流程則可以用下圖來表達
Evict Pod
前述探討的是 Kubernetes 如何將一個節點視為故障(NotReady),那當節點為 NotReady 後,節點上運行的 Pod 會多久才被重生?
這部分 Kubernetes 是利用了 Taint/Toleration 的機制來達到自動重生的,詳細說明可以參閱 Kubernetes Taint Based Evicition。
簡單來說,當節點被判定為故障時,會自動被打上一個 node.kubernetes.io/not-ready 的 Taint,而每個 Pod 可以透過 Toleration 搭配 tolerationSeconds 來決定能夠忍受該節點多久,時間一到無法忍受則自動會被重新部署。
根據 API-Server 文件可以發現兩個相關設定
1 | --default-not-ready-toleration-seconds int Default: 300 |
這兩個設定預設都是 300 秒,這意味者當節點被標示為損壞後,運行的 Pod 會存活至少 300s 才會被移除重新部署。
而該數值除了透過 API-Server 設定預設值外,每個 Pod 也可以獨立設定,範例如下
1 | tolerations: |
因此如果希望 Pod 可以更快的因應節點故障而被重新部署,則部署的時候可以調整 tolerationSeconds
讓其更快被反應,另外也可以從 kubelet/controller 的參數去調整讓節點更快的被識別為損壞來觸發節點的重新調度行為。
Summary
- Kubelet 於 1.17 後都採用 Lease 的方式來回報 heartbeat
- Kubelet 與 Controller 是非同步工作,一個負責回報,一個負責監控,彼此間的 timeout 設定上要仔細與小心
- kubelet 上的 nodeLeaseDurationSeconds 決定多久更新一次 Lease 物件,目前設定的數值*0.25 則是最後的秒數
- Contoller 上的 node-monitor-period 與 node-monitor-grace-period 則決定 Controller 多久檢查一次,以及超時多久要判定為 NotReady.
- 預設情況下,最快需要 40 秒去偵測節點故障
- 預設情況下,每個 Pod 可以於故障節點上存活 300 秒
- 預設情況下,一個 Pod 最快需要 340 秒才可以從故障節點中被重新部署
- Pod 可以透過 Taint-Based Evicition 的方式來調整反應時間
Reference
- https://github.com/kubernetes-sigs/kubespray/blob/master/docs/kubernetes-reliability.md
- https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/#taint-based-evictions
- https://github.com/kubernetes/enhancements/tree/master/keps/sig-node/589-efficient-node-heartbeats
個人資訊
我目前於 Hiskio 平台上面有開設 Kubernetes 相關課程,歡迎有興趣的人參考並分享,裡面有我從底層到實戰中對於 Kubernetes 的各種想法
詳細可以參閱
線上課程詳細資訊: https://course.hwchiu.com/
另外,歡迎按讚加入我個人的粉絲專頁,裡面會定期分享各式各樣的文章,有的是翻譯文章,也有部分是原創文章,主要會聚焦於 CNCF 領域
https://www.facebook.com/technologynoteniu
如果有使用 Telegram 的也可以訂閱下列頻道來,裡面我會定期推播通知各類文章
https://t.me/technologynote
你的捐款將給予我文章成長的動力