摘要:但事實是,并不完美,甚至存在嚴重的問題。容器產品擁抱正在改變云原生生態,未來容器云產品與容器產品將緊密結合業內最新進展,挖掘在網絡,負載均衡,監控等領域的應用,為用戶提供更好的觀測定位和調優能力。
Serverless容器的服務發現
2020年9月,UCloud上線了Serverless容器產品Cube,它具備了虛擬機級別的安全隔離、輕量化的系統占用、秒級的啟動速度,高度自動化的彈性伸縮,以及簡潔明了的易用性。結合虛擬節點技術(Virtual Kubelet),Cube可以和UCloud容器托管產品UK8S無縫對接,極大地豐富了Kubernetes集群的彈性能力。如下圖所示,Virtual Node作為一個虛擬Node在Kubernetes集群中,每個Cube實例被視為VK節點上的一個Pod。
然而,Virtual Kubelet僅僅實現了集群中Cube實例的彈性伸縮。要使得Cube實例正式成為K8s集群大家庭的一員,運行在Cube中的應用需要能利用K8s的服務發現能力,即訪問Service地址。
為什么不是kube-proxy?
眾所周知 kube-proxy為K8s實現了service流量負載均衡。kube-proxy不斷感知K8s內Service和Endpoints地址的對應關系及其變化,生成ServiceIP的流量轉發規則。它提供了三種轉發實現機制:userspace iptables和ipvs 其中userspace由于較高的性能代價已不再被使用。
然而,我們發現,直接把kube-proxy部署在Cube虛擬機內部并不合適,有如下原因:
1 、kube-proxy采用go語言開發,編譯產生的目標文件體積龐大。以K8s v1.19.5 linux環境為例,經strip過的kube-proxy ELF可執行文件大小為37MB。對于普通K8s環境來說,這個體積可以忽略不計;但對于Serverless產品來說,為了保證秒起輕量級虛擬機,虛擬機操作系統和鏡像需要高度裁剪,寸土寸金,我們想要一個部署體積不超過10MB的proxy控制程序。
2 、kube-proxy的運行性能問題。同樣由于使用go語言開發,相對于C/C++和Rust等無gc、具備精細控制底層資源能力的高級語言來說,要付出更多的性能代價。Cube通常存在較細粒度的資源交付配額,例如0.5C 500MiB,我們不希望kube-proxy這類輔助組件喧賓奪主。
3 、ipvs的問題。在eBPF被廣為周知之前,ipvs被認為是最合理的K8s service轉發面實現。iptables因為擴展性問題被鞭尸已久,ipvs卻能隨著services和endpoints規模增大依然保持穩定的轉發能力和較低的規則刷新間隔。
但事實是,ipvs并不完美,甚至存在嚴重的問題。
例如,同樣實現nat iptables是在PREROUTING或者OUTPUT完成DNAT;而ipvs需要經歷INPUT和OUTPUT,鏈路更長。因此,較少svc和ep數量下的service ip壓測場景下,無論是帶寬還是短連接請求延遲,ipvs都會獲得全場最低分。此外,conn_reuse_mode的參數為1導致的滾動發布時服務訪問失敗的問題至今(2021年4月)也解決的不太干凈。
4 、iptables的問題。擴展差,更新慢,O(n)時間復雜度的規則查找(這幾句話背不出來是找不到一份K8s相關的工作的), 同樣的問題還會出現在基于iptables實現的NetworkPolicy上。1.6.2以下iptables甚至不支持full_random端口選擇,導致SNAT的性能在高并發短連接的業務場景下雪上加霜。
eBPF能為容器網絡帶來什么?
eBPF近年來被視為linux的革命性技術,它允許開發者在linux的內核里動態實時地加載運行自己編寫的沙盒程序,無需更改內核源碼或者加載內核模塊。同時,用戶態的程序可以通過bpf(2)系統調用和bpf map結構與內核中的eBPF程序實時交換數據,如下圖所示。
編寫好的eBPF程序在內核中以事件觸發的模式運行,這些事件可以是系統調用入出口,網絡收發包的關鍵路徑點(xdp tc qdisc socket),內核函數入出口kprobes/kretprobes和用戶態函數入出口uprobes/uretprobes等。加載到網絡收發路徑的hook點的eBPF程序通常用于控制和修改網絡報文, 來實現負載均衡,安全策略和監控觀測。
cilium的出現使得eBPF正式進入K8s的視野,并正在深刻地改變k8s的網絡,安全,負載均衡,可觀測性等領域。從1.6開始,cilium可以100%替換kube-proxy,真正通過eBPF實現了kube-proxy的全部轉發功能。讓我們首先考察一下ClusterIP(東西流量)的實現。
ClusterIP的實現
無論對于TCP還是UDP來說,客戶端訪問ClusterIP只需要實現針對ClusterIP的DNAT,把Frontend與對應的Backends地址記錄在eBPF map中,這個表的內容即為后面執行DNAT的依據。那這個DNAT在什么環節實現呢?
對于一般環境,DNAT操作可以發生在tc egress,同時在tc ingress
中對回程的流量進行反向操作,即將源地址由真實的PodIP改成ClusterIP 此外完成NAT后需要重新計算IP和TCP頭部的checksum。
如果是支持cgroup2的linux環境,使用cgroup2的sockaddr hook點進行DNAT。cgroup2為一些需要引用L4地址的socket系統調用,如connect(2) sendmsg(2) recvmsg(2)提供了一個BPF攔截層(BPF_PROG_TYPE_CGROUP_SOCK_ADDR)。這些BPF程序可以在packet生成之前完成對目的地址的修改,如下圖所示。
對于tcp和有連接的udp的流量(即針對udp fd調用過connect(2))來說 只需要做一次正向轉換,即利用bpf程序,將出向流量的目的地址改成Pod的地址。這種場景下,負載均衡是最高效的,因為開銷一次性的,作用效果則持續貫穿整個通信流的生命周期。
而對于無連接的udp流量,還需要做一次反向轉換,即將來自Pod的入向流量做一個SNAT,將源地址改回ClusterIP。如果缺了這一步操作,基于recvmsg的UDP應用會無法收到來自ClusterIP的消息,因為socket的對端地址被改寫成了Pod的地址。流量示意圖如下所示。
綜述,這是一種用戶無感知的地址轉換。用戶認為自己連接的地址是Service 但實際的tcp連接直接指向Pod。一個能說明問題的對比是,當你使用kube-proxy的時候,在Pod中進行tcpdump時,你能發現目的地址依然是ClusterIP,因為ipvs或者iptables規則在host上;當你使用cilium時,在Pod中進行tcpdump,你已經能發現目的地址是Backend Pod。NAT不需要借助conntrack就能完成,相對于ipvs和iptables來說,轉發路徑減少,性能更優。而對比剛才提到的tc-bpf,它更輕量,無需重新計算checksum。
Cube的Service服務發現
Cube為每個需要開啟ClusterIP訪問功能的Serverless容器組啟動了一個叫cproxy的agent程序來實現kube-proxy的核心功能。由于Cube的輕量級虛擬機鏡像使用較高版本的linux內核,cproxy采用了上述cgroup2 socket hook的方式進行ClusterIP轉發。cproxy使用Rust開發,編譯后的目標文件只有不到10MiB。運行開銷相比kube-proxy也有不小優勢。部署結構如下所示。
以下是一些測試情況對比。我們使用wrk對ClusterIP進行2000并發HTTP短連接測試,分別比較svc數量為10和svc數量為5000,觀察請求耗時情況(單位ms)。
結論是cproxy無論在svc數量較少和較多的情況下,都擁有最好的性能;ipvs在svc數量較大的情況下性能遠好于iptables,但在svc數量較小的情況下,性能不如iptables。
后續我們會繼續完善基于eBPF實現LoadBalancer(南北流量)轉發,以及基于eBPF的網絡訪問策略(NetworkPolicy)。
UCloud容器產品擁抱eBPF
eBPF正在改變云原生生態, 未來UCloud容器云產品 UK8S與Serverless容器產品Cube將緊密結合業內最新進展,挖掘eBPF在網絡,負載均衡,監控等領域的應用,為用戶提供更好的觀測、定位和調優能力。
文章來源:U-Star技術創作者
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/126458.html
摘要:技術開放日云原生在多行業場景的落地實踐當前,云計算已成為萬千企業數字化轉型的基石,隨之而來的是對云計算應用效能的更高要求。UCloud UCan技術開放日——云原生在多行業場景的落地實踐當前,云計算已成為萬千企業數字化轉型的基石,隨之而來的是對云計算應用效能的更高要求。敏捷開發、彈性架構、多集群運維等,讓企業現有IT架構面臨新的挑戰。云原生以其獨特的技術特點,很好地契合了云計算發展的本質需求...
摘要:徐亮厚稱,當前云原生已成為業務發展的一個重要引擎,年疫情更是加大了對的需求,拉動了大數據數據庫中間件人工智能的云原生化發展。未來英特爾將與一起,共同利用并發揮云原生的價值,為處在數字化型中的用戶,提供更加豐富的云化策略。 9月11日,由UCloud優刻得主辦的UCan技術開放日活動上,以構建云原生,擁抱新增長為主題,UCloud攜手達達集團、馭勢科技、企源科技以及英特爾等企業的云原生技術專...
摘要:掃描下方二維碼可觀看視頻回放,獲取講師合集活動回顧來自技術中臺研發部的安雪艷介紹了基于打造的技術平臺。未來英特爾將與一起,共同利用并發揮云原生的價值,為處在數字化型中的用戶,提供更加豐富的云化策略。 ...
摘要:本屆大會議題數量接近,比去年規模較大的北美峰會多出了近一倍。同時還在華為伙伴公有云等云平臺上創建集群并接入了他們的平臺,以便于快速響應技術峰會等大型活動期間暴漲的計算量。Kubernetes,云原生,service mesh,這些驚人的全球增長趨勢,令人欣喜之余迫不及待想要看看云原生在未來究竟會發展出怎樣一派繁榮的景象。 容器領域最具影響力的技術峰會之一 KubeCon + Cloud...
摘要:自年月舉辦以來,規模持續增大。本屆大會議題數量接近,比去年規模較大的北美峰會多出了近一倍。同時還在華為伙伴公有云等云平臺上創建集群并接入了他們的平臺,以便于快速響應技術峰會等大型活動期間暴漲的計算量。 Kubernetes,云原生,service mesh,這些驚人的全球增長趨勢,令人欣喜之余迫不及待想要看看...
閱讀 3514·2023-04-25 20:09
閱讀 3720·2022-06-28 19:00
閱讀 3035·2022-06-28 19:00
閱讀 3058·2022-06-28 19:00
閱讀 3131·2022-06-28 19:00
閱讀 2859·2022-06-28 19:00
閱讀 3014·2022-06-28 19:00
閱讀 2610·2022-06-28 19:00