国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Kubernetes方法論:擴容和可靠性

Chao / 2866人閱讀

摘要:現(xiàn)在,我們來理解一下如何用來完成彈性擴容以及可靠性。結(jié)論容器已經(jīng)不是一個新型的概念了,谷歌數(shù)十年來都將它大部分網(wǎng)絡規(guī)模的工作負載都放在容器中運行。早在十年前就已經(jīng)解決了谷歌面對的難題,這些正在影響著容器編排工具前進的道路。

在第一篇文章里,我們探索了在Kubernetes中pods和services的概念。現(xiàn)在,我們來理解一下如何用RC來完成彈性擴容以及可靠性。我們也會討論一下如何將持久化帶入布置在Kubernetes上的云本地應用程序。

RC:彈性擴容和管理微服務

如果pods是一個單元,部署和services是抽象層,那么誰來追蹤pods的健康狀況呢?
于是RC就這樣出場了。

在pods被部署之后,他們需要擴容,需要被追蹤。RC定義文件有pods數(shù)量的基線配置,這些pods在任何給定的點都是可得的。Kubernetes確保了需要的配置選項一直通過追蹤pods數(shù)量來維護。它會殺死一些pods,又或者是創(chuàng)建一些來滿足基線配置。

RC可以追蹤pods的健康狀況。如果一個pod變得難得到的,那么它就會被殺死,然后一些新的pod會被創(chuàng)建。因為一個RC實質(zhì)上就是繼承了pod的定義,YAML或者JSON清單可能包含重啟策略,容器調(diào)查和健康檢查端點的屬性。

Kubernetes支持基于CPU利用率的pod自動彈性擴容,跟EC2自動擴容或者GCE自動擴容有些相似。在運行的時候,RC可以被操作來自動擴容pods,基于特定的CPU利用率閾值。pods的數(shù)量的最大值和最小值也可以在同樣的命令下規(guī)定。

平網(wǎng)絡:秘密武器

網(wǎng)絡也是容器化過程中面臨的復雜挑戰(zhàn)之一。將一個容器暴露到外部世界的唯一方法就是通過主機的端口轉(zhuǎn)發(fā)。但是擴容容器的時候就會變得復雜。Kubernetes不是將網(wǎng)絡配置和集成留給管理員來做,而是自帶一個網(wǎng)絡模型,這個網(wǎng)絡模型十分易于使用。

每個節(jié)點,service,pod和容器都有一個IP地址。節(jié)點的IP地址由物理路由器分配;結(jié)合分配的端口,它會變成端點來訪問面向服務。雖然不是可路由的,但是Kubernetes服務也是可以獲取IP地址的。所有的通信都是在沒有NAT層的基礎上產(chǎn)生的,使得網(wǎng)絡平面化,透明化。

這個模型會帶來一些好處:

所有的容器不需要NAT也可以互相通信

所有的節(jié)點不需要NAT也可以跟所有的pods和集群中的容器通信

每個容器跟其他容器一樣看到的都是相同的IP地址

關于通過RS來擴容pods最好的一點就是,端口映射是由Kubernetes處理的。所有屬于service的pods都是通過相同的端口暴露到每個節(jié)點上的。即使沒有pod在特定的節(jié)點上調(diào)度,request也會自動轉(zhuǎn)發(fā)到合適的節(jié)點。

這個神奇的功能就是通過kube-proxy,iptables和etcd這些網(wǎng)絡代理的結(jié)合來實現(xiàn)的。當前集群的狀態(tài)就是用etcd來維護的,這也就意味著在運行的時候通過kube-proxy查詢。通過操作在每個節(jié)點上的iptables,kube-proxy將request退信到正確的目的地。

Kube-proxy同樣也處理services的基礎負載均衡。Service端點也是用Docker links通過環(huán)境變量來管理。這些變量分解到端口,端口通過service暴露到外面。Kubernetes1.1包括了一個來使用本地iptables的選項,這個選項會帶來80%的延遲。這個設計消除了CPU開銷,因此提升了效率,也提升了可拓展性。

持久性:將狀態(tài)帶到容器

容器是短暫的。當他們從一個主機轉(zhuǎn)移到另一個主機的時候,他們不包含狀態(tài)。對于產(chǎn)品負載,持久是一個必須條件。任意有用的應用程序都有一個數(shù)據(jù)庫在背后支持它。
默認設置下,pods也是短暫的。他們每次復活的時候都從空白狀態(tài)開始。設置在同一個pod中運行的容器所共享的數(shù)據(jù)卷也是可以的。由emptyDir monilker確認,這個與Docker數(shù)據(jù)卷有點相似,在這里主機文件系統(tǒng)在容器內(nèi)被暴露為一個目錄。emptyDir數(shù)據(jù)卷追蹤pods的生命周期。當pod 被刪除的時候,數(shù)據(jù)卷也會被刪除掉。因為這些數(shù)據(jù)卷只符合主機的,所以他們在其它節(jié)點上不可用。

為了在pods上帶來持久性數(shù)據(jù),不管他們在哪個節(jié)點上被調(diào)度,Kubernetes都支持PV和PVC requests。PVC和PV共享關系,就如同pod和節(jié)點一樣。當一個pod被創(chuàng)建的時候,它可以通過claim聯(lián)系到特定數(shù)據(jù)卷。PV可以基于各種各樣的插件,比如GCE持久性硬盤,亞馬遜彈性快存儲(EBS),網(wǎng)絡文件系統(tǒng)(NFS),小型計算機系統(tǒng)接口(ISCSI),GlusterFS和RBD。

設置持久化的工作流包括配置底層文件系統(tǒng)或者云數(shù)據(jù)卷,創(chuàng)建持久性數(shù)據(jù)卷,最后,創(chuàng)建claim來將pod跟數(shù)據(jù)卷關聯(lián)起來。這個解耦方法可以將pod和數(shù)據(jù)卷完全分離,或者pod不需要知道確切的文件系統(tǒng)或者支持它的持久性引擎。有些文件系統(tǒng),比如GlusterFS,也可以被容器化,使得配置更加容易,便捷。

結(jié)論

容器已經(jīng)不是一個新型的概念了,谷歌數(shù)十年來都將它大部分網(wǎng)絡規(guī)模的工作負載都放在容器中運行。他們在這個過程中吸取教訓,并將這些教訓融入Kubernetes的建設中,這些經(jīng)驗教訓也可以被移植到其他的編排平臺中,也可以移植到其它的編排工具中。Kubernetes早在十年前就已經(jīng)解決了谷歌SRE面對的難題,這些正在影響著容器編排工具前進的道路。

最重要的是,Kubernetes在容器生態(tài)圈已經(jīng)是一個焦點,對于其它相關服務,它的存在就好像是一個有價值的開源平臺。理解Kubernetes目前的角色和作用對于編排工具市場是十分有必要的。

文章版權歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/32472.html

相關文章

  • Kubernetes Ingress 高可靠部署最佳實踐

    摘要:我們通過阿里云容器服務控制臺創(chuàng)建一個集群,這里以創(chuàng)建臺節(jié)點集群為例。全方位監(jiān)控集群接入層的監(jiān)控是必不可少的,您可以通過阿里云容器服務監(jiān)控以及阿里云云監(jiān)控對和進行全方位監(jiān)控。 摘要: 在Kubernetes集群中,Ingress作為集群流量接入層,Ingress的高可靠性顯得尤為重要,今天我們主要探討如何部署一套高性能高可靠的Ingress接入層。 簡介 在Kubernetes集群中,I...

    Dionysus_go 評論0 收藏0
  • 數(shù)人云|當K8S遇上微服務-京東金融PaaS平臺思考與實踐

    摘要:平臺上的微服務架構應用再來看一下我眼中的基于當前最流行的微服務架構的設計是什么樣的,即我們平臺上要運行的典型應用是什么樣的。 showImg(https://segmentfault.com/img/remote/1460000010900878); 8月19日的數(shù)人云Container Meetup上,張龍老師做了《基于Kubernetes的PaaS平臺的設計和思考》的精彩分享,分別...

    Imfan 評論0 收藏0
  • Borg、Omega Kubernetes:谷歌十幾年來從這三個容器管理系統(tǒng)中得到的經(jīng)驗教訓

    摘要:從年以來,谷歌基于容器研發(fā)三個容器管理系統(tǒng),分別是和。這篇論文由這三個容器集群管理系統(tǒng)長年開發(fā)維護的谷歌工程師和于近日發(fā)表,闡述了谷歌從到這個旅程中所獲得的知識和經(jīng)驗教訓。和完全是谷歌內(nèi)部系統(tǒng)相比,是開源的。 從2000年以來,谷歌基于容器研發(fā)三個容器管理系統(tǒng),分別是Borg、Omega和Kubernetes。這篇論文由這三個容器集群管理系統(tǒng)長年開發(fā)維護的谷歌工程師Brendan Bu...

    nodejh 評論0 收藏0
  • LC3視角:Kubernetes下日志采集、存儲與處理技術實踐

    摘要:下需要為每個單獨進行采集配置采集日志目錄,采集規(guī)則,存儲目標等,不易維護。日志服務的日志架構實踐我們提出基于阿里云日志服務的日志處理架構,用以補充社區(qū)的方案,來嘗試解決場景下日志處理的一些細節(jié)體驗問題。 摘要: 在Kubernetes服務化、日志處理實時化以及日志集中式存儲趨勢下,Kubernetes日志處理上也遇到的新挑戰(zhàn),包括:容器動態(tài)采集、大流量性能瓶頸、日志路由管理等問題。本文...

    Guakin_Huang 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<