国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

微服務的接入層設計與動靜資源隔離

jindong / 1765人閱讀

摘要:接入層作用一的聚合。接入層作用二服務發現與動態負載均衡既然統一的入口變為了接入層,則接入層就有責任自動的發現后端拆分,聚合,擴容,縮容的服務集群,當后端服務有所變化的時候,能夠實現健康檢查和動態的負載均衡。

此文已由作者劉超授權網易云社區發布。

歡迎訪問網易云社區,了解更多網易技術產品運營經驗。

這個系列是微服務高并發設計,所以我們先從最外層的接入層入手,看都有什么樣的策略保證高并發。

接入層的架構畫一個簡圖來講包括下面的部分

接下來我們依次解析各個部分以及可以做的優化。

一、數據中心之外:DNS,HttpDNS,GSLB

當我們要訪問一個網站的服務的時候,首先訪問的肯定是一個域名,然后由DNS,將域名解析為IP地址。

我們首先先通過DNS訪問數據中心中的對象存儲上的靜態資源為例子,看一看整個過程。

我們建議將例如文件,圖片,視頻,音頻等靜態資源放在對象存儲中,直接通過CDN下發,而非放在服務器上,和動態資源綁定在一起。

假設全國有多個數據中心,托管在多個運營商,每個數據中心三個可用區Available Zone,對象存儲通過跨可用區部署,實現高可用性,在每個數據中心中,都至少部署兩個內部負載均衡器,內部負載均衡器后面對接多個對象存儲的前置服務proxy-server。

(1) 當一個客戶端要訪問object.yourcompany.com的時候,需要將域名轉換為IP地址進行訪問,所以他要請求本地的resolver幫忙

(2) 本地的resolver看本地的緩存是否有這個記錄呢?如果有則直接使用

(3) 如果本地無緩存,則需要請求本地的Name Server

(4) 本地的Name Server一般部署在客戶的數據中心或者客戶所在的運營商的網絡中,本地Name Server看本地是否有緩存,如果有則返回

(5) 如果本地沒有,本地Name Server需要從Root Name Server開始查起,Root Name Server會將.com Name Server的地址返回給本地Name Server

(6) 本地的Name Server接著訪問.com的Name Server,他會將你們公司的yourcompany.com的Name Server給本地Name Server

(7) 本地的Name Server接著訪問yourcompany.com的Name Server,按說這一步就應該返回真實要訪問的IP地址。

對于不需要做全局負載均衡的簡單應用來講,yourcompany.com的Name Server可以直接將object.yourcompany.com這個域名解析為一個或者多個IP地址,然后客戶端可以通過多個IP地址,進行簡單的輪詢,實現簡單的負載均衡即可。

但是對于復雜的應用,尤其是跨地域跨運營商的大型應用,則需要更加復雜的全局負載均衡機制,因而需要專門的設備或者服務器來做這件事情,這就是GSLB,全局負載均衡器

從yourcompany.com的Name Server中,一般是通過配置CNAME的方式,給object.yourcompany.com起一個別名,例如object.vip.yourcomany.com,然后告訴本地Name Server,讓他去請求GSLB去解析這個域名,則GSLB就可以在解析這個域名的過程中,通過自己的策略實現負載均衡。

圖中畫了兩層的GSLB,是因為分運營商和分地域,我們希望將屬于不同運營商的客戶,訪問相同運營商機房中的資源,這樣不用跨運營商訪問,有利于提高吞吐量,減少時延。

(8) 第一層GSLB通過查看請求他的本地Name Server所在的運營商,就知道了用戶所在的運營商,假設是移動,然后通過CNAME的方式,通過另一個別名object.yd.yourcompany.com,告訴本地Name Server去請求第二層的GSLB

(9) 第二層的GSLB通過查看請求他的本地Name Server所在的地址,就知道了用戶所在的地理位置,然后將距離用戶位置比較近的Region的里面的內部負載均衡SLB的地址共六個返回給本地Name Server

(10) 本地Name Server將結果返回給resolver

(11) resolver將結果緩存后,返回給客戶端

(12) 客戶端開始訪問屬于相同運營商的距離較近的Region1中的對象存儲,當然客戶端得到了六個IP地址,他可以通過負載均衡的方式,隨機或者輪詢選擇一個可用區進行訪問,對象存儲一般會有三份備份,從而可以實現對存儲讀寫的負載均衡。

從上面的過程可以看出,基于DNS域名的GSLB實現全局的負載均衡,可是現在跨運營商和跨地域的流量調度,但是由于不同運營商的DNS緩存策略不同,會造成GSLB的工作實效。

有的用戶的DNS會將域名解析的請求轉發給其他的運營商的DNS進行解析,導致到GSLB的時候,錯誤的判斷了用戶所在的運營商。

有的運營商的DNS出口會做NAT,導致GSLB判斷錯誤用戶所在的運營商。

所以不同于傳統的DNS,有另一種機制稱為httpDNS,可以在用戶的手機App里面嵌入SDK,通過http的方式訪問一個httpDNS服務器,由于手機App可以精確的獲得自己的IP地址,可以將IP地址傳給httpDNS服務器,httpDNS服務器完全由應用的服務商提供,可以實現完全自主的全網流量調度。

二、數據中心之外:CDN

對于靜態資源來講,其實在真實的訪問機房內的對象存儲之前,在最最接近用戶的地方,可以先通過CDN進行緩存,這也是高并發應用的一個總體的思路,能接近客戶,盡量接近客戶。

CDN廠商的覆蓋范圍往往更廣,在每個運營商,每個地區都有自己的POP點,所以總有更加靠近用戶的相同運營商和相近地點的CDN節點就近獲取靜態數據,避免了跨運營商和跨地域的訪問。

在使用了CDN之后,用戶訪問資源的時候,和上面的過程類似,但是不同的是,DNS解析的時候,會將域名的解析權交給CDN廠商的DNS服務器,而CDN廠商的DNS服務器可以通過CDN廠商的GSLB,找到最最接近客戶的POP點,將數據返回給用戶。

當CDN中沒有找到緩存數據的時候,則需要到真正的服務器中去拿,這個稱為回源,僅僅非常少數的流量需要回源,大大減少了服務器的壓力。

三、數據中心邊界與核心:邊界路由,核心交換,等價路由

如果真的需要回源,或者訪問的壓根就不是靜態資源,而是動態資源,則需要進入數據中心了。

剛才第一節中說到,最終GSLB返回了6個IP地址,都是內部負載均衡SLB的IP地址,說明這6個IP地址都是公網可以訪問的,那么公網如何知道這些IP地址的呢?

這就要看機房的結構了

一個機房一般會有邊界路由器,核心交換機,每個AZ有匯聚交換機,6個SLB是在AZ里面的,所以他們的IP地址是通過iBGP協議告知邊界路由器的。

當用戶從六個IP里面選擇了一個IP地址進行訪問的時候,可以通過公網上面的路由,找到機房的邊界路由器,邊界路由器知道當時這個路由是從哪個AZ里面給他的,于是就通過核心交換一層,將請求轉發給某一個AZ,這個AZ的匯聚交換機會將請求轉發給這個SLB。

如果一個AZ出現了問題,是否可以讓對某個公網IP的訪問給另一個AZ呢?當然是可以的,在核心路由和核心交換之間,可以做ECMP等價路由。當然也可以在邊界路由上將外部地址NAT稱為內部的一個VIP地址,通過等價路由實現跨AZ的流量分擔。

四、數據中心可用區中:負載均衡SLB,LVS,Haproxy

進入一個可用區AZ之后,首先到達的是負載均衡SLB,可以購買商用的SLB,也可以自己搭建,例如通過LVS實現基本的負載均衡功能。

LVS的性能比較好,很多工作通過內核模塊ipvs完成。

LVS可使用keepalived實現雙機熱備,也可以通過OSPF使用等價路由的方式,在多個LVS之間進行流量分擔,往往作為統一的負載均衡入口,承載大的流量。

有時候需要更加復雜的4層和7層負載均衡,則會在LVS后面加上haproxy集群,也即將LVS導入的流量,分發到一大批haproxy上,這些haproxy可以根據不同的應用或者租戶進行隔離,每個租戶獨享多帶帶的haproxy,但是所有的租戶共享LVS集群。

如果有云環境,則haproxy可以部署在虛擬機里面,可以根據流量的情況和租戶的請求進行動態的創建和刪除。

五、數據中心可用區中:接入層nginx,接入層緩存

在負載均衡之后,是接入網關,或者API網關,往往需要實現很多靈活的轉發策略,這里會選擇使用nginx+lua或者openresty做這一層。

由于nginx本身也有負載均衡機制,有的時候會將haproxy這一層和nginx這一層合并,LVS后面直接跟nginx集群。

接入層作用一:API的聚合。

使用微服務之后,后端的服務會拆分的非常的細,因而前端應用如果要獲取整個頁面的顯示,往往需要從多個服務獲取數據,將數據做一定的聚合后,方能夠顯示出來。

如果是網頁其實還好,如果你用chrome的debug模式下,打開一個復雜的電商主頁的時候,你會發現這個頁面同時會發出很多的http的請求,最終聚合稱為一個頁面。

如果是APP的話,其實也沒有問題,但是會有大量的工作要在客戶端做,這樣會非常的耗電,用戶體驗非常不好,因而最好有一個地方可以將請求聚合,這就是API網關的職責之一。這樣對于前端APP來講,后端接是似乎是一個統一的入口,則后端的服務的拆分和聚合,灰度發布,緩存策略等全部被屏蔽了。

接入層作用二:服務發現與動態負載均衡

既然統一的入口變為了接入層,則接入層就有責任自動的發現后端拆分,聚合,擴容,縮容的服務集群,當后端服務有所變化的時候,能夠實現健康檢查和動態的負載均衡。

對于微服務來講,服務之間也是需要做服務發現的,常見的框架是dubbo和springcloud,服務的注冊中心可以是zookeeper, consul, etcd, eureka等。

我們以consul為例子,既然服務之間的調用已經注冊到consul上,則nginx自然也可以通過consul來獲取后端服務的狀態,實現動態的負載均衡。

nginx可以集成consul-template,可監聽consul的事件, 當已注冊service列表或key/value 發生變化時, consul-template會修改配置文件同時可執行一段shell, 如 nginx reload

consul-template -template "/tmp/nginx.hcl:/var/nginx/nginx.conf:service nginx reload"

consul-template模式配置相對復雜,需要reload nginx。

另一種集成consul的方式是nginx-upsync-module,可以同步consul的服務列表或key/value存儲,需要重新編譯nginx,不需要reload nginx。

upstream test {

    server 127.0.0.1:11111;
    # 所有的后端服務列表會從consul拉取, 并刪除上面的占位server
    upsync 127.0.0.1:8500/v1/catelog/service/test upsync_timeout=6m upsync_interval=500ms upsync_type=consul strong_dependency=off;
    # 備份的地址, 保證nginx不強依賴consul
    upsync_dump_path /usr/local/nginx/conf/servers/servers_test.conf;

}
還有一種方式是openresty+lua,相對nginx-upsync-module, 可以加入更多自己的邏輯, init_*_by_lua 階段通過http api 獲取服務列表載入Nginx 內存, 并設置timer輪訓更新列表,balancer_by_lua 階段 讀取內存的列表, 設置后端服務器。

Lua實現 同樣可以不reload nginx, 相比nginx-upsync-module 來說更加可擴展。

接入層作用三:動靜資源隔離,靜態頁面緩存,頁面靜態化

為什么靜態資源需要隔離呢,靜態資源往往變化較少,但是卻往往比較大,如果每次都加載,則影響性能,浪費帶寬。其實靜態資源可以預加載,并且可以進行緩存,甚至可以推送到CDN。

所以應該在接入層nginx中配置動態資源和靜態資源的分離,將靜態資源的url導入到nginx的本地緩存或者多帶帶的緩存層如varnish或者squid,將動態的資源訪問后端的應用或者動態資源的緩存。

在nginx中,可以通過配置expires,cache-control,if-modified-since來控制瀏覽器端的緩存控制。使得瀏覽器端在一段時間內,對于靜態資源,不會重復請求服務端。這一層稱為瀏覽器端的緩存。

當有的請求的確到達了接入層nginx的時候,也不用總是去應用層獲取頁面,可以在接入層nginx先攔截一部分熱點的請求。在這里可以有兩層緩存。一是nginx本身的緩存proxy_cache,二是緩存層的varnish或者squid。

在使用接入層緩存的時候,需要注意的是緩存key的選擇,不應該包含于用戶相關的信息,如用戶名,地理信息,cookie,deviceid等,這樣相當于每個用戶多帶帶的一份緩存,使得緩存的命中率比較低。

在分離了靜態和動態資源之后,就存在組合的問題,可以通過ajax訪問動態資源,在瀏覽器端進行組合,也可以在接入層進行組合。

如果在接入層聚合,或者varnish進行聚合,則可以讓接入層緩存定時輪詢后端的應用,當有數據修改的時候,進行動態頁面靜態化,這樣用戶訪問的數據到接入層就會被攔截,缺點是更新的速度有些慢,對于大促場景下的并發訪問高的頁面,可以進行如此的處理。

接入層作用四:動態資源緩存

在動靜分離之后,靜態頁面可以很好的緩存,而動態的數據還是會向后端請求,而動態頁面靜態化延時相對比較高,而且頁面數目多的時候,靜態化的工作量也比較大,因而在接入層還可以通過redis或者memcached,對動態資源進行緩存。

接入層作用五:資源隔離

接入層的nginx集群不是一個,而是不同的請求可以有獨立的nginx集群。

例如搶券或者秒殺系統,會成為熱點中的熱點,因而應該有獨立的nginx集群。

接入層作用六:統一鑒權,認證,過濾

API Gateway的另一個作用是統一的認證和鑒權。

一種是基于session的,當客戶端輸入用戶名密碼之后,API Gateway會向后端服務提交認證和鑒權,成功后生成session,session統一放在redis里面,則接下來的訪問全部都帶著session進行。

另一種方式是通過統一的認證鑒權中心,分配token的方式進行。

這是一個三角形的結構,當API Gateway接收到登陸請求的時候,去認證中心請求認證和授權,如果成功則返回token,token是一個加密過的字符串,里面包含很多的認證信息,接下來的訪問中,API Gateway可以驗證這個token是否有效來認證,而真正的服務可以根據token來鑒權。

接入層作用七:限流

在大促過程中,常常會遇到真實的流量遠遠大于系統測試下來的可承載流量,如果這些流量都進來,則整個系統一定垮掉,最后誰也別玩。所以長做的方式是限流。

限流是從上到下貫穿整個應用的,當然接入層作為最外面的屏障,需要做好整個系統的限流。

對于nginx來講,限流有多種方式,可以進行連接數限制limit_conn,可以進行訪問頻率限制limit_req,可以啟用過載保護sysgurad模塊。

對請求的目標URL進行限流(例如:某個URL每分鐘只允許調用多少次)

對客戶端的訪問IP進行限流(例如:某個IP每分鐘只允許請求多少次)

對于被限流的用戶,可以進行相對友好的返回,不同的頁面的策略可以不同。

對于首頁和活動頁,是讀取比較多的,可以返回緩存中的老的頁面,或者APP定時刷新。

對于加入購物車,下單,支付等寫入請求被限流的,可以返回等待頁面,或者返回一個圈圈轉啊轉,如果過了一段時間還轉不出來,就可以返回擠爆了。

對于支付結果返回,如果被限流,需要馬上返回錯誤頁面。

接入層作用八:灰度發布與AB測試

在接入層,由于可以配置訪問路由,以及訪問權重,可以實現灰度發布,或者AB測試,同時上線兩套系統,通過切入部分流量的方式,測試新上系統的穩定性或者是否更受歡迎。

網易云計算基礎服務深度整合了 IaaS、PaaS 及容器技術,提供彈性計算、DevOps 工具鏈及微服務基礎設施等服務,幫助企業解決 IT、架構及運維等問題,使企業更聚焦于業務,是新一代的云計算平臺,點擊可免費試用。

免費體驗云安全(易盾)內容安全、驗證碼等服務

更多網易技術、產品、運營經驗分享請點擊。

文章來源: 網易云社區

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/25287.html

相關文章

  • 服務化之無狀態化容器化

    摘要:然而在微服務化之前,建議先進行容器化,在容器化之前,建議先無狀態化,當整個流程容器化了,以后的微服務拆分才會水到渠成。 此文已由作者劉超授權網易云社區發布。 歡迎訪問網易云社區,了解更多網易技術產品運營經驗。 一、為什么要做無狀態化和容器化 很多應用拆分成微服務,是為了承載高并發,往往一個進程扛不住這么大的量,因而需要拆分成多組進程,每組進程承載特定的工作,根據并發的壓力用多個副本公共...

    seanlook 評論0 收藏0
  • 馬蜂窩火車票系統服務化改造初探

    摘要:為了幫助用戶更好地完成消費決策閉環,馬蜂窩上線了大交通業務。現在,用戶在馬蜂窩也可以完成購買機票火車票等操作。第二階段架構轉變及服務化初探從年開始,整個大交通業務開始從架構向服務化演變。 交通方式是用戶旅行前要考慮的核心要素之一。為了幫助用戶更好地完成消費決策閉環,馬蜂窩上線了大交通業務。現在,用戶在馬蜂窩也可以完成購買機票、火車票等操作。 與大多數業務系統相同,我們一樣經歷著從無到有...

    Raaabbit 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<