當前位置: 妍妍網 > 碼農

爆改同城雙活架構後,再也不擔心宕機冥場面了……

2024-04-26碼農

分享概要

一、背景

二、設計思路

三、雙活整體架構

四、具體改造方案

五、上線環節

六、計畫成果

七、帶來的新問題及後續

知易行難,雙活過程中遇到了非常多的問題,但是回過頭看很難完美表述出來,之所以這麽久才行文也是這個原因,總是希望可以盡可能復現當時的思考、問題細節及解決方案,但是寫出來才發現能給出的都是多次打磨、摸索之後的我們認為偏合理的方案;不過換個角度看,給大家展示出來一個正確答案,是否有更積極的參考價值呢?

以及,涉及到容器、釋出平台、底層網路運維、監控等元件的內容,限於視野及技術能力並未包含在內,僅聚焦在業務團隊及中介軟體元件的設計及改造上。

一、背景

2022年,基於對穩定性的焦慮和思考,交易平台聯動中介軟體平台啟動過異地多活計畫的探索,雖然完成了核心套用及基礎元件的改造,但在疫情&降本增效的影響下並未真正投產,同時也缺乏充分的測試以及線上流量的大規模驗證;後續在不斷的業務叠代中,相關設計及程式碼被沖擊得面目全非,相關的多活自動化測試case也並沒有沈澱下來。

隨著近期外部友商時有嚴重故障出現,比如:


以上林林總總出現的故障都給我們敲響了警鐘, 必須建設快速恢復的能力 。出現問題幾乎不可避免,但如果能控制影響範圍、縮短影響時間,也就能把損失降到最低。

我經歷過的公司,做交易的和做中介軟體的,往往是最容易焦慮,也最容易心態失衡的兩撥技術人;一方面所有問題都會暴露在C端使用者面前,影響範圍大且不像toB/toM的場景,避開高峰期甚至有可能無人知曉;另一方面流量高,壓力大,容易面臨突發流量及突發事件,穩定性這根弦需要始終繃緊;所以往往是面向穩定性(的焦慮)設計,當然熬過去成長也最快。

回到我們的現狀,得物目前的交易套用及中介軟體基礎元件都是基於某雲部署,且前期為了降低跨機房呼叫產生的網路損耗,較多套用都繫結了儲存元件(db/redis/hbase)及核心依賴下遊的所在可用區,對此,為了避免在極端情況下,得物的交易主鏈路出現長時間不可用的情況,團隊決定提前預防,啟動同城雙活計畫。

為了避免在極端情況下,得物的交易主鏈路出現長時間不可用的情況,團隊決定啟動同城雙活計畫,目標是快速建設流量動態切換能力及快速恢復能力,同時降低改造難度、減少改造工作量,不增加大量額外成本。團隊討論決策繞過之前最復雜也最容易出問題的數據同步(db雙向同步、redis雙向同步等),同時也不需要在流量切換時做db禁寫,整體具有比較大的可操作可實施性。

多說一句,同城雙活也有做數據雙向同步的case,當然更徹底--每個機房都有全量的數據及套用,某個機房出問題 可以完全自閉環承接流量,不過帶來的復雜度上升、成本上升也會比較明顯,所以這次並沒有選擇這條路。換句話說,個人更傾向於小成本低風險快速落地,實作從0到1的功能建設,而不是大而全的方案,萬一期間遇到問題只能徒呼奈何。當然在現階段,透過建設相對低風險低投入的同城雙活,積累更多基礎能力的同時鍛煉團隊,選擇最合適當下的方案,解決目前排在第一位的問題,怎麽想都覺得還是一件挺劃算的事兒。

畫一幅簡圖來區分下我們這次同城雙活的方案和業界異地雙活方案的差異。

1.異地雙活


主要特點:

  • 儲存相關有兩份,雙機房內各自讀寫,雙向同步

  • 數據的迴圈賦值需要重點考慮如何處理

  • 數據間的同步延遲問題會比較明顯,不過各自機房內基本上可自閉環呼叫

  • 對於使用者、商家資產的處理比較復雜,比如使用者券、賣家庫存等,一般需要考慮在某個機房維護(gzone),避免數據同步問題帶來的超賣、超用

  • 切流時需要做目標機房的局部數據禁寫,避免臟數據產生

  • 2.同城雙活


    特點:

  • 只有一份資料來源,不需要考慮數據同步的延遲問題及切流時的禁寫邏輯,不過若數據所在機房出問題,另一個機房無法正常承接流量(只能承接部份兜底流量,如cdn、緩存等有兜底數據的場景)

  • 不需要考慮具備中心節點性質的數據問題,如使用者券、庫存等

  • 跨機房存取較多,尤其是數據層面的讀寫,可能會造成RT的大幅上漲

  • 不管是同城還是異地、雙活還是多活(雙活只是多活裏最簡單的場景,雙活到三活難度飆升範圍應該不亞於<羊了個羊>裏第一關和第二關的難度),都是為了以下目標:

  • 提高可靠性: 透過在不同的物理位置部署服務,減少單點故障的風險。即使一個機房發生故障,其他機房也可以接管服務,確保業務連續性。

  • 負載均衡: 可以靈活分配使用者請求流量,避免單個機房過載,尤其隨著業務規模的擴大單個雲廠商的機房已經無力提供更多資源的情況下。

  • 災難恢復: 透過流量的排程切換來快速恢復某個機房的故障問題,減少業務中斷時間。

  • 雲成本: 在技術成熟度較高的前提下,做同雲、跨雲 甚至雲+自建IDC機房之間的多活,一方面可以降低對某個雲廠商的依賴從而獲取一定的議價權;另一方面多活本身在提高資源利用率方面可以有更多可能性。

  • 提高服務品質: 這點尤其表現在異地多活場景,透過在多個中心之間分配流量,可以減少網路延遲,提供更快的響應時間和更高的服務品質。

  • 二、設計思路

    一句話描述:在雲機房的多個可用區(即多個物理機房)中構造套用層面的雙集群部署,配合目前已經在交易鏈路大規模上線的藍綠釋出,完成流量的動態切換(含HTTP、RPC、DMQ[rocketmq/kafka])。而儲存(redis/db)還是在單機房(但是可以跨機房部署),降低方案及實作的復雜度。

    三、雙活整體架構


    可以看到,整體在架構層面分為四層:

  • 接入層: DNS 網域名稱解析+ SLB主備 + DLB+DAG多機房部署,保障接入層高可用。其中在DAG中實作了根據使用者ID、流量比例等控制藍綠流量的策略。

  • 套用層: 套用透過改造,劃分為邏輯藍綠集群,透過藍綠同調的黏性遮蔽跨區呼叫。

  • 中介軟體層: 多個中介軟體元件有各自不同的跨AZ部署策略、數據同步、主動切換策略,下面會詳述。

  • 數據層: 數據層保持一份數據,透過自動/手動主從切換,跨區部署等技術手段,保障機房級別故障下服務可用,包含DB、Redis、Hbase等。

  • 四、具體改造方案

    本次雙活涉及到三個主要部份,分別是:交易套用側雙活改造、交易依賴方套用雙活改造、中介軟體&基礎元件改造。下面分別介紹:

    1.交易套用側雙活改造

    1)計畫範圍

    交易側預設所有服務均參與同城雙活改造,一方面內部套用之間的呼叫關系復雜,區分處理梳理工作量極高;另一方面快速的業務叠代也會改變互相之間的依賴關系,維護這套邏輯成本太高;以及,內部強弱依賴本身也在動態變 化,讓團隊的同學不斷的辨識哪些應該雙活、哪些應該單點,溝通和執行成本反而更高。

    2)業務改造思路及方案

    實際業務場景中復雜的鏈路拓撲最終可以抽象為如下典型的、原子的鏈路拓撲( A-B-C )的疊加、組合。


    A、C服務參與雙活,需要跨可用區部署。B服務不參與雙活,不需要跨可用區部署。

    A、B、C服務都需要辨識流量染色、服從流量排程。

  • 相關服務Owner各自將服務中整合的統一基礎框架升級到指定版本,接入無侵入、零配置、開箱即用的藍綠釋出能力元件全家桶。保證基於藍綠釋出的執行時流量排程能力被完整整合。上述簡圖中A、B、C服務需要進行該步驟。

  • 相關服務Owner各自在釋出平台界面白屏化遷移釋出模式。釋出模式遷移到藍綠釋出時,釋出平台自動將服務Pod進行跨可用區部署,並在Pod中註入支撐流量排程的行程級元資訊。藍綠釋出能力元件在上遊呼叫方LoadBalance時介入進行流量染色、流量排程。上述簡圖中A、C服務需要進行該步驟。

  • 完成上述改造後,雙活鏈路上的流量呈現 就近呼叫、可用區封閉 的特點,即:流量染色後,後續鏈路上的每一跳呼叫都會優先向下遊服務集群中與流量同色(同可用區)的例項發起呼叫。

    2.交易依賴方套用雙活改造

    僅僅依靠交易側套用,無法完成所有的P0鏈路,如下單時依賴供應鏈側時效。強依賴的外域服務同樣納入了同城雙活改造範圍。其改造點基本一致,不再贅述。

    3.中介軟體&基礎元件

    1)辨識機器資源可用區

    計畫初期,我們發現容器POD和ECS缺少可用區標識,導致無法區分對應的資源歸屬。於是我們配合運維組和監控組的同事制定了一份規範。在環境變量裏給機器都打上對應的標記,同時這也是監控和日誌能透出機房標記的基石。


    2)中介軟體RTO

    同城雙活要求中介軟體在單個可用區出問題的時候,仍能對外提供服務。其設計目標的RTO為以下:


    3)主要元件雙活改造方案

    ①DLB - 自研流量閘道器


  • DLB是無狀態元件,在兩個可用區對等部署。

  • 當其中一個可用區故障時,在SLB的endpoints上故障節點會被剔除,流量會打到正常的節點,實作故障快速恢復的目標。預計秒級完成。

  • ②彩虹橋 - 自研分布式關聯式資料庫代理


    彩虹橋目前不具備自動流量切換能力,一方面自動切換過於復雜,另一方面也容易帶來更多的風險,以及也依賴DB層面的主備切換,所以走手動切換,預計分鐘級完成。

    目前流量99%走A區集群、1%的流量走B區集群,當A區發生可用區故障時,可手動把流量全部排程至B區集群,同時需要DB層完成主備切換(a->b)。

    ③DMQ


    透過Broker分片級別打散到不同的可用區形成一套完整的集群。

    當可用區故障時,集群可用分片會減少一半,集群整體可用。

    DMQ的改造經過了多次試錯,最開始透過在消費端建立多個consumer group的方式實作,但需要業務側配合多次升級處理,且會導致消費端存在雙倍的consumer group,後面才決定將主要改造工作放在rocketmq broker內部。簡要介紹如下:

  • 藍綠內容

  • BROKER中的佇列設定成偶數,並且>=2。我們把前一半佇列視為邏輯上的藍色佇列,後一半佇列視為綠色佇列(這裏也可以看到,雙活裏的很多處理邏輯都是非此即彼,但是如果到多活,復雜度就會更高)。


  • 生產者

  • 在進行佇列選擇時,根據集群環境藍綠顏色進行分組選擇:

  • 藍集群的訊息會被投遞的broker的前一半佇列中

  • 綠集群的訊息會被投遞到broker的後一半佇列中

  • 在每種選擇邏輯內部是按照輪循的方式進行選擇,不破壞生產者本身支持的容錯邏輯。


  • 消費者

  • 消費者也是類似。藍色消費者消費藍色佇列的訊息。綠色消費者消費綠色佇列的訊息。


    ④Kafka


    由於ZK的ZAB協定要求保證 Math.floor(n/2)+1 奇數個節點存活才能選出主節點,所以 ZK 需要進行3個可用區部署,上面的nameserver類似。 分散在3個可用區中,A:B:C 節點數 = 2N:2N:1,確保始終是奇數個集群節點。

    Broker 在兩個可用區對等部署,分區的主從跨區部署。當單個可用區故障時,分區leader切換。

    ⑤ES

    ES多可用區部署,需要區分數據節點和master節點。

  • 數據節點: 需要保持各個可用區之間節點對等,以保證數據的平衡;使用分區感應把主副分片隔開,保持在不同可用區內。

  • master節點: 部署在至少三個可用區,以保證任何一個可用區掛了,都不影響master的選舉。


  • ⑥註冊中心

    PS:自研分布式註冊中心,基於raft協定實作系統可用性、數據一致性。承擔得物全站RPC服務釋出/訂閱職責。


  • 代理節點多分區部署,保障多可用區雙活

  • Sylas集群Raft節點3個分區部署,保障多可用區雙活

  • 4)流量分配策略

    ①RPC流量

    雙活的RPC的入口流量在DAG上進行調整,DAG會盡量根據使用者ID進行流量分配。

  • 每個套用會在請求上下文中附上當前的藍綠標識;

  • 如果某個套用沒有納入雙活範疇,這裏的藍綠標識會遺失,此時有兩種策略:

  • a. 隨機分配,不過會破壞鏈路的純潔性;

    b. 根據userID再算一次,不過需要增加一次對ark配置的處理。


    ②MQ流量比例

    因為藍綠集群的生產者和消費者對佇列進行了繫結。所以只要調整藍綠生產者的訊息比例就可以調整整個MQ的消費流量比例。而藍綠生產者的訊息比例一般由RPC流量決定。 所以調整RPC的流量比例,MQ的流量比例也會得到相應的調整 。不過會有一定的滯後(5-10s)。

    五、上線環節

    1.前期準備階段

    整體思路確定:

  • 基於當前的藍綠釋出做雙活,每次的藍綠釋出過程就是一次雙活切流演練,避免長久不使用,需要用的時候手忙腳亂或者年久失修

  • 服務層做雙活部署,數據層不做大的改造,DB和Redis透過自身的主從切換實作高可用,從節點分布在不同的可用區

  • 交易域內所有服務+核心鏈路相關外域服務做雙活改造

  • 梳理所有業務場景、MQ情況、容器部署現狀、資料庫&緩存主從節點可用區現狀:

  • 交易域所有服務&以及核心業務場景強依賴的外部服務、強依賴的具體業務場景、可否降級&有無兜底

  • MQ使用情況:DMQ還是Kafka還是其他、是否需要保證訊息的順序性

  • 所有服務當前機器所在可用區、是否繫結固定可用區

  • 交易域所有資料庫、Redis對應的主節點和從節點分別所在可用區情況

  • 依賴zookeeper的job情況

  • 評估改動範圍:

  • 上下遊非交易域溝通確認(必須納入改造範圍的服務、可以不用雙活改造的服務必須要有兜底)

  • 雙活涉及到的服務jar升級、未接入藍綠釋出的接入藍綠釋出

  • 跨區呼叫情況下RT上漲明顯的介面針對性最佳化

  • 部份業務場景是否需要接入自建Redis的就近讀改造:

  • 運維側提供自建Redis的就近讀方案,但是對於數據一致性方面有所犧牲,各方根據實際業務場景和介面RT情況綜合評估是否需要接入

  • 2.開發&驗證階段

    1)服務jar升級:支持雙活藍綠切流、支持MQ藍綠發送&消費

    2)雙活藍綠染色測試環境搭建、測試流程改善:

  • 環境本身的搭建:服務藍綠集群拆分、繫結可用區、容器藍綠集群機器比例配置

  • 雙活藍綠染色環境程式碼版本校驗、程式碼準入規則、分支自動合並規則、測試流程流轉等

  • 將雙活藍綠染色環境定為測試二輪round2環境,在日常叠代中常態化回歸驗證雙活流程

  • 3)雙活藍綠染色測試環境回歸:

  • 正常業務流程回歸

  • 測試環境藍綠切流回歸

  • 測試環境MQ生產&消費切流回歸

  • 核心業務介面RT情況記錄對比、最佳化意見

  • 4)雙活染色環境全域通道開啟情況下藍綠釋出通道切流回歸:

  • 驗證通道優先級:釋出通道優先級 > 全域通道

  • 5)預發環境集群拆藍綠

  • 此刻預發環境等於已經實際上完成了雙活改造

  • 6)預發環境驗證&RT問題重點關註

    7)線上所有雙活改造服務單獨拆一台機器到B區觀察&驗證RT上漲問題:

  • 交易平台絕大部份服務之前都是繫結可用區A區,每個服務單獨部署一台機器到B區,觀察介面RT情況

  • 8)DMQ升級藍綠2.0支持按照藍綠標消費

    3.線上準備&上線階段

    1)日誌平台、監控平台、trace鏈路、容器升級支持藍綠標

    2)生產環境DMQ切換為藍綠2.0支持按照雙活藍綠標消費

    3)資料庫&Redis主節點切換,保證主從節點只在A區或者B區

  • 大部份在a、b這兩個區,也有例外。核心是主節點一定要在這兩個區

  • 4)線上服務拆分藍綠集群(手動),計畫正式上線,回歸驗證&RT問題關註

    5)綠集群(A區)擴容至100%機器,藍集群(B區)維持50%機器,灰度觀察5天

    6)線上RT上漲介面技術專項最佳化

    7)釋出平台雙活保障叠代升級

  • 支持新增服務一鍵加入雙活藍綠集群

  • 雙活藍綠集群支持按區批次擴容能力(單機房故障情況下,快速拉起存活區的服務)

  • 8)容器平台支持容器管控多可用區部署

    六、計畫成果

    2023年12月14日,籌備近100天的交易鏈路同城雙活完成上線,經過5天(12.14-12.18)的觀察及聖誕前高流量(DLB流量達到雙十一的77.8%)的驗證,確認無明顯異常,之後線上集群完成縮容。部份場景的RT有一定比例的上漲(數據層面只做了跨可用區容災,但是並沒有實作就近存取,所以藍集群的所有數據層面呼叫都需要跨可用區),已啟動技術小計畫推動最佳化中。

    從實際效果上看,經過12.22的大版本釋出過程中的跨機房切流,交易鏈路已經具備跨機房流量排程的能力,如下:


    1.流量表現

    (A區 - 綠集群,B區 - 藍集群)

  • 兩個可用區的集群流量達到了50:50。不過rocketmq 由於存在少量上下遊套用並未進行多活改造,還有較小流量未嚴格分布


  • 核心指標 qps/rt/錯誤率


  • 核心基礎元件存取情況

  • 由於所有數據儲存(db、redis、hbase)均在A區,故B區的 rt 有一定上漲,整體看上浮大概 7-8ms( 存在一次請求 查詢多次數據的場景),還在持續推動最佳化。


    2.成本情況

    因A區原有雲資源均為包年包月模式,停止使用依然會有費用產生;同時在B區部署服務穩定性支撐50%流量之前,存在5天的並列期(A區100%資源、B區50%資源,共150%),期間共產少量成本。

    灰度並列期結束後,A區資源釋放掉50%,整體成本回歸原有平均線,無額外成本產生。

    七、帶來的新問題及後續

    1. 藍綠釋出中,如果下遊接入了雙活但沒有進入釋出通道,消費流量會傾斜,比如在上遊切換流量過程中,RPC或MQ會優先本可用區呼叫,也就是另一個可用區流量比例會受影響;需要關註每個可用區中冗余的容量評估是否可以支撐全量流量。

    2. RT變化,對於下遊未加入雙活、或者某些儲存/緩存中介軟體,如DB/Hbase/Redis未開啟就近讀取,B機房的RT會普遍高5-8ms。已在逐步投入最佳化。

    3. 容器管控作為基礎設施,在出現機房級故障的時候需要保證正常執行,能夠順利完成擴縮容操作,即容器管控面的多可用區部署,這塊目前還在建設中。

    4. 機房級故障情況下,單機房批次擴容快速拉起,是否有足夠的可用資源(尤其是大促期間,雲廠商本身資源就吃緊)。

    5. 多個大域之間的雙活聯動問題,比如交易和搜推:

  • 兩個大域雙活切流是否需要聯動(聯動:影響範圍被放大,且搜推側擴容不易;不聯動:各域雙活流量非常割裂)

  • 兩個大域之間的是否辨識相同的藍綠標(各大域內部自閉環保證同區存取or大域之間也需要保證)

  • 6. 如何線上上無失真情況下進行一次貼近實際的演練。

    以上問題都是在雙活之後帶來的新挑戰,也都在不斷思考及投入解決。

    不管做什麽,不管怎麽做,人生總會有新的問題出現,不是麽?Keep a long-term view lol...

    作者丨Alan 英傑 Matt 羊羽

    來源丨公眾號:得物技術(ID:gh_13ba5621e65c)

    dbaplus社群歡迎廣大技術人員投稿,投稿信箱: [email protected]