摘要:一致性校驗:通過全量及增量的遷移後,此時源庫跟目標的數據理論上是一致的,但實際上應用在經過功能測試,線上流量回放等階段,數據在這個過程中有可能會現不一致的情況,因此正式上線前,需要做數據一致性校驗,其原理是分批查詢源表(跟全量遷移的查詢方式類似),再跟目標庫進行比對,如圖所示:。最有可能的發生點是雙寫期間新庫出問題,導致線上服務異常,這時只要立即關閉寫新庫即可,另外就是切到新庫後,新庫出問題了(如性能問題),可以立即切回到老庫,並通過反向任務,保持數據一致性,最後若沒啓用分佈式事務,雙寫的時間越短越好,有可能會有數據不一致情況。

作者:看松

背景

在系統的快速迭代過程中,業務系統往往部署在同一個物理庫,沒有做核心數據和非核心數據的物理隔離。隨着數據量的擴大這種情況會帶來穩定性的風險,如庫的慢sql,磁盤,IO等等都會相互整體影響,從而影響核心系統的業務穩定性,因此需要將核心業務的業務表從原有庫裏抽取出來,單獨到新庫裏。而核心數據的遷移,涉及到的一個關鍵難點:如何平穩及用戶無感知的遷移數據,本文將結合閒魚商品庫遷移實踐,向大家展示如何解決這個難題的.

閒魚商品數據現狀

閒魚商品數據量XX億級別以上,採用分表分庫和讀寫分離的MYSQL數據庫集羣來支撐線上查詢服務,如下圖,通過TDDL[1]數據庫中間件進行高效統一管理。可能有些同學會對分表分庫相關概念不瞭解,這裏先簡單做些介紹。

如何優雅的不停機,進行海量數據遷移

01分表分庫原理

本質是數據庫的水平拆分問題,把一個數據庫切分成多個部分放到不同的數據庫(server)上,從而緩解單一數據庫的性能問題,下圖描述分表分庫的核心原理:

如何優雅的不停機,進行海量數據遷移

當然分表分庫也有負面影響,就是表結構變更及相關管理相比單表麻煩,有一定風險,具體如何決擇,還是要根據實際情況來分析。

02分表分庫下全局Sequence生成

分表分庫解決在線服務容量和性能問題,但是也帶來使用上的複雜度提升。靈活的配置路由規則和路由數據並提供簡單易用的封裝都是要考慮的,以便業務對此無感知。阿里開源中間件產品TDDL提供瞭解決方案,對應阿里雲上產品爲:DRDS[2]。

TDDL關鍵原理不多做介紹,但是在數據庫遷移過程中主鍵衝突風險是故障重要風險點,這裏簡要介紹下TDDL的全局唯一主鍵生成原理。

如何優雅的不停機,進行海量數據遷移

如上圖,TDDL Sequence是基於數據庫更新+內存分配:每次操作批量分配id,分配id的數量就是sequence的內步長,而原有id值就加上外部長值,後續的分配直接就在內存裏拿,這樣的優勢:簡單高效 缺點:無法保證自增順序。

另外數據遷移過程中,在新庫中,爲了保證跟原數據庫主鍵非衝突,需要設置一個躍遷比較大的主鍵,防止出現兩個庫中的主鍵衝突,這是後續遷移中要注意的關鍵點之一。

數據遷移方案

通過前文的簡單介紹,大家對閒魚商品庫現狀有了初步瞭解,下面將給大家介紹一下閒魚是如何做到穩定遷移商品庫的。

01核心思路

數據遷移核心思路抽象起來其實很簡單,即如何穩定平滑遷移數據,如下圖所示:

如何優雅的不停機,進行海量數據遷移

但圍繞這個過程細化下去,我們會遇到不少問題,如:

1、數據我們該如何遷移,是一次性?還是分階段?

2、如何校驗數據遷移過程的正確性?

3、我們業務改造有問題怎麼辦?如何儘早發現?如何回滾?

4、我們的新庫性能如何?

帶着這些問題,我們進一下細化梳理遷移方案。

02實現方案如何優雅的不停機,進行海量數據遷移

如上圖所示,整個方案分爲幾個部份:

1、系統改造,包括SQL改造,雙寫開關,新庫sequence創建。

SQL改造:加載兩套TDDL數據源,一套是給老庫的,一套是給新庫的,並且生成兩套mybatis sql 模板。

雙寫開關:設置好寫新庫,寫老庫的開關,用於線上遷移過程中雙寫過程及遇到問題及時回滾。

sequence創建:遷移sequence表時,需要抬升新庫的sequence表中的值,用於防止主鍵衝突,並且需要按照主鍵消耗量評估一個安全值,這是非常重要的一個細節,再次強調一下。

2、穩定性保障,遷庫是大事,改造過程中,穩定性重中之重,主要有系統壓測,線上流量回放,故障演練。

系統壓測:主要針對新庫進行性能測,防止新庫有意外情況。

線上流量回放:Edsger W. Dijkstra說過如果調試程序是一種標準的可以剷除BUG的流程,那麼,編程就是把他們放進來的流程。通過引入線上數據在測試環境回放,可以儘可能的發現問題,保證改造後的穩定性。

故障演練:通過注入一些人爲故障,如寫新庫失敗,新庫邏輯有問題,及時的演練回滾策略。

3、數據遷移,主要利用阿里雲數據傳輸服務DTS[3]的數據遷移能力,涉及到全量遷移、增量遷移、一致性校驗及反向任務。

全量遷移:數據遷移首要目標如何將歷史全量數據遷移到新庫中,我們的做法是指定一個時間點,再根據這個時間點查找每張源表的最大及最小id,然後分別批量導到目標庫中,如圖:

如何優雅的不停機,進行海量數據遷移

*整個過程都是查詢在線庫的備庫,因此不影響在線業務的數據庫服務。

增量遷移:由於遷移過程中業務服務一直運行,因此全量遷移完全成,並且要將全量時間點後的數據追回來,這裏核心原理是同步全量時間位點後binlog日誌數據來保證數據一致性,需要注意的是增量時間需要前移一小斷時間(如5分鐘),其主要原因是全量遷移啓動的那刻會有時間差,需要增量前移來保證數據最終一致性,如下圖:

如何優雅的不停機,進行海量數據遷移

一致性校驗:通過全量及增量的遷移後,此時源庫跟目標的數據理論上是一致的,但實際上應用在經過功能測試,線上流量回放等階段,數據在這個過程中有可能會現不一致的情況,因此正式上線前,需要做數據一致性校驗,其原理是分批查詢源表(跟全量遷移的查詢方式類似),再跟目標庫進行比對,如圖所示:

如何優雅的不停機,進行海量數據遷移

反向任務:遷移到新庫後,會有一線離線業務對老庫還有依賴,需要建立從新庫到老庫的迴流任務,原理跟增量遷移一樣,只是變更一下原庫及目標庫。

03

遷庫流程

到這裏大家應該對遷庫所涉及到點比較清楚了,但還有一個非常重要的事,即梳理整個遷庫步驟非常關鍵,通常會有兩種方案。

方案一:如何優雅的不停機,進行海量數據遷移

1、DTS數據追平,即全量同步完成,開啓增量同步,並且延遲在秒級以內。

2、上線前校驗,主要有線上流量回放、壓測、一致性校驗,故障演練。

3、線上開雙寫,線上同時寫新庫及老庫,這時需要關閉增量同步任務,防止無效覆蓋。

4、線上校驗,執行預先準備的測試腳本並結合一致性校驗工具,同時將讀流量慢慢切到新庫,驗證雙寫邏輯。

5、切換數據源,關閉雙寫並正式寫入新庫。

6、創建反向任務,數據迴流老庫。

方案二:如何優雅的不停機,進行海量數據遷移

1、DTS數據追平,即全量同步完成,開啓增量同步,並且延遲在秒級以內。

2、上線前校驗,主要有線上流量回放、壓測、一致性校驗,故障演練。

3、線上切開關,寫新庫, 同時需要關閉增量同步任務,防止無效覆蓋。

4、創建反向任務,數據迴流老庫。

方案優缺點對比:

如何優雅的不停機,進行海量數據遷移

總結起來方案1遷移流程相對複雜,對遷移的控制力度更細,適合業務複雜,底層改造比較多,想精細化控制遷移步驟的場景,方案2遷移相對簡單,過程快速,適合業務流程相對簡單,可控,想快速切換的場景,具體選選擇哪個方案,同學們可以根據自身的業務情況做選擇。

這裏考慮到閒魚商品業務複雜,底層改造較多,從穩定性的角度考慮,最終選擇方案1。

方案1,最關鍵的是3、4、5步驟,因此需要預先做好回滾計劃。

04回滾方案

回滾方案總原則是不丟數據。最有可能的發生點是雙寫期間新庫出問題,導致線上服務異常,這時只要立即關閉寫新庫即可,另外就是切到新庫後,新庫出問題了(如性能問題),可以立即切回到老庫,並通過反向任務,保持數據一致性,最後若沒啓用分佈式事務,雙寫的時間越短越好,有可能會有數據不一致情況。

小結

通過周密的遷移方案設計,以及DTS強大的數據遷移工具的能力,閒魚商品庫順利完成XX億在線數據庫服務遷移,獨立的物理部署顯著提升商品庫在線服務的穩定性。然而不同業務系統的數據庫情況可能會有差異,如單庫向多庫遷移,單表向多表遷移等,不過整體方案大致類似,希望本文遷庫實踐方案能給大家提供一個可行的參考。

參考資料

[1]TDDL開源Github地址 https://github.com/alibaba/tb_tddl

[2]阿里雲DRDS產品官網 https://www.aliyun.com/product/drds

[3]阿里雲DTS產品官網 https://www.aliyun.com/product/dts

相關文章