Serverless是目前比較熱門的技術話題,各大雲平臺以及互聯網大廠內部都在積極建設Serverless產品。本文將介紹美團Serverless產品在落地過程中的一些實踐經驗,其中包括技術選型的考量、系統的詳細設計、系統穩定性優化、產品的周邊生態建設以及在美團的落地情況。雖然各個公司的背景不盡相同,但總有一些可以相互借鑑的思路或方法,希望能給大家帶來一些啓發或者幫助。

1 背景

Serverless一詞於2012年被提出,2014年由於亞馬遜的AWS Lambda無服務器計算服務的興起,而被大家廣泛認知。Serverless通常被直譯成“無服務器”,無服務器計算是可以讓用戶在不考慮服務器的情況下構建並運行應用程序。使用無服務器計算,應用程序仍在服務器上運行,但所有服務器管理工作均由Serverless平臺負責。如機器申請、代碼發佈、機器宕機、實例擴縮容、機房容災等都由平臺幫助自動完成,業務開發只需考慮業務邏輯的實現即可。

回顧計算行業的發展歷程,基礎設施從物理機到虛擬機,再從虛擬機到容器;服務架構從傳統單體應用架構到SOA架構,再從SOA架構到微服務架構。從基礎設施和服務架構兩條主線來看整體技術發展趨勢,大家可能會發現,不論是基礎設施還是服務架構,都是從大往小或者由巨到微的方向上演進,這種演變的本質原則無非是解決資源成本或者研發效率的問題。當然,Serverless也不例外,它也是用來解決這兩個方面的問題:

  • 資源利用率:Serverless產品支持快速彈性伸縮能力,能夠幫助業務提升資源利用率,在業務流量高峯時,業務的計算能力、容量自動擴容,承載更多的用戶請求,而在業務流量下降時,所使用的資源也會同時收縮,避免資源浪費。
  • 研發運維效率:在Serverless上開發人員一般只需要填寫代碼路徑或者上傳代碼包,平臺能夠幫助完成構建、部署的工作。開發人員不直接面對機器,對於機器的管理,機器是否正常以及流量高低峯的是否需要擴縮容等問題,這些統統不需要去考慮,由Serverless產品幫助研發人員去完成。這樣就能使他們從繁瑣的運維工作中解放出來,從DevOps轉向NoOps,更加專注於業務邏輯的實現。

雖然AWS在2014年就推出了第一個Serverless產品Lambda,但Serverless技術在國內的應用一直不溫不火。不過近兩三年,在容器、Kubernetes以及雲原生等技術的推動下,Serverless技術迅速發展,國內各大互聯網公司都在積極建設Serverless相關產品,探索Serverless技術的落地。在這種背景下,美團也於2019年初開始了Serverless平臺的建設,內部項目名稱爲Nest

截止到目前,Nest平臺已經過兩年的建設,回顧整體的建設過程,主要經歷了以下三個階段:

  • 快速驗證,落地MVP版本:我們通過技術選型、產品與架構設計、開發迭代,快速落地了Serverless產品的基本的能力,如構建、發佈、彈性伸縮、對接觸發源、執行函數等。上線後,我們推進了一些業務的試點接入,幫助驗證打磨產品。
  • 優化核心技術,保障業務穩定性:有了前期的試點業務驗證,我們很快發現產品的存在的一些穩定性相關的問題,主要有彈性伸縮的穩定性、冷啓動的速度、系統與業務的可用性、容器的穩定性。針對這些問題我們對各個問題涉及的技術點做了專項的優化改進。
  • 完善技術生態,落實收益:優化了核心技術點後,產品逐漸成熟穩定,但依然面臨生態性問題,如研發工具欠缺,上下游產品沒有打通、平臺開放能力不足等問題,影響或阻礙了產品的推廣使用。因此,我們繼續完善產品的技術生態,掃清業務接入使用障礙,落實產品的業務收益。

2 快速驗證,落地MVP版本

2.1 技術選型

建設Nest平臺,首要解決的就是技術選型問題,Nest主要涉及三個關鍵點的選型:演進路線、基礎設施、開發語言。

2.1.1 演進路線

起初Serverless服務主要包含FaaS(Function as a Service)和BaaS(Backend as a Service),近幾年Serverless的產品領域有所擴張,它還包含面向應用的Serverless服務。

  • FaaS:是運行在一個無狀態的計算容器中的函數服務,函數通常是事件驅動、生命週期很短(甚至只有一次調用)、完全由第三方管理的。業界相關FaaS產品有AWS的Lambda、阿里雲的函數計算等。
  • BaaS:是建立在雲服務生態之上的後端服務。業界相關BaaS產品包括AWS的S3、DynamoDB等。

面向應用的Serverless服務:如Knative,它提供了從代碼包到鏡像的構建、部署,以及彈性伸縮等全面的服務託管能力,公有云產品有Google Cloud Run(基於Knative)、阿里雲的SAE(Serverless Application Engine)。

在美團內部,BaaS產品其實就是內部的中間件以及底層服務等,它們經過多年的發展,已經非常豐富且成熟了。因此,在美團的Serverless產品演進主要在函數計算服務和麪嚮應用的Serverless服務兩個方向上。那究竟該如何演進呢?當時主要考慮到在業界FaaS函數計算服務相對於面向應用的Serverless服務來說,更加成熟且確定。因此,我們決定“先建設FaaS函數計算服務,再建設面向應用的Serverless服務”這樣一條演進路線。

2.1.2 基礎設施

由於彈性伸縮是Serverless平臺必備的能力,因此Serverless必然涉及到底層資源的調度和管理。這也是爲什麼當前業界有很多開源的Serverless產品(如OpenFaaS、Fission、Nuclio、Knative等)是基於Kubernetes來實現的,因爲這種選型能夠充分利用Kubernetes的基礎設施的管理能力。在美團內部基礎設施產品是Hulk,雖然Hulk是基於Kubernetes封裝後的產品,但Hulk在落地之初考慮到落地難度以及各種原因,最終未按照原生的方式來使用Kubernetes,並且在容器層採用的也是富容器模式。

在這種歷史背景下,我們在做基礎設施選型時就面臨兩種選項:一是使用公司的Hulk來作爲Nest的基礎設施(非原生Kubernetes),二是採用原生Kubernetes基礎設施。我們考慮到當前業界使用原生Kubernetes是主流趨勢並且使用原生Kubernetes還能充分利用Kubernetes原生能力,可以減少重複開發。因此,最終考量的結果是我們採用了原生Kubernetes作爲我們的基礎設施

2.1.3 開發語言

由於在雲原生領域的主流語言是Golang,並且Kubernetes的生態中,Golang是絕對的主導語言。但在美團,Java纔是使用最廣泛的語言,相比Golang,Java在公司內部生態比較好。因此,在語言的選型上我們選擇了Java語言。在Nest產品開發之初,Kubernetes社區的Java客戶端還不夠完善,但隨着項目的推進,社區的Java客戶端也逐漸豐富了起來,目前已經完全夠用了。另外,我們也在使用過程中,也貢獻了一些Pull Request,反哺了社區。

2.2 架構設計

基於以上的演進路線、基礎設施、開發語言的選型,我們進行了Nest產品的架構設計。

在整體的架構上,流量由EventTrigger(事件觸發源,如Nginx、應用網關、定時任務、消息隊列、RPC調用等)觸發到Nest平臺,Nest平臺內會根據流量的特徵路由到具體函數實例,觸發函數執行,而函數內部代碼邏輯可以調用公司內的各個BaaS服務,最終完成函數的執行,返回結果。

圖1 FaaS架構圖

在技術實現上,Nest平臺使用Kubernetes作爲基礎底座並適當參考了一些Knative的優秀設計,在其架構內部主要由以下幾個核心部分組成:

  • 事件網關:核心能力是負責對接外部事件源的流量,然後路由到函數實例上;另外,網關還負責統計各個函數的進出流量信息,爲彈性伸縮模塊提供伸縮決策的數據支撐。
  • 彈性伸縮:核心能力是負責函數實例的彈性伸縮,伸縮主要根據函數運行的流量數據以及實例閾值配置計算函數目標實例個數,然後藉助Kubernetes的資源控制能力,調整函數實例的個數。
  • 控制器:核心能力是負責Kubernetes CRD(Custom Resource Definition)的控制邏輯實現。
  • 函數實例:函數的運行實例。當事件網關流量觸發過來,會在函數實例內執行相應的函數代碼邏輯。
  • 治理平臺:面向用戶使用的平臺,負責函數的構建、版本、發佈以及一些函數元信息的管理等。

圖2 Nest架構圖

2.3 流程設計

在具體的CI/CD流程上,Nest又與傳統的模式有何區別呢?爲了說明這個問題,我們先來看一看在Nest平臺上函數的整體生命週期怎樣的?具體有以下四個階段:構建、版本、部署、伸縮。

  • 構建:開發的代碼和配置通過構建生成鏡像或可執行文件。
  • 版本:構建生成的鏡像或可執行文件加上發佈配置形成一個不可變的版本。
  • 部署:將版本發佈,即完成部署。
  • 伸縮:根據函數實例的流量以及負載等信息,來進行實例的彈性擴縮容。

就這四個階段來看,Nest與傳統的CI/CD流程本質區別在於部署和伸縮:傳統的部署是感知機器的,一般是將代碼包發佈到確定的機器上,但Serverless是要向用戶屏蔽機器的(在部署時,可能函數的實例數還是0);另外,傳統的模式一般是不具備動態擴縮容的,而Serverless則不同,Serverless平臺會根據業務的自身流量需要,進行動態擴縮容。後續章節會詳細講解彈性伸縮,因此這裏我們只探討部署的設計。

部署的核心點在於如何向用戶屏蔽機器?對於這個問題,我們抽象了機器,提出了分組的概念,分組是由SET(單元化架構的標識,機器上會帶有該標識)、泳道(測試環境隔離標識,機器上會帶有該標識)、區域(上海、北京等)三個信息組成。用戶部署只需在相應的分組上進行操作,而不用涉及到具體機器。能夠做到這些的背後,是由Nest平臺幫助用戶管理了機器資源,每次部署會根據分組信息來實時初始化相應的機器實例。

圖3 函數生命週期

2.4 函數觸發

函數的執行是由事件觸發的。完成函數的觸發,需要實現以下四個流程:

  • 流量引入:向事件源註冊事件網關的信息,將流量引入到事件網關。如針對MQ事件源,通過註冊MQ的消費組,引入MQ的流量到事件網關。
  • 流量適配:事件網關對事件源進入的流量進行適配對接。
  • 函數發現:對函數元數據(函數實例信息、配置信息等)的獲取過程,類似微服務的服務發現過程。事件網關接受的事件流量需要發送到具體的函數實例,這就需要對函數進行發現。這裏發現實質是獲取Kubernetes中的內置資源或者CRD資源中存儲的信息。
  • 函數路由:事件流量的路由過程,路由到特定的函數實例上。這裏爲了支持傳統路由邏輯(如SET、泳道、區域路由等)以及版本路由能力,我們採用了多層路由,第一層路由到分組(SET、泳道、區域路由),第二層路由到具體版本。同版本內的實例,通過負載均衡器選擇出具體實例。另外,通過該版本路由,我們很輕鬆的支持了金絲雀、藍綠髮布。

圖4 函數觸發

2.5 函數執行

函數不同於傳統的服務,傳統的服務是個可執行的程序,但函數不同,函數是代碼片段,自身是不能單獨執行的。那流量觸發到函數實例後,函數是如何執行的呢?

函數的執行的首要問題是函數的運行環境:由於Nest平臺是基於Kubernetes實現的,因此函數一定是運行在Kubernetes的Pod(實例)內,Pod內部是容器,容器的內部是運行時,運行時是函數流量接收的入口,最終也是由運行時來觸發函數的執行。一切看起來是那麼的順利成章,但我們在落地時是還是遇到了一些困難,最主要的困難是讓開發同學可以在函數內無縫的使用公司內的組件,如OCTO(服務框架)、Celler(緩存系統)、DB等。

在美團的技術體系中,由於多年的技術沉澱,很難在一個純粹的容器(沒有任何其他依賴)中運行公司的業務邏輯。因爲公司的容器中沉澱了很多環境或服務治理等能力,如服務治理的Agent服務以及實例環境配置、網絡配置等。

因此,爲了業務在函數內無縫的使用公司內的組件,我們複用公司的容器體系來降低業務編寫函數的成本。但複用公司的容器體系也沒那麼簡單,因爲在公司內沒有人試過這條路,Nest是公司第一個基於原生Kubernetes建設的平臺,“第一個喫螃蟹的人”總會遇到一些坑。對於這些坑,我們只能在推進過程中“逢山開路,遇水搭橋”,遇到一個解決一個。總結下來,其中最核心的是在容器的啓動環節打通的CMDB等技術體系,讓運行函數的容器與開發同學平時申請的機器用起來沒有任何區別。

圖5 函數執行

2.6 彈性伸縮

彈性伸縮的核心問題主要有三個:什麼時候伸縮,伸縮多少,伸縮的速度快不快?也就是伸縮時機、伸縮算法、伸縮速度的問題。

  • 伸縮時機:根據流量Metrics實時計算函數期望實例數,進⾏擴縮。流量的Metrics數據來自於事件網關,這裏主要統計函數的併發度指標,彈性伸縮組件每秒中會主動從事件網關獲取一次Metrics數據。
  • 伸縮算法:併發度/單實例閾值=期望實例數。根據收集的Metrics數據以及業務配置的閾值,通過算法計算出期望的實例數,然後通過Kubernetes接口設置具體實例數。整個算法看起來雖然簡單,但非常穩定、魯棒性好。
  • 伸縮速度:主要取決於冷啓動時間,在下個章節會詳細講解這塊內容。

除了基本的擴縮容能力,我們還支持了伸縮到0,支持配置最大、最小實例數(最小實例即預留實例)。伸縮到0的具體實現是,我們在事件網關內部增加了激活器模塊,當函數無實例時,會將函數的請求流量緩存在激活器內部,然後立即通過流量的Metrics去驅動彈性伸縮組件進行擴容,等擴容的實例啓動完成後,激活器再將緩存的請求重試到擴容的實例上觸發函數執行。

圖6 彈性伸縮

3 優化核心技術,保障業務穩定性

3.1 彈性伸縮優化

上面提到的伸縮時機、伸縮算法、伸縮速度這三要素都是理想情況下的模型,尤其是伸縮速度,當前技術根本做不到毫秒級別的擴縮容。因此,在線上實際場景中,彈性伸縮會存在一些不符合預期的情況,比如實例伸縮比較頻繁或者擴容來不及,導致服務不太穩定的問題。

  • 針對實例伸縮比較頻繁問題,我們在彈性伸縮組件內維護了統計數據的滑動窗⼝,通過計算均值來平滑指標,還通過延時縮容,實時擴容來緩解頻繁擴縮問題。另外,我們增加了基於QPS指標的伸縮策略,因爲QPS指標相對併發度指標會更加穩定。
  • 針對擴容來不及問題,我們採取提前擴容的手段,當達到實例閾值的70%就擴容,能夠比較好的緩解這個問題。除此之外,我們還支持了多指標混合伸縮(併發度、QPS、CPU、Memory),定時伸縮等策略,滿足各種業務需求。

下圖展示的是線上彈性伸縮的真實案例(其配置的最小實例數爲4,單實例閾值100,閾值使用率0.7),其中上半部分是業務每秒的請求數,下半部分是擴縮實例的決策圖,可以看到在成功率100%的情況下,業務完美應對流量高峯。

圖7 彈性伸縮案例

3.2 冷啓動優化

冷啓動是指在函數調用鏈路中包含了資源調度、鏡像/代碼下載、啓動容器、運行時初始化、用戶代碼初始化等環節。當冷啓動完成後,函數實例就緒,後續請求就能直接被函數執行。冷啓動在Serverless領域至關重要,它的耗時決定了彈性伸縮的速度。

所謂“天下武功,無堅不破,唯快不破”,這句話在Serverless領域也同樣受用。試想如果拉起一個實例足夠快,快到毫秒級別,那幾乎所有的函數實例都可以縮容到0,等有流量時,再擴容實例處理請求,這對於存在高低峯流量的業務將極大的節省機器資源成本。當然,理想很豐滿,現實很骨感。做到毫秒級別幾乎不可能。但只要冷啓動時間越來越短,成本自然就會越來越低,另外,極短的冷啓動時間對伸縮時函數的可用性以及穩定性都有莫大的好處。

圖8 冷啓動的各個階段

冷啓動優化是個循序漸進的過程,我們對冷啓動優化主要經歷了三個階段:鏡像啓動優化、資源池優化、核心路徑優化。

  • 鏡像啓動優化:我們對鏡像啓動過程中的耗時環節(啓動容器和運行時初始化)進行了針對性優化,主要對容器IO限速、一些特殊Agent啓動耗時、啓動盤與數據盤數據拷貝等關鍵點的優化,最終將啓動過程中的系統耗時從42s優化到12s左右。

圖9 鏡像啓動優化成果

  • 資源池優化:鏡像啓動耗時優化到12s,基本已經快達到瓶頸點,再繼續優化空間不大。因此,我們想能否繞開鏡像啓動的耗時環節?最終,我們採用了一個比較簡單思路“空間換時間”,用資源池方案:緩存一些已啓動的實例,當需要擴容時,直接從資源池獲取實例,繞開鏡像啓動容器的環節,最終效果很明顯,將啓動的系統耗時從12s優化到3s。這裏需要說明的是資源池自身也是通過Kubernetes的Depolyment進行管理,池中實例被取走會立即自動補充。

圖10 資源池優化成果

  • 核心路徑優化:在資源池優化的基礎上,我們再次精益求精,針對啓動流程中的下載與解壓代碼兩個耗時環節進行優化,過程中我們採用了高性能的壓縮解壓算法(LZ4與Zstd)以及並行下載和解壓技術,效果非常好。另外,我們還支持了通用邏輯(中間件、依賴包等)下沉,通過預加載的方式,最終將函數端到端的啓動耗時優化到2s,這就意味着擴容一個函數實例只需要2s(包含函數啓動)。如果排除掉函數自身的初始化啓動耗時,平臺側的耗時已在毫秒級別。

3.3 高可用保障

說到高可用,對於一般的平臺,指的就是平臺自身的高可用,但Nest平臺有所不同,Nest的高可用還包含託管在Nest平臺上的函數。因此,Nest的高可用保障需要從平臺和業務函數兩個方面着手。

3.3.1 平臺高可用

對平臺的高可用,Nest主要從架構層、服務層、監控運營層、業務視角層面都做了全面的保障。

  • 架構層:我們針對有狀態服務,如彈性伸縮模塊,採用了主從架構,當主節點異常時從節點會立即替換。另外,我們還實現了架構上的多層隔離。 橫向地域隔離:Kubernetes兩地兩集羣強隔離、服務(事件網關、彈性伸縮)集羣內兩地弱隔離(上海的彈性伸縮只負責上海Kubernetes集羣內的業務伸縮,事件網關存在兩地調用需求,需訪問兩地Kubernetes)。縱向業務線隔離:服務業務線強隔離,不同業務線使用不同集羣服務;在Kubernetes層的資源用namespace實現業務線弱隔離。

圖11 部署架構

  • 服務層:主要指的是事件網關服務,由於所有的函數流量都經過事件網關,因此事件網關的可用性尤爲重要,這層我們支持了限流和異步化,保障服務的穩定性。
  • 監控運營層:主要通過完善系統監控告警、梳理核心鏈路並推動相關依賴方進行治理。另外,我們會定期梳理SOP並通過故障演練平臺實施故障注入演練,發現系統隱患問題。
  • 業務視角層:我們開發了在線不間斷實時巡檢服務,通過模擬用戶函數的請求流量,實時檢測系統的核心鏈路是否正常。

3.3.2 業務高可用

對於業務高可用,Nest主要從服務層、平臺層兩個層面做了相關的保障。

  • 服務層:支持了業務降級、限流能力:當後端函數故障時,可通過降級配置,返回降級結果。針對異常的函數流量,平臺支持限制其流量,防止後端函數實例的被異常流量打垮。
  • 平臺層:支持了實例保活、多層級容災以及豐富的監控告警能力:當函數實例異常時,平臺會自動隔離該實例並立即擴容新實例。平臺支持業務多地區部署,在同地區將函數實例儘可能打散不同機房。當宿主機、機房、地區故障時,會立即在可用宿主機、可用機房或可用區重建新實例。另外,平臺自動幫業務提供了函數在時延、成功率、實例伸縮、請求數等多種指標的監控,當在這些指標不符合預期時,自動觸發告警,通知業務開發和管理員。

圖12 業務監控

3.4 容器穩定性優化

前文已提到,Serverless與傳統模式在CI/CD流程上是不同的,傳統模式都是事先準備好機器然後部署程序,而Serverless則是根據流量的高低峯實時彈性擴縮容實例。當新實例擴容出來後,會立即處理業務流量。這聽起來貌似沒什麼毛病,但在富容器生態下是存在一些問題的:我們發現剛擴容的機器負載非常高,導致一些業務請求執行失敗,影響業務可用性。

分析後發現主要是因爲容器啓動後,運維工具會進行Agent升級、配置修改等操作,這些操作非常耗CPU。同在一個富容器中,自然就搶佔了函數進程的資源,導致用戶進程不穩定。另外,函數實例的資源配置一般比傳統服務的機器要小很多,這也加劇了該問題的嚴重性。基於此,我們參考業界,聯合容器設施團隊,落地了輕量級容器,將運維的所有Agent放到Sidecar容器中,而業務的進程單獨放到App容器中。採用這種容器的隔離機制,保障業務的穩定性。同時,我們也推動了容器裁剪計劃,去掉一些不必要的Agent。

圖13 輕量級容器

4 完善生態,落實收益

Serverless是個系統工程,在技術上涉及到Kubernetes、容器、操作系統、JVM、運行時等各種技術,在平臺能力上涉及到CI/CD各個流程的方方面面。

爲了給用戶提供極致的開發體驗,我們爲用戶提供了開發工具的支持,如CLI(Command Line Interface)、WebIDE等。爲了解決現有上下游技術產品的交互的問題,我們與公司現有的技術生態做了融合打通,方便開發同學使用。爲了方便下游的集成平臺對接,我們開放了平臺的API,實現Nest賦能各下游平臺。針對容器過重,系統開銷大,導致低頻業務函數自身資源利用率不高的問題,我們支持了函數合併部署,成倍提升資源利用率。

4.1 提供研發工具

開發工具能夠降低平臺的使用成本,幫助開發同學快速的進行CI/CD流程。目前Nest提供了CLI工具,幫助開發同學快速完成創建應用、本地構建、本地測試、Debug、遠程發佈等操作。Nest還提供了WebIDE,支持在線一站式完成代碼的修改、構建、發佈、測試。

4.2 融合技術生態

僅支持這些研發工具還是不夠的,項目推廣使用後,我們很快就發現開發同學對平臺有了新的需求,如無法在Pipeline流水線、線下服務實例編排平臺上完成對函數的操作,這對我們項目的推廣也形成了一些阻礙。因此,我們融合這些公司的成熟技術生態,打通了Pipeline流水線等平臺,融入到現有的上下游技術體系內,解決用戶的後顧之憂。

4.3 開放平臺能力

有很多Nest的下游解決方案平臺,如SSR(Server Side Render)、服務編排平臺等,通過對接Nest的OpenAPI,實現了生產力的進一步解放。例如,不用讓開發同學自己去申請、管理和運維機器資源,就能夠讓用戶非常快速的實現一個SSR項目或者編排程序從0到1的創建、發佈與託管。

Nest除了開放了平臺的API,還對用戶提供了自定義資源池的能力,擁有了該項能力,開發同學可以定製自己的資源池,定製自己的機器環境,甚至可以下沉一些通用的邏輯,實現冷啓動的進一步優化。

4.4 支持合併部署

合併部署指的是將多個函數部署在一個機器實例內。合併部署的背景主要有兩個:

  • 當前的容器較重,容器自身的系統開銷較大,導致業務進程資源利用率不高(尤其是低頻業務)。
  • 在冷啓動耗時不能滿足業務對時延的要求的情況下,我們通過預留實例來解決業務的需求。

基於這兩個背景,我們考慮支持合併部署,將一些低頻的函數部署到同一個機器實例內,來提升預留實例中業務進程的資源利用率。

在具體實現上,我們參考Kubernetes的設計方案,設計了一套基於Sandbox的函數合併部署體系(每個Sandbox就是一個函數資源),將Pod類比成Kubernetes的Node資源,Sandbox類比成Kubernetes的Pod資源,Nest Sidecar類比成Kubelet。爲了實現Sandbox特有的部署、調度等能力,我們還自定義了一些Kubernetes資源(如SandboxDeployment、SandboxReplicaSet、SandboxEndpoints等)來支持函數動態插拔到具體的Pod實例上。

圖14 合併部署架構

除此之外,在合併部署的形態下,函數之間的隔離性也是不可迴避的問題。爲了儘可能的解決函數(合併在同一個實例中)之間的互相干擾問題,在Runtime的實現上,我們針對Node.js和Java語言的特點採取了不同的策略:Node.js語言的函數使用不同的進程來實現隔離,而Java語言的函數,我們採用類加載隔離。採用這種策略的主要原因是由於Java進程佔用內存空間相較於Node.js進程會大很多。

5 落地場景、收益

目前Nest產品在美團前端Node.js領域非常受歡迎,也是落地最廣泛的技術棧。當前Nest產品在美團前端已實現了規模化落地,幾乎涵蓋了所有業務線,接入了大量的B/C端的核心流量。

5.1 落地場景

具體的落地前端場景有:BFF(Backend For Frontend)、CSR(Client Side Render)/SSR(Server Side Render)、後臺管理平臺場景、定時任務、數據處理等。

  • BFF場景:BFF層主要爲前端頁面提供數據,採用Serverless模式,前端同學不需要考慮不擅長的運維環節,輕鬆實現了BFF向SFF(Serverless For Frontend)模式的轉變。
  • CSR/SSR場景:CSR/SSR指的是客戶端渲染和服務端渲染,有了Serverless平臺,不用考慮運維環節,更多的前端業務來嘗試使用SSR來實現前端首屏的快速展現。
  • 後臺管理平臺場景:公司有很多的後臺管理平臺的Web服務,它們雖然相較於函數是比較重的,但完全可以直接託管Serverless平臺,充分享受Serverless平臺極致的發佈和運維效率。
  • 定時任務場景:公司存在很多週期性任務,如每隔幾秒拉取數據,每天0點清理日誌,每小時收集全量數據並生成報表等,Serverless平臺直接與任務調度系統打通,只需寫好任務的處理邏輯並在平臺上配置定時觸發器,即完成定時任務的接入,完全不用管理機器資源。
  • 數據處理場景:將MQ Topic作爲事件源接入Serverless平臺,平臺會自動訂閱Topic的消息,當有消息消費時,觸發函數執行,類似定時任務場景,作爲用戶也只需寫好數據處理的邏輯並在平臺上配置好MQ觸發器,即完成MQ消費端的接入,完全不用管理機器資源。

5.2 落地收益

Serverless的收益是非常明顯的,尤其在前端領域,大量的業務接入已是最好的說明。具體收益,從以下兩個方面分別來看:

  • 降成本:通過Serverless的彈性伸縮能力,高頻業務資源利用率能提升到40%~50%;低頻業務函數通過合併部署,也能極大降低函數運行成本。
  • 提效率:整體研發研發效率提升約40%。
  • 從代碼開發來看,提供完備的CLI、WebIDE等研發工具,能夠幫助開發同學生成代碼腳手架,聚焦編寫業務邏輯,快速完成本地測試;另外,讓業務服務零成本具備在線查看日誌與監控的能力。
  • 從發佈來看,通過雲原生的模式,業務無需申請機器,發佈、回滾都是秒級別的體驗。另外,還能利用平臺天然能力,配合事件網關,實現切流、完成金絲雀測試等。
  • 從日常運維來看,業務無需關注機器故障、資源不足、機房容災等傳統模式該考慮的問題,另外,當業務進程異常時,Nest能夠自動完成異常實例的隔離,迅速拉起新實例實現替換,降低業務影響。

6 未來規劃

  • 場景化解決方案:接入Serverless的場景衆多,如SSR、後臺管理端、BFF等,不同的場景有不同的項目模板、場景配置,如伸縮配置、觸發器配置等,另外,不同的語言,配置也有所不同。這無形中增加了業務的使用成本,給新業務的接入帶來了阻礙。因此,我們考慮場景化的思路來建設平臺,將平臺的能力與場景強關聯起來,平臺深度沉澱各場景的基本配置和資源,這樣不同的場景,業務只需要簡單的配置就可以將Serverless玩轉起來。
  • 傳統微服務Serverless化:傳統微服務的Serverless化即是路線選型中提到的面向應用的Serverless服務。在美團使用最廣的開發語言是Java,公司內部存在大量的傳統的微服務項目,這些項目如果都遷移到函數模式,顯然是不現實的。試想如果這些傳統的微服務項目不用改造,也能直接享受Serverless的技術紅利,其業務價值不言而喻。因此,傳統微服務的Serverless化是我們未來拓展業務的一個重要方向。在實施路徑上,我們會考慮將服務治理體系(如ServiceMesh)與Serverless做技術融合,服務治理組件爲Serverless提供伸縮指標支持並在伸縮過程中實現精準的流量調配。
  • 冷啓動優化:當前雖然函數的冷啓動優化已經取得了較好的成績,尤其是平臺側的系統啓動耗時,提升空間已經非常有限,但業務代碼自身的啓動耗時還是非常突出,尤其是傳統Java微服務,基本是分鐘級別的啓動耗時。因此,後續我們的冷啓動優化會重點關注業務自身的啓動耗時,爭取極大降低業務自身的啓動時間。在具體優化方法上,我們會考慮採用AppCDS、GraalVM等技術,降低業務自身啓動耗時。
  • 其他規劃
  • 豐富完善研發工具,提升研發效率,如IDE插件等。
  • 打通上下游技術生態,深度融入公司現有技術體系,減少因上下游平臺帶來使用障礙。
  • 容器輕量化,輕量化的容器能夠帶來更優的啓動耗時以及更佳的資源利用率,因此,容器輕量化一直是Serverless的不懈追求。在具體落地上,準備聯合容器設施團隊一起推進容器中的一些Agent採用DaemonSet方式部署,下沉到宿主機,提升容器的有效載荷。

作者簡介

  • 殷琦、華珅、飛飛、志洋、奕錕等,來自基礎架構部應用中間件團隊。
  • 佳文、凱鑫,亞輝等,來自金融技術平臺大前端團隊。

招聘信息

美團基礎架構團隊誠招高級、資深技術專家,Base北京、上海。我們致力於建設美團全公司統一的高併發高性能分佈式基礎架構平臺,涵蓋數據庫、分佈式監控、服務治理、高性能通信、消息中間件、基礎存儲、容器化、集羣調度等基礎架構主要的技術領域。歡迎有興趣的同學投送簡歷到:[email protected]

| 本文系美團技術團隊出品,著作權歸屬美團。歡迎出於分享和交流等非商業目的轉載或使用本文內容,敬請註明“內容轉載自美團技術團隊”。本文未經許可,不得進行商業性轉載或者使用。任何商用行爲,請發送郵件至[email protected]申請授權。

相關文章