文 | 晏秋

編輯 | 楊逍

2023年6月5日,美國芯片初創公司Etched.ai宣佈獲得536萬美元種子輪融資,本輪融資由Primary Venture Partners 領投,MAX Ventures和天使投資人、前Ebay首席執行官Devin Wenig參與跟投,目前公司估值約爲3400萬美元。本輪資金將用於製造大型語言模型(LLM)的AI加速芯片,形成規模化的初創團隊,進行RTL前端開發。

Etched.ai位於加尼福尼亞州,由兩名從哈佛大學輟學的學生Gavin Uberti和Chris Zhu共同創立。公司旨在構建超級智能硬件,設計用於語言模型推理的專用芯片。

這種芯片具有四個特點:一是類型單一,僅僅用於大型語言模型的運行,最大限度地降低軟件堆棧的複雜性;二是保留重要元素,摒棄了一些無法使用傳統的緩存或高精度數據的大型語言模型;三是技術成熟,加速芯片來自專業化的研發;四是具有成本效益上的優勢。

隨着transformer模型在複雜度和數量上的增加,高效的硬件成爲運行模型的剛需。在AI加速器領域,不少公司開始針對特定工作負載搭建專門的架構,數據中心的專用架構主要集中在DLRM(深度學習推薦模型),而邊緣地帶則以CNN(卷積神經網絡)爲主要模式。目前,Meta宣佈已經構建了自己的DLRM推理芯片。

因此,談及創業靈感,創始人Uberti表示,在爲Arm Cortex M4 和Cortex M7內核開發芯片時,他注意到在Arm的指令集中並沒有8位的MAC SIMD 指令,而是16位指令,這就意味着在MAC SIMD的操作過程中運營速度低下。“這個問題非常棘手,我每天都要面對和處理它,這也讓我和Chris一起思考,如何才能突破現有的技術瓶頸。同時,我們也在見證着大型語言模型領域的變革。” 面對這種市場需求,Uberti和Chris認爲,可以創建專門的芯片,提供更快捷、更高效的處理。比特幣挖礦芯片就是專用 ASIC 產品的一個典型代表。

然而,另一方面,如果 Etched.ai 芯片過於專業化,助力新型人工智能產業的騰飛,也可能會給人類帶來負面影響甚至社會性災難。“這的確可能成爲一個風險,但如果我們回顧四年前的 GPT-2,將它與Meta最近的 Llama 模型相比,它們實際上只有兩個區別——大小和激活函數。雖然它們的訓練方式有所不同,但這對推理來說並不重要。” Uberti說,“我們無需對科技的負面效應太過擔心,因爲創新不會憑空而來,整合現有資源就需要花費很長一段時間”。

現階段,Etched.ai在研發代號名爲Sohu的芯片。這是一個擁有大量內存的芯片,與處理 GPT-3的 Nvidia H100 PCIe卡相比,每美元的吞吐量可以增加140倍。Etched.ai還在不斷擴大團隊規模,努力吸收更多優秀的技術人才和工程師,並擬定於明年年初籌集A輪融資,2024年將推出Sohu芯片產品。

團隊成員方面,Etched.ai的首席執行官兼聯合創始人Gavin Uberti是世界奧林匹克數學競賽冠軍,也是人工智能編譯方面的專家。首席技術官兼聯合創始人Chris Zhu也是數學和人工智能領域的研究員,專注於硬件的研發。首席架構Mark Ross曾擔任過Cypress Semiconductor的CTO,深耕芯片設計多年。

相關文章