2023年以來,所有人都知道AI非常的熱、非常的牛、非常的神,生成的文章辭藻華麗、寫的報告面面俱到,毫不謙虛地說,打敗80%甚至更多的人類。至於文生圖、作曲,甚至是視頻,都常有令人驚豔的作品。吹爆再吹爆,無需贅述……

對於設計師、文案策劃等職業,生成式AI確實已經幫助他們提高了迸發創意的速度,至少不必萬丈高樓平地起了。由於效率太高,這些崗位中的部分人可能反而要面對失業的煩惱。但對於普通人,AI除了獵奇,OpenAI、SD等時髦玩意兒好像對工作也沒啥實質性的幫助——畢竟平時不需要寫什麼四平八穩的文章,更不需要吟詩作賦,而且見多了AI的輸出,也實在覺得多是些正確的廢話,有用,但也沒啥大用。

所以,當某手機廠商說以後不生產“傳統手機”的時候,大家嗤之以鼻。當AIPC概念出現的時候,也難免覺得是營銷噱頭。但是,當我在2024英特爾商用客戶端AIPC產品發佈會的展區走了一圈之後,我發現AI比我想象中的更有用。是的,有用,不需要技驚四座,但,很有用。

端側AI的本地化落地帶來根本性的體驗變化

既然是商用PC,那就離不開生產力工具屬性。如果不買最新的硬件,玩不轉最新的軟件版本,很容易在鄙視鏈中打上“應用水平低下”的標籤。就拿Excel爲例吧,最早接觸Excel的時候,對效率的理解是會用公式,自動進行一些計算等。再然後,是宏代碼,自動執行數據的篩選、排序、導出等等,但這個難度還是比較大的。前幾年呢,又似乎流行起了Python,不去學一下那都不配談數據處理了。在言必稱數據可視化的當下,多數Excel用戶的真實情況是嘗試陌生的公式都需要臨時百度一下教程,現學現用,稍複雜的操作可能要屢敗屢試。

那PC前面加上“AI”,或者裝上某個AI助理,就可以趕時髦了嗎?我實際體驗之後,確定AIPC絕非如此淺薄。在AIPC上,有個專門做Office插件的公司叫ExtendOffice,就很好地解決了Excel用起來磕磕絆絆的痛點:你只要說出你的意圖,AI助手馬上直接在Excel表格上進行操作,譬如幣值轉換,甚至加密某一列數據。不需要去琢磨腦海裏的需求到底需要對應哪個公式或者功能纔可以實現,不用去查找教程,也跳過了stepbystep的學習,AI助手當場就處理完了。

這就體現了AIPC一個特別關鍵的賣點:本地化,且在此基礎上,可以嵌入工作流程,直接參與處理。我們中國人特別熱愛學習,總說“授人以魚不如授人以漁”,但“漁”的學習曲線太長了。在AIPC裏,魚和漁可以同時獲得,因爲漁夫(AI助手)隨時都在你眼前,更不要說它還可以當廚師、當祕書。

而且,剛纔說的“嵌入”並不侷限於某一個操作環節(類似於剛纔說的給Excel增加某一列數據、公式),而是可以生成一個多步驟的、跨軟件的操作。這也體現了大語言模型的優勢:可以接受較長的輸入並理解、分拆。譬如,我們完全可以對AIPC說:幫我將電腦靜音,然後打開上次閱讀的文檔,並把它發送給某某郵箱。需要強調的是,以目前的演示,不需要指定準確的文檔名,模糊的指示是可以理解的。還有一個讓我暗暗叫好的操作是批量修改文件名。在Windows下批量修改文件名是需要一些小技巧的,而且,只能改成有規律的文件名(數字、字母后綴)等,但在AI助手的幫助下,我們可以讓文件名更有個性:分別加上相關客戶的名字、不同的風格類型等等。這事說起來簡單,但其實需要挨個查看文件、提取關鍵信息,甚至根據自我理解去描述一些抽象的信息,然後挨個編寫新的文件名——過程非常瑣碎,文件多了就很費時間,但有了AI助手,這就是一句話的事。理解較長的上下文、多模態輸入等等,這些都必須依賴大語言模型的能力,但其實是在本地運行的,而非藉助雲端的推理能力。講真,應該沒有人會認爲整理文件名這種本地文件系統的操作還需要去雲端繞一圈吧?從端到雲之間隱藏的各種斷點確實限制了我們的想象力,因此,AIPC的這些本地操作真的打開了我的思路。

相對於大家早期較爲熟悉的基於雲端的AI工具,本地化還帶來了很多顯而易見的好處。譬如,斷網的情況下,也是可以完成自然語言的處理和其他的操作。這對於那些曾經重度依賴大模型能力,且遭遇過服務故障的早期大模型用戶而言,“天塌了”就是痛點。更不要說坐飛機之類的無網絡場景了,保持連續的可用性是一個很樸素的需求。

本地部署還可以解決數據安全問題。大模型爆火之初就屢屢傳出某某公司不慎泄露數據的新聞。沒辦法,用ChatGPT做簡報、檢查代碼等等確實很香啊,但前提是得把文檔上傳到雲端。這就導致許多企業一刀切禁止員工使用ChatGPT。後來的事情就是許多企業選擇利用開源大模型和內部數據訓練、微調私有的大模型,並部署在自有的服務器或雲主機上。更進一步的,現在我們看到規模200億參數的大模型可以部署在基於酷睿Ultra處理器的AIPC上。。

這種部署在AIPC上的大模型已經涉及教育、法律、醫學等多個垂直領域,可以生成包括知識圖譜、合同、法律意見等。譬如,將案情輸入中科創達的魔方智能法務助手,就可以進行案情分析,查找相關的法律條文,撰寫法律文書等。在這個場景中,很顯然案情的隱私是應該絕對保證的,律師不敢將這種文檔傳輸到雲端處理。醫生也有類似的約束,基於病例、基因數據等進行課題研究,如果能夠在PC上做基因靶點、藥理分析等,就不必採購服務器或者部署私有云了。

順便一提的是,AIPC上的大模型還讓訓練變得比想象中要簡單,把本地你能看到的文件“喂”給AI助理之類的就可以了。這就解決了以往聊天機器人那種活只幹了一半的“正確的廢話”。譬如,通過AI生成一個報價郵件模板是很輕鬆的,但是,一般來說價格這種關鍵信息,機器人不懂那是很正常的事情,所以需要人工進行完善。如果找一個人類來處理這種事情,那提前做一份價格表是合理要求吧?報價表、FAQ等都是屬於需要總結提煉的工作,然後才能更有效率地培訓新人——這是傳統觀念。本地的AI可以讓這個事情變得很簡單:讓它去讀Outlook郵箱就好了,片刻之後它自己就從歷史郵件中“學”到對應的報價。相應生成的郵件就不僅是模版級了,而是要素完善的,留給我們做的就只剩確認AI給的結果是否正確。而且這種學習成果是可以繼承下來的。

三大AI引擎撐起本地大模型

信息時代,我們已經經歷了幾次重大的科技變革。首先是個人電腦的普及,然後是互聯網的普及,再就是移動互聯網。現在我們正在面對的是AI對生產力的賦能甚至重構。我們今天講的AI不是在數據中心裏做訓練或者推理的大規模集羣,而是手邊的PC。AIGC、視頻製作等面向內容創作者的應用已經不斷給予大衆諸多震撼了。現在我們進一步看到的是AIPC已經可以實實在在的提升普通白領的工作效率:處理瑣碎事務,做簡報、寫郵件、查找法條等等,並且無縫銜接式地補齊我們的一些技能短板,類似於應用我們原本並不熟悉的的Excel功能、製作原以爲高大上的知識圖譜,諸如此類。這一切當然不僅僅依賴於大語言模型的“智能湧現”,也需要足夠強大的性能以支撐本地部署。

我們多次提到的大模型的“本地部署”,都離不開端側強勁的AI算力。所謂的AIPC,依靠的是酷睿Ultra處理器強悍的CPU+GPU+NPU三大AI引擎,其算力足夠支持200億參數的大語言模型在本地運行推理過程,至於插圖級的文生圖爲代表的AIGC應用相對而言倒是小菜一碟了。

CPU快速響應CPU可以用來運行傳統的、多樣化的工作負載,並實現低延遲。酷睿Ultra採用先進的Intel4製造工藝,可以讓筆記本電腦擁有多達16個核心22個線程,睿頻可高達5.1GHz。

GPU高吞吐量GPU非常適合需要並行吞吐量的大型工作負載。酷睿Ultra標配ArcGPU核顯,酷睿Ultra7165H包含8個Xe-LPG核心(128個矢量引擎),酷睿Ultra5125H包含7個。而且,這一代核顯還支持AV1硬編碼,可以更快速地輸出高質量、高壓縮率的視頻。憑藉領先的編解碼能力,ArcGPU確實在視頻剪輯行業積累的良好的口碑。隨着矢量引擎能力的大幅度提升,大量內容創作ISV的演示了基於AIPC的更高效率的智能摳像、插幀等功能。

NPU優異能效酷睿Ultra處理器全新引入的NPU(神經處理單元)能夠以低功耗處理持續存在、頻繁使用的AI工作負載,以確保高能效。譬如,火絨演示了利用NPU算力接管以往由CPU和GPU承擔的病毒掃描等工作,雖然速度較調用GPU略低,但能耗有明顯的優勢,特別適合安全這種後臺操作。我們已經很熟悉的視頻會議中常用的美顏、背景更換、自動居中等操作,也可以交給NPU運行。NPU也完全有能力僅憑一己之力運行輕量級的大語言模型,例如TinyLlama1.1,足以滿足聊天機器人、智能助手、智能運維等連續性的業務需求,而將CPU和GPU的資源留給其他業務。

針對商用AIPC,英特爾還推出了基於英特爾酷睿Ultra的vPro平臺,將AI和商用平臺的生產力、安全性、可管理性和穩定性有機結合。博通展示的基於vPro的AIPC智能化管理將傳統的資產管理從被動變爲主動:以往只能看到設備是否“還在”、“能用”,補丁升級等操作也是計劃內的;而AI加持的vPro可以自主分析設備的運行,從中發現隱患並自動匹配相應的補丁包、向運維人員推送建議等。貝銳向日葵有一個AI智能遠控報告方案,對PC的遠程監控不再僅僅是錄屏、截屏,而是可以自動、實時地識別和生成電腦的遠程工作記錄,包括標記一些敏感操作,如刪除文件、輸入特定的指令等。這也明顯減輕了運維人員檢查、回溯記錄的工作量。

未來已來:數以百計的ISV實際業務落地

亨利福特曾經這樣評價汽車的發明:“如果你問你的顧客需要什麼,他們會說需要一輛更快的馬車。”

“更快的馬車”是一種消費陷阱,認爲AI手機、AIPC只是噱頭的人們可能只是基於慣例認爲自己暫時不需要更新馬車。更深層次的,是大衆對AI的落地有一些誤解,表現爲兩種極端:一種極端是認爲那是新潮前衛的重度用戶、旗艦配置的事情,典型的場景是圖像視頻處理等;另一種極端是覺得是耳目一新的聊天機器人,類似於強化版的搜索引擎,有更好,無亦可。但實際上,AIPC的落地情況遠超許多人的想象:對於商用客戶而言,英特爾與全球超過100+個ISV深度優化合作,本土35+ISV在終端優化融合,創建包含300多項ISV特性的龐大AI生態系統,帶來規模空前的AIPC體驗!

而且,我並不認爲這個數量級的AI應用落地是畫餅或者“戰未來”。因爲在我眼裏,諸多AIPC解決方案的展示,宛如“OpenVINO聯歡會”。OpenVINO是英特爾開發的跨平臺深度學習工具包,意即“開放式視覺推理和神經網絡優化”。這個工具包其實在2018年就已經發布,數年來已經積累了大量計算視覺和深度學習推理應用,發展到IrisXe核顯時期,軟件、硬件的配合就已經很有江湖地位了。譬如依託成熟的算法商店,基於11代酷睿平臺可以很輕鬆的構建各式各樣的AI應用,從智慧安防的行爲檢測,到店鋪自動盤點,效果相當的好。現在,AIPC的核顯進化到Xe-LPG,算力倍增,OpenVENO積累的各式應用本身就會有更好的表現,可以說“地利”(具有延續性的Xe引擎)和“人和”(OpenVINO的ISV資源)早就是現成的。

真正引爆AIPC的是“天時”,也就是大語言模型步入實用化。大語言模型的突破很好地解決了自然語言交互和數據訓練的問題,極大地降低了普通用戶利用AI算力的門檻。前面我舉了很多嵌入辦公應用的例子,在這裏,我可以再舉一個例子:科東智能控制器的多模態視覺語言模型與機械臂的結合。機械臂是司空見慣的機器人應用,早就可以結合機器視覺做各種操作,移動、分揀物品等等。但物品的識別和操作,傳統上是是需要預訓練和編程的。結合大語言模型後,整套系統就可以做多模態的指令識別與執行了,譬如我們可以說:把手機放到那張紙上面。在這個場景中,我們不再需要教會機器人手機是什麼、紙是什麼,不需要給具體的座標,不需要規劃移動的路徑。自然語言的指令,攝像頭的圖像,這些多模態的輸入被很好地融合,並自行生成了執行指令給機械臂。對於這樣的工業場景,整套流程可以在一臺筆記本電腦等級的算力平臺上完成,數據不需要出廠。

所以,AIPC給我們帶來的,絕對不僅僅是“更快的馬車”,而是顛覆了PC的使用模式,拓展了用戶的能力邊界。盤點已有的ISV與解決方案,我們可以將AIPC的應用總結爲六大場景:

·AlChatbot針對特定行業和領域更加專業的問答。

·AIPC助理直接對PC操作,處理個人文件、照片、視頻等。

·AlOffice助手Office插件,提升辦公軟件使用效率。

·AI本地知識庫RAG(RetrievalAugmentedGeneration,檢索增強生成)應用,包括各類文本和視頻文件。

·AI圖像視頻處理圖像、視頻、音頻等多媒體信息的生成與後期處理。

·AIPC管理更加智能高效的設備資產及安全管理。

小結

基於酷睿Ultra的AIPC首先是更快、更強、更低功耗、更長待機的PC,這些硬件特性支撐的AI應用對我們的使用體驗、使用模式帶來了更深刻的改變。獲得“智能湧現”加持的PC不再僅僅是生產力工具,在某些場景中,它直接可以化身協作者甚至操作者。這背後既有微架構和生產工藝提升帶來的性能改進,也有大語言模型等新質生產力的賦能。

如果我們將CPU、GPU、NPU視作是AIPC的三大算力,相應的,也可以將AIPC讓AI本地化(端側)落地的價值歸納爲三大法則:經濟、物理、數據保密。所謂經濟,是數據在本地處理可降低雲服務成本,優化經濟性;物理則對應雲資源的“虛”,本地AI服務可以提供更好的及時性,更高的準確性,避免了雲與端之間的傳輸瓶頸;數據保密,是指用戶數據完全留在本地,防止濫用和泄露。

在2023年,大語言模型的狂飆成就了雲端的AI元年。2024年,大語言模型的端側落地開啓了AIPC元年。我們也期待AI在雲與端的交織發展當中不斷夯實應用,源源不絕地釋放強大生產力。(來源:益企研究院)

相關文章