來源:福布斯中文網

Meta首席科學家楊立昆(Yann LeCun)是AI威脅論的反對者,但同時他也是AI樂觀派如英偉達首席執行官黃仁勳的反對者。如最近他公開批評了超級人工智能(AI)將在五年內趕超人類等觀點。楊立昆於今年的AI輿論戰場上幾乎挑戰了大多數意見領袖。

最近,在Meta AI實驗室成立十週年之際,他接受了《福布斯》的獨家採訪,並回顧了人工智能的發展歷程。在這期間,這家科技巨頭推出了多個AI新產品,可用於生成音頻、研究視頻和檢測語言模型中的偏見。

原標題:《Meta AI首席科學家楊立昆談及他的開源使命和ChatGPT帶來的“驚嚇”》

文|Richard Nieva

Meta首席科學家楊立昆(Yann LeCun)還記得,去年11月,OpenAI發佈ChatGPT時他的反應。當時OpenAI只是個名不見經傳的競爭對手,但該公司發佈的這款聊天機器人可以生成求職信、笑話、劇本等幾乎所有類型的文本,從而讓人工智能進入了主流視野,在硅谷也引發了新一輪研發熱潮。

對楊立昆來說,他的震驚並不來自這項技術本身。早在十年前,Meta就創立了Meta AI研究實驗室,多年來一直在研究大型語言模型,也就是ChatGPT的基礎技術。就在OpenAI發佈ChatGPT的幾周前,Meta也剛發佈了一個類似的聊天機器人Galactica,專門用於撰寫科學論文。但就在ChatGPT被視爲“救世主的二次降臨”(楊立昆接受《福布斯》採訪時如此描述)之際,Meta的這款軟件卻在X(原Twitter)上遭到了廣泛的批評,這讓他感到有些不解和惱火。

“令我驚訝的是,如果你把這個工具提供給人們,而它不是來自一家大型科技公司,那麼人們就會被它打動,並開始使用它,”楊立昆說。“它對公衆領域和公衆看法造成的影響對每個人而言都是意料之外的,對OpenAI來說也是如此。”

在Meta工作時,大公司的這種包袱可能帶來一些職業危險。多年來,Meta一直備受爭議——干預選舉進程、提供虛假信息、危害青少年健康,所有這些醜聞都使Meta成爲了華盛頓政治家和監管機構的攻擊目標,也削弱了許多用戶對該平臺的信任。這是否也影響了公衆對Meta的研發部門的看法呢?

“不,我想——我的意思是——確實會有影響,”楊立昆在一通轉折之後承認了這一點。“Meta正在慢慢從形象問題中恢復,”他笑着說。“情況正在好轉,但負面態度肯定存在。”

無論如何,ChatGPT引發了人工智能競賽,也開啓了Meta的FAIR實驗室的新時代。2013年,該實驗室作爲Facebook AI Research成立(兩年前,Facebook更名爲Meta,“F”的意義也改爲了“Fundamental”,即基礎的),旨在實現人工智能領域的基礎科學突破。十年過去了,隨着人工智能成爲了行業內最熱門的技術,Meta成爲了全球最強大公司之一,該實驗室也成了該公司最重要的部門之一。

楊立昆表示,去年,Meta一直將AI用作新產品的“核心”,而不僅僅是在幕後提供支持。雖然該實驗室早期的工作集中於圖像識別等任務,但生成式AI的蓬勃發展使其研究方向有所傾斜。今年二月,Meta發佈了大語言模型LLaMA,旨在與OpenAI的GPT抗衡。該模型迄今已被Shopify和DoorDash等公司用於支持AI工具。在此過程中,FAIR成爲開源研究的堅決支持者。關於人工智能安全和開放合作帶來的進步之間的權衡,業內一直存在激烈的爭論。如果一切按計劃進行,Meta將會有更多產品問世,尤其是元宇宙,這是Meta首席執行官馬克·扎克伯格(Mark Zuckerberg)花費數十億美元、以公司爲賭注的重要投資。

Meta的AI研究副總裁喬爾•皮諾(Joelle Pineau)表示,“有很多證據表明,元宇宙是終極的、沉浸式的、生成式的體驗,”她還描述了多個由AI生成的數字角色組成的世界,角色之間的對話由LLM大語言模型創建,而沉浸式環境則由AI製作的動畫設計提供。

這也是扎克伯格一再宣傳的未來圖景。不過,這位Meta的首席執行官表示,這可能是十年之後纔會發生的事。在當下,元宇宙收穫了無情地嘲笑、輓歌,又或是已被宣告失敗。皮諾提到,即使這樣,扎克伯格仍然堅信這一長期願景,因爲他看到了AI的潛力。

一個重要的信號

2013年12月,扎克伯格和Facebook前首席技術官邁克·施羅普夫(Mike Schroepfer)啓動了FAIR項目,並聘請紐約大學計算機科學教授楊立昆領導該項目。楊立昆在啓動儀式上寫道,新實驗室有一個雄心勃勃的長期目標,即實現AI的重大進步。扎克伯格和施羅普夫當時已經看到了人工智能的潛力,這歸功於AlexNet這一最新突破。AlexNet是一款開創性神經網絡架構,由計算機科學家亞歷克斯·克里熱夫斯基(Alex Krizhevsky)設計,可用於圖像識別和分類。

早期,在Facebook總部16號樓,公司的人工智能團隊就在扎克伯格的辦公室旁邊工作。“這樣的座位安排不是偶然的,”於2022年卸任首席技術官的施羅普夫這樣告訴《福布斯》,“這表明人工智能對公司未來的重要性。”(FAIR的其他分支機構分別位於紐約、蒙特利爾、特拉維夫和倫敦。)

多年來,FAIR取得了許多進步。2016年,FAIR發佈的機器學習框架PyTorch幫助開發人員構建生成式AI模型。還有名爲FastMRI的技術,顧名思義,利用AI將核磁共振成像(MRI)分辨率提高10倍。另一個名爲“Few-Shot Learner”的系統,旨在消除Facebook上有害的內容,比如疫苗虛假信息,並將處理時間從幾個月縮短到幾個星期。

FAIR最引人注目的項目之一是其早期的聊天機器人項目M。2015年8月,Facebook面向加利福尼亞州的約2000人隆重發布了這項獨家服務。它被宣傳爲一個神奇助手,幾乎可以爲你執行任何任務,比如爲你的母親訂花或預訂餐廳。

這款軟件在當時看起來幾乎好用到不像真的,但那是因爲它確實如此。Facebook 的人工智能算法的確處理了少量的用戶問題,但絕大多數任務都是由人類承包商以模擬方式完成的——例如打電話給花店送花,或者手動訪問餐廳網站預訂座位。“人們通常認爲,(這款軟件)大概能完成人們80%的需求,最後的20%才真正需要付費,”楊立昆告訴《福布斯》,“但事實並非如此,實際的情況比這更糟。”

Facebook表示,M的目標是進行一項複雜的實驗,探究人們會向聊天機器人提出什麼請求。不過,該公司在2018年正式終止了該項目,而且在ChatGPT的時代,這個項目聽起來顯得有些過時。

施羅普夫表示,M是研究與產品構建交叉的早期例子,這是該實驗室一開始就強調的重點。他還補充說,作爲首席技術官,他沒有部署更多的GPU芯片來訓練數據,這是他在人工智能領域最大的遺憾。

在週四的十週年活動上,FAIR將聚焦於新產品和工具,比如Audiobox,它允許用戶在系統中輸入語音或文本提示,並根據用戶的語音偏好創建相應的聲音片段(比如:聲音深沉但略顯慌亂)。該公司還推出了一套新的語言翻譯模型套件,名爲Seamless,其中包括一款模型,可以在翻譯時保留人的語調、節奏和音量。

FAIR還發布了一個新的開源視頻數據集,其中包含從不同視角拍攝的視頻。這些數據的一個應用領域可能是創建包含多個視角的AI操作視頻。該項目是Meta與卡內基梅隆大學、賓夕法尼亞大學等多所大學合作的結果。

該公司最後發佈了一款名爲ROBBIE的工具,用於幫助檢測生成式語言模型中的偏見——這也是其他研究人員和學術界廣泛關注的問題。該工具比較了來自五個不同大語言模型的AI生成的答案,並在種族、體型和政治意識形態等類別中尋找偏見。研究人員在一篇論文中寫道,這樣做的目的是讓開發人員通過這個工具衡量大語言模型的潛在危害,並“做出權衡”。

內部不正當行爲

二月份,FAIR進行了一次大規模發佈,推出了LLaMA,這是一個強大的語言模型,旨在與OpenAI的GPT、Google的LaMDA和PaLM等模型抗衡。但與這些競爭對手不同,LLaMA 2,即該模型的第二代,是開源的。這一決定源自扎克伯格,楊立昆表示,這是經過一場“激烈的內部辯論”後做出的決定。

這一決定令Meta和FAIR成爲開源研究的有力支持者,即公司發佈其代碼,並提供給用戶和外部研究人員。“我們的框架是,在啓動每個項目時都考慮開源,”皮諾說。“如果持續封鎖,閉門造車,公司內部很容易留藏不正當行爲。”雖然開源是FAIR的一個重要原則,但她補充說,這不是“絕對原則”,公司會根據項目的實際情況決定採用的方法。例如,Meta的新Audiobox模型只對申請使用的研究人員開源,名額有限。

在科技行業,關於開源的討論變得激烈。一方面,像Meta、Hugging Face和Mistral這樣的公司倡導透明度,以促進科學合作和進步,並防止黑箱問題出現。另一方面,還有一些公司,如OpenAI(儘管該公司名字中有“開放”一詞)和Google的DeepMind,支持封閉系統,他們的觀點是封閉可以減輕安全風險,防止不法分子濫用獲得的代碼。例如,白宮曾提出警告,開源AI模型可能助長合成生物學,從而引發下一輪疫情。OpenAI上個月發生了驚心動魄的董事會變動,在五天的風雲變幻中,其首席執行官山姆·阿爾特曼(Sam Altman)被撤職然後又恢復職務,部分原因就是OpenAI首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)提出的安全擔憂。

康納·利希(Connor Leahy)是倫敦人工智能安全初創公司Conjecture的首席執行官,他認爲Meta是最不負責任的人工智能參與者,因爲該公司採取的方法過於開放。“我們應該令核武器的設計透明化嗎?”他說。

不過,楊立昆對此類批評不以爲然。他說:“我們現在所掌握的系統仍然非常原始,因此,開源所帶來的好處遠遠超過與之相關的風險。”

相比之下,谷歌的DeepMind在代碼和研究方面則更爲保守。楊立昆在X上與DeepMind創始人戴密斯·哈薩比斯(Demis Hassabis)就此問題進行了一輪針鋒相對的對話,指責後者在呼籲人工智能監管時“製造恐懼”。哈薩比斯則反駁了楊立昆,稱公司需要在系統變得危險之前管理風險。當被問及對DeepMind的策略的看法時,楊立昆堅持己見,稱“他們變得越來越不開放了。”此前,就在谷歌將DeepMind實驗室更緊密地整合到公司的其他部門,該部門也遇到過這樣的批評。“我認爲這將減緩整個領域的進展,所以我對此不太高興。”

儘管FAIR倡導開源,但一些批評者認爲Meta只關心自己的商業利益,故意抨擊谷歌和OpenAI。在被問及這一看法時,楊立昆乾脆地說:“這不可能。”

“這不是我們的動機。我們的動機是,我們想要在這個領域取得進展,我們想要整個研究界都爲這一趨勢做出貢獻。”他說,“可能與某些有優越感的公司不同,我們並不認爲自己可以壟斷所有優秀的點子。”

谷歌DeepMind實驗室的發言人阿曼達·卡爾(Amanda Carl)則爲該實驗室對開源社區的貢獻進行了辯護,並援引了DeepMind的開源基礎設施和開發者工具作爲例子,包括transformer(LLMs的基礎技術)和TensorFlow(一個機器學習平臺)。卡爾在一份聲明中表示:“我們的開源歷史不言自明。”

一位曾與FAIR團隊共事的Facebook前員工告訴《福布斯》,對於Meta來說,AI的新前景可能會凸顯出一些老問題。“AI只是一個新的框架,在安全、內容節制和福祉方面,同樣存在挑戰和問題。人們的擔憂並沒有改變,AI只會繼續放大這一切。”爲了保護自己在該行業的職業前景,該員工要求匿名。

與此同時,AI在Meta的作用也在不斷增強,AI的蓬勃發展也吸引了扎克伯格的注意。“早在10年前,他就非常積極地參與了FAIR的工作,”皮諾說。“但在之後的很多年裏,他的參與度降低了很多。現在,他又開始積極參與進來。”

 

責任編輯:劉萬里 SF014

相關文章