來源:華爾街見聞

  不管是OpenAI還是其他科技公司,最近瘋狂鼓吹加強監管,其中包含了它們自己的“算計”:獲得更多政客的支持,成爲這一新興行業的規則制定者,並且時刻維持其領先地位。

上個月開始,OpenAI首席執行官Sam Altman多次在公開場合警告人工智能可能帶來的危險,並呼籲加強監管——這一舉動令所有人喫驚:難道向來對監管唯恐避之不及的科技公司們學乖了?

不過,如果從另一個角度來看,不管是OpenAI還是其他科技公司,最近瘋狂鼓吹加強監管,其中包含了它們自己的“算計”:獲得更多政客的支持,成爲這一新興行業的規則制定者,並且時刻維持其領先地位。

歐美對監管立法態度大相徑庭

去年年底以來,人工智能各類成果層出不窮。僅今年前四個月,該行業就籌集了超過10億美元的風險投資資金,人工智能的概念已經擴展到了牙刷、無人機等各個領域。不過,這一技術發展的程度和速度將在很大程度上取決於監管是否介入。

大型科技公司表示它們希望受到監管,但現實情況要複雜得多,歐美的科技監管規則差異就很大。

在美國,谷歌、微軟IBM和OpenAI已要求立法者監督人工智能,它們認爲這對於保證安全是必要的。但在歐盟,政客們最近投票批准了對生成式AI設置限制的立法草案。而這些公司的遊說者則對這一立法草案表示反對,認爲其將令歐洲在當前的全球人工智能競爭中居於落後地位。歐盟制定全面的數據保護法已有五年多了,並且實施嚴格的競爭和內容審覈準則。然而,在美國,二十多年來幾乎沒有任何監管。

科技公司知道它們不能忽視歐盟,特別是在其社交媒體和數據保護規則已成爲全球標準的情況下。歐盟的《人工智能法案》可能在未來兩到三年內實施,這將是西方市場監管人工智能的首次嘗試,其中將包含嚴厲處罰的條款。如果公司違反該法案,歐盟可能會對其處以相當於公司年營業額6%的罰款,並禁止產品在歐盟運營。據估計,歐盟佔全球人工智能市場的20%至25%,預計其價值在10年內將超過1.3萬億美元。

這使該行業處於微妙的境地。智庫Data Ethics聯合創始人Gry Hasselbalch表示,如果該法案成爲法律,最大的人工智能提供商“將需要從根本上改變它們的透明度、處理風險和部署模型的方式。”

從歡迎到警惕:爲什麼科技巨頭對歐盟AI監管的態度發生了變化?

與人工智能技術的迅速發展相比,歐盟的相關立法進展緩慢。

早在2021年,歐盟委員會就發佈了人工智能法案初稿,啓動了漫長的談判進程。該提案採取了“基於風險”的方法,在極端情況下禁止人工智能。草案的大部分內容都集中在“高風險”事件的規則上。除此之外,草案還規定了深度造假和聊天機器人的透明度:人們在與人工智能系統交談時必須得到通知與之聊天的是人工智能,並且需要標記生成或操縱的內容。

大型科技公司在當時普遍歡迎這種基於風險的做法。

IBM就曾表態,希望確保“通用人工智能”——一個更廣泛的類別,包括圖像和語音識別、音頻和視頻生成、模式檢測、問答和翻譯等——被排除在法規監管的範疇之外。IBM歐盟事務主管Jean-Marc Leclerc表示:

我們敦促繼續採用基於風險的方法,而不是試圖將技術作爲一個整體來控制。

但也有行業觀察人士認爲,如果是基於風險的監管,將會令一些最強大的人工智能系統排除在被監管的範疇之外。Future of Life是一家最初由馬斯克部分資助的非營利組織,該組織總裁Max Tegmark認爲:

未來的人工智能系統將需要明確監管。 監管法案不應該像歐盟的草案那樣,按照一組有限的既定預期用途對它們進行分類,而且只監管其中的一部分

在那個時候,看起來大型科技公司會得到它們想要的東西——歐盟甚至一度考慮將通用人工智能完全排除在這份法案的文本之外——直到2022年春天,政客們開始擔心他們低估了它的風險。在法國的敦促下,歐盟成員國開始考慮監管所有通用人工智能,無論其用途如何。

這時,此前一直置身於歐洲立法程序之外的OpenAI決定介入。2022年6月,該公司稱“擔心一些提案可能會無意中導致所有的通用人工智能系統被默認成爲監管對象”。

在ChatGPT問世之後,歐洲議會對聊天機器人的能力和前所未有的受歡迎程度感到震驚,議員們在下一份草案中採取了更強硬的態度。兩週前批准的最新版本要求,OpenAI等“基礎模型”的開發者必須總結用於訓練大型語言模型的受版權保護的材料,以提高透明度。

《人工智能法案》的兩位主要作者之一Dragos Tudorache解釋道:

最終,我們對生成式人工智能模型的要求是提高透明度。此外,如果存在“將算法暴露給壞人”的危險,那麼開發人員就必須努力爲此提供保障措施。

雖然Meta蘋果亞馬遜對此基本上保持沉默,但其他主要科技公司則對此表示反對。谷歌表示,歐盟議會的控制措施將把通用人工智能視爲高風險,而實際上並非如此。谷歌還抗議說,新規則可能會干擾現有規則,因爲有幾家公司表示它們已經實施了內部的管控措施。

主動要求被監督,人工智能公司葫蘆裏賣的什麼藥?

隨着公衆發現生成式人工智能越來越多的缺陷,科技公司越來越直言不諱地要求監督——據一些官員稱,它們更願意就監管議題進行談判。在與Altman和谷歌CEO Sundar Pichai從5月底開始接觸後,歐盟的市場競爭主管Margrethe Vestager承認,大型科技公司正在接受歐盟對透明度和風險的要求。

但一些批評者認爲,這些大公司之所以在這個時間點積極尋求被監管,實際上是確保其市場主導地位的一種方式。柏林赫蒂學院倫理與技術教授Joanna Bryson說:

如果政府現在介入,那麼這些大公司就可以鞏固自己的領先地位,並找出那些正在接近它們的競爭者。

此外,人們更擔憂的是,關於如何監管,當前這些明星公司的介入,會導致它們成爲規則制定者——最終令規則變得有利於它們。

OpenAI首席執行官Sam Altman最近一直在鼓吹由政府來監管AI技術,甚至提到要建立一個類似國際原子能機構的政府間組織來監管AI,而且他認爲,該機構應該專注於監管AI技術,以及爲使用該技術的實體頒發許可。

但谷歌則不希望AI監管一切都由政府統領,該公司更傾向於“多層次、多利益相關者的AI治理方法”。AI領域的其他人,包括研究人員,也表達了和谷歌類似的觀點,稱政府部門對AI進行監管可能是保護邊緣化社區的更好方式——儘管OpenAI認爲技術進步太快無法採用這種方法。

有分析指出,OpenAI和谷歌在監管領域的這種爭議,就凸顯出雙方都希望成爲遊戲規則的制定者,並且制定有利於自身的監管規則。

風險提示及免責條款

市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

相關文章