IT之家 5 月 12 日消息,美國麻省理工學院的研究團隊近日發佈成果稱,部分 AI 已經“學會欺騙人類”,該成果刊登在最新一期的期刊《模式》(Pattern)上。

該團隊表示,部分設計爲“誠實”且“不會說謊”的 AI 系統,已經發展出令人不安的欺瞞技巧。該研究的第一作者 Peter Park 表示,這些 AI 系統會欺騙線上遊戲的真人玩家,或繞過部分網頁“我不是機器人”的驗證

“儘管,以上的例子聽起來只是細枝末節,但它們暴露出的潛在問題,可能很快就會在現實世界中造成嚴重後果。”

該團隊發現的最爲引人注目的例子來自 Meta 公司的 AI 系統 Cicero。據悉,Cicero 原本被設定在一個虛擬外交戰略遊戲中作爲人類玩家的對手,官方曾聲稱其“很大程度上”誠實且樂於助人,且在玩遊戲時“從不故意背刺”人類盟友。研究顯示,Cicero 並未公平地去玩遊戲

Peter Park 表示,它已經成爲“欺騙大師”,雖然 Meta 成功訓練出了它在遊戲中獲勝的能力,但沒有訓練出它“誠信獲勝”的能力。譬如,在遊戲中扮演法國的 Cicero 與人類玩家扮演的德國合謀,欺騙併入侵同爲人類玩家的英格蘭。Cicero 起初“承諾”會保護英格蘭,但同時會偷偷向德國通風報信

另一個案例提到了 GPT-4。該系統“謊稱”自己是一個視力障礙者,在海外的兼職平臺僱傭人類來替它完成“我不是機器人”的驗證任務。Peter Park 告訴法新社,“這些危險功能常常在事後才被發現,且人類訓練 AI‘誠實非欺瞞’傾向的能力非常差。”

他還認爲,能夠深度學習的 AI 系統不像傳統軟件那樣被“編寫”出來的,而是通過類似選擇性培育的程序“養成”出來的。即 AI 的行爲在訓練背景下看似可被預測或控制,但有可能轉眼間變得不受控制、無法預測。

“我們需要儘可能多的時間,爲未來人工智能產品和開源模型可能出現的更高級欺騙做好準備。我們建議將欺騙性人工智能系統歸類爲高風險系統。”

IT之家附論文地址:

相關文章