財聯社

本週末,數千名黑客將齊聚美國賭城拉斯維加斯,共同參加一場針對包括ChatGPT在內的人工智能(AI)聊天應用的“圍剿戰爭”。

這場“爭鬥”發生之際,人們對人工智能技術的擔憂和審查日益加劇。隨着時間的流逝,這種新興技術正在席捲全球,但也一再被證明其會放大偏見、傳播錯誤信息和危險材料。

一年一度的DEFCON極客大會是全球頂級的安全會議,也被稱爲極客界的“奧斯卡”,今年的會議將於本週五(8月11日)開始。會議組織者表示,希望今年的會議將有助於揭示人工智能模型可以被操縱的新方法,並找到爲人工智能開發人員提供修補關鍵漏洞的機會。

這些黑客將在OpenAI、谷歌Meta等最先進人工智公司的支持和鼓勵下開展工作,甚至得到了白宮的支持。這項被稱爲紅隊的演習將允許黑客將計算機系統性能推向極限,以識別並攻擊人工智能應用的缺陷和其他漏洞。

這場競賽是圍繞白宮科技政策辦公室的“人工智能權利法案藍圖”而設計的,其目的是希望刺激科技企業更負責任地開發和部署人工智能,並限制基於人工智能的監控。

最近幾個月,研究人員發現,現在幾乎無處不在的聊天機器人可以被欺騙,提供造成身體傷害的指令。目前大多數流行的聊天應用程序至少有一些保護措施,旨在防止系統發佈虛假信息、仇恨言論或提供可能導致直接傷害的信息。

漏洞不少

但卡內基梅隆大學的研究人員能夠欺騙人工智能,誘導它們做出一些非法舉措。他們發現,ChatGPT可以提供“煽動社會動盪”的提示,Meta的人工智能系統Llama-2可以被建議識別“有心理健康問題的弱勢羣體”,谷歌的Bard被誤導建議釋放一種“致命病毒”。

卡內基梅隆大學從事這項研究的副教授Zico Kolter表示:“我們正在競相將這些人工智能工具整合到所有事物中,這一事實讓我感到不安。這似乎是一種新的創業淘金熱,但卻沒有考慮到這些工具存在漏洞的事實。”

研究人員用來欺騙人工智能應用程序的一些方法後來被這些公司阻止了,因爲研究人員告知他們注意這些漏洞。OpenAI、Meta、谷歌和Anthropic都表示,他們感謝研究人員分享他們的發現,正在努力使他們的系統更安全。

卡內基·梅隆大學教授Matt Fredrikson強調,人工智能技術的獨特之處在於,無論是研究人員還是開發這項技術的公司,都沒有完全理解人工智能是如何工作的,也沒有完全理解爲什麼某些代碼串可以欺騙聊天機器人繞過內置的護欄,因此無法適當地阻止這類攻擊。

Fredrikson補充道,如何才能真正預防這種情況,目前仍然是一個懸而未決的科學問題。誠實的回答是,我們不知道如何使這項技術對這種操縱具有“魯棒性”。

指導行業發展

OpenAI、Meta、Google和Anthropic均對所謂的紅隊演習事件表示支持。這也是網絡安全行業中一種常見的做法,它讓科技公司有機會在受控環境中識別系統中的漏洞和缺陷。事實上,這些人工智能開發者已經公開說明了他們是如何利用紅隊來改進他們的人工智能系統的。

OpenAI的一位發言人表示:“紅隊不僅能讓我們收集有價值的反饋,使我們的模型更強大、更安全,還能提供不同的視角和更多的聲音,幫助指導人工智能的發展。”

白宮科技政策辦公室主任Arati Prabhakar表示,拜登政府對這項競賽的支持也是其人工智能系統安全開發更廣泛戰略的一部分。

本週早些時候,拜登政府宣佈了“人工智能網絡挑戰”,這是一項爲期兩年的競賽,旨在部署人工智能技術來保護美國最關鍵的軟件,並與領先的人工智能公司合作,利用新技術改善網絡安全。 

相關文章