微軟(MSFT.US)的一名軟件工程師致信該公司董事會、議員和美國聯邦貿易委員會,警告這家科技巨頭在保護其人工智能圖像生成工具Copilot Designer免受濫用和暴力內容的影響方面做得不夠。

微軟的人工智能工程師Shane Jones表示,他在OpenAI最新的DALL-E圖像生成器模型中發現了一個安全漏洞,該漏洞允許他繞過防止該工具創建有害圖像的護欄。DALL-E模型嵌入了微軟的許多人工智能工具中,包括Copilot Designer。

據Jones發給FTC的一封信顯示,他向微軟報告了這一發現,並“一再敦促”微軟“在更好的保護措施出臺之前,將‘Copilot Design從公衆使用中移除”。

Jones寫道:“雖然微軟公開宣傳Copilot Designer是一種安全的人工智能產品,適合所有人使用,包括任何年齡的兒童,但公司內部清楚地意識到,該產品正在製造有害的圖像,可能會冒犯消費者,不適合消費者。Copilot Designer不包括必要的產品警告或信息披露,消費者需要意識到這些風險。”

在給FTC的信中表示,Jones指出,Copilot Designer傾向於在其創作的一些圖片中隨機生成一個“不恰當的、性物化的女性形象”。他還表示,人工智能工具創造了“各種其他類別的有害內容,包括:政治偏見、未成年人飲酒和吸毒、濫用公司商標和版權、陰謀論和宗教等等”。

FTC證實收到了這封信,但拒絕進一步置評。

這一猛烈抨擊呼應了人們對人工智能工具產生有害內容趨勢的日益擔憂。上週,微軟表示,它正在調查有關其Copilot聊天機器人產生用戶稱之爲令人不安的反應的報道,其中包括有關自殺的複雜信息。今年2月,谷歌(GOOGL.US)的旗艦人工智能產品Gemini因在被提示創建人物圖像時產生歷史上不準確的場景而受到指責。

Jones還寫信給微軟董事會的環境、社會和公共政策委員會。Jones在信中表示:“我認爲我們不需要等待政府監管來確保我們對消費者透明地瞭解人工智能的風險。考慮到我們的企業價值觀,我們應該自願和透明地披露已知的人工智能風險,特別是在人工智能產品積極向兒童推銷的情況下。”

微軟在一份聲明中表示,它“致力於根據公司政策解決員工的任何和所有擔憂,並感謝員工在研究和測試我們的最新技術以進一步提高其安全性方面所做的努力。”

OpenAI沒有回應置評請求。

Jones表示,在過去的三個月裏,他多次向公司表達了自己的擔憂。今年1月,他寫信給代表華盛頓州的民主黨參議員Patty Murray和Maria Cantwell,以及衆議院衆議員Adam Smith。在一封信中,他要求立法者調查“人工智能圖像生成技術以及製造和銷售這些產品的公司的公司治理和負責任的人工智能實踐”的風險。

這些議員沒有立即回應置評請求。

責任編輯:於健 SF069

相關文章