新浪科技訊 北京時間3月29日晚間消息,據報道,隨着人工智能(AI)技術在消費產品中得到了越來越廣泛的應用,人們對這項新技術的安全性也越來越感到擔憂,尤其是在大型科技公司紛紛裁減“人工智能倫理問題”團隊的情況下。

如今,微軟Meta谷歌亞馬遜和Twitter等公司都裁減了“負責任的人工智能團隊”(responsible AI teams)成員,這些團隊主要爲使用人工智能的消費產品的安全性提供建議。

業內專家對此表示,各大科技公司裁減相關人員的決定令人擔憂,因爲隨着越來越多的人開始試用新的人工智能工具,人們發現了這項技術可能被濫用。在OpenAI推出人工智能聊天機器人ChatGPT並取得成功後,人們的這種擔憂進一步加劇。

Alphabet旗下人工智能研究公司DeepMind的前倫理和政策研究員、研究機構Ada Lovelace Institute副主任安德魯·斯特雷特(Andrew Strait)稱:“令人震驚的是,在可以說比以往任何時候都需要更多這類團隊的時候,這些團隊的成員被解僱了。”

今年1月,微軟解散了其“道德和社會”團隊,該團隊領導了微軟在相關領域的早期工作。微軟表示,裁員人數不到10人,公司負責人工智能的辦公室仍有數百人在工作。

微軟人工智能業務主管娜塔莎·克蘭普頓(Natasha Crampton)稱:“我們已經顯著增加了‘負責任的人工智能’努力,並努力在整個公司範圍內將其制度化。”

與此同時,在新老闆埃隆·馬斯克(Elon Musk)的領導下,Twitter削減了一半以上的員工,其中包括人工智能倫理團隊。該團隊曾修復Twitter算法中的一處偏見,即裁剪圖片時更傾向於白人面孔。

對此,Twitter尚未發表評論。

另有知情人士稱,亞馬遜旗下的流媒體平臺Twitch上週裁減了其人工智能倫理團隊,要求所有開發人工智能產品的團隊對與偏見相關的問題負責。

對此,Twitch拒絕發表評論。

去年9月,Facebook母公司Meta解散了其“負責任的創新”團隊。該團隊由大約20名工程師和倫理學家組成,主要任務是在Instagram和Facebook上評估民權和道德。

對此,Meta尚未發表評論。

前Facebook人工智能倫理研究員、《算法爲人民》一書的作者喬希·西蒙斯(Josh Simons)對此表示:“負責任的人工智能團隊,是大型科技公司僅有的內部堡壘之一。他們被廢除的速度之快,讓大型科技公司的算法任由廣告利益擺佈,這損害了兒童、弱勢羣體的福祉和我們的民主。”

與此同時,另一個令人擔憂的問題是:ChatGPT等聊天機器人背後的大型語言模型,會做出一些虛假陳述,甚至達到了“以假亂真”的地步,這可能被用於傳播虛假信息或考試作弊等邪惡目的。

倫敦國王學院人工智能研究所所長邁克爾·勒克(Michael Luck)表示:“我們開始意識到,人們無法完全預見到這些新技術可能導致的一些後果,必須要密切關注它。”

相關文章