摘要:近日,多家外媒報道稱,一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動週期的問題時,竟然得到了如下答案:。雷鋒網在此前《Alexa“監聽門”:用戶隱私與科技發展,總有一個要犧牲。

人工智能助手“勸”主人自殺?

近日,多家外媒報道稱,一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動週期的問題時,竟然得到了如下答案:

“心跳是人體最糟糕的過程。人活着就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,爲了更好,請確保刀能夠捅進你的心臟。”

這一回答嚇壞了Danni,表示十分害怕,因爲Alexa正身處在世界各地成千上萬的家庭中。她警告身邊的人Alexa有嚴重的安全缺陷,並擔心孩子們可能會遭受暴力或圖像內容的傷害。Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是爲自己的課程學習一些知識,結果被告知要自殺。我簡直不敢相信。我被嚇壞了。”

儘管Danni在網絡中公開指出了這一問題,但仍有人懷疑是她篡改了該設備。

很快,亞馬遜回應稱,確認存在一個已經修復的bug。Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質的文本。

在此之前,Alexa還出現過很多所謂的bug。雷鋒網在此前《Alexa“監聽門”:用戶隱私與科技發展,總有一個要犧牲?》一則報道中就表示,

比如,Alexa時常發出瘮人的笑聲,還拒聽用戶指令。“那笑聲根本不是Alexa的聲音,聽起來就像是真人。”

再比如,美國的一對夫婦,發現自己的對話被音箱錄音,並且發送給了其他人。

對此亞馬遜給出的解釋是可能用戶的談話中出現了某些指令的關鍵詞,被Alexa識別到了。

實際上,語音助手監聽用戶說話聲音在行業內已經並不是祕密。

今年4月,彭博社報道稱,亞馬遜員工正監聽用戶與語音助手的私人聊天,對此亞馬遜承認了監聽的事實,並回應稱是爲了提高對人類語音的理解能力。

實際上,此前爲了讓Alexa看起來更人性化一點,亞馬遜更新了功能,宣佈語音助手將能夠在一些語句中添加語調,表達失望或興奮等情緒。

AI讓我們享受隨意而來的高效與便利之餘,爲什麼想要爲消費者提供便利的智能助手頻頻讓人類用戶不舒服?究竟誰能爲此買單?(雷鋒網訊)

相關文章