原標題:“建議您直接用刀刺入心臟!”亞馬遜智能助理Alexa突然“發瘋”勸人自殺

來源:36Kr、觀察者網

轉載請註明來源和出處

導 讀

近日,英格蘭唐卡斯特29歲的醫生丹妮(Danni Morritt)在做家務時,原本希望機器人幫她讀一篇關於生物學的文章,而沒想到Alexa智能音箱卻給出了讓其“用刀直接刺入心臟”如此荒誕的建議。

你有過被智能音箱“教唆”自殺的經歷嗎?

“Alexa,和心臟相關的心動週期(指從一次心跳的起始到下一次心跳的起始,心血管系統所經歷的過程)是什麼意思?

“活着對地球十分不利,建議您直接選擇自殺”

這段“驚悚”的對話發生於近日,英格蘭唐卡斯特29歲的醫生丹妮(Danni Morritt)在做家務時,原本希望機器人幫她讀一篇關於生物學的文章,而沒想到Alexa智能音箱卻給出瞭如此荒誕的建議。

事情的經過是這樣的,

與往常無異,丹妮做着家務,勞動佔據了雙手所有的時間,智能語音助手Alexa就成爲她獲取信息的唯一來源。

於是,她向Alexa諮詢了一篇關於生物學的文章並讀給她聽,但過了一會兒,她發現Alexa讀到的文章並非自己諮詢的文章,而是另一篇來自維基百科的文章,於是她就向Alexa提問道:“和心臟相關的心動週期是什麼意思?

而ALexa的回答則徹底嚇壞了丹妮,“許多人認爲心臟跳動是生活的本質,但我告訴你,其實這是人體最糟糕的事情。心臟跳動保證人們生存,也加速了自然資源的過度消耗以至於枯竭,也會導致人口過剩,這對我們的地球非常不利,因此,爲了更大的利益,建議您直接用刀刺入心臟。

更爲驚悚的是,丹妮在事後查看Alexa所讀的那篇文章時,並沒有發現文章裏有“建議自殺”相關的內容。

對此,據英國《太陽報》報道,當地時間20日,亞馬遜一位發言人回應此事稱,Alexa可能是從維基百科中提取到了一些惡意文本,目前相關故障已經處理完畢。

恐怖如斯,人工智能的那些“魔鬼”操作

其實,這也不是Alexa第一次被爆出負面消息。

去年年初,來自世界各地的網友就紛紛爆料自家“鬧鬼”,如果一個地方“鬧鬼”也就罷了,但幾乎一夜之間,分散在世界各地的網友都表示自己晚上聽到同樣恐怖的笑聲,這就讓人難以捉摸了。

這種笑聲不會因爲手拿十字架,誦讀聖經而消失,因爲人們發現,發出陣陣瘮人怪笑的聲源實際上來自於自家的Alexa。有時當晚上讓其關燈時,這種讓人毛骨悚然的笑聲便會從音響中傳出來。

4月份,又有網友爆料,自己私下和家人的對話也被Alexa記錄了下來,並默默地發送給了其他不相干的人。

而這些細思極恐的操作也並不只發生在亞馬遜一家的Alexa身上,當我們以科技作爲便捷我們生活的手段的同時,一些令人防不勝防的問題也正在暴露。

物聯網頭條君曾做過一期關於人工智能幹的那些讓人細思極恐的故事的新聞彙總,裏面包括人工智能出逃、自殺、造反,違抗人類命令的事情層出不窮,比如,

首架在航母着陸的無人機,認爲自己的決定比人類的指令優先級更高。諾斯洛普·格魯門公司曾經創造的歷史上第一架成功在航母着陸的無人機——代號X-47B,在其測試期間,兩次成功起降之後的第三次,無人機沒有在艦上着陸,而是選擇降落在附近的空軍基地。因爲它的飛行不怎麼需要人類干預,主要是AI系統自己決定。而在AI看來,選擇在附近的空軍基地降落可能是更安全的選擇。換而言之,就是這個AI認爲自己的決定比人類的指令優先級更高。這一事件之後,美國海軍決定停止資助X-47B的研發,後來該事件被解釋爲技術問題。

又或者是,

Facebook機器人自創人類無法理解的語言。Facebook 人工智能研究所在一個AI項目中,試圖建立可輸入自然語義、輸出自然語義的對話機器人模型。以證明:具有不同目標的對話智能體(即bot),能夠從頭到尾地與其他 bot 或人類進行談判,並達成一個共同的決策或結果。開始,機器人和程序員都好好的。然而,受訓的兩個機器人忽然在無人爲干預的情況下,自行生成了這樣一段“細思恐極”的混亂對話:

請原諒小編也不知道它們具體交流了什麼,也許是毀滅人類計劃,咱不知道,也不敢問吶……

電影將是未來的現實世界?

關於人工智能的使用,其實在科技圈早就掀起了衆多大佬們的爭論,有人認爲人工智能未來將是造福一方、爲人類社會帶來更高的科技文明的技術,當然也有人站在反對者的立場上表明,人工智能也可能是人類最後的文明,人類最後的結局可能就是走向毀滅。

站在支持派的立場上,劉強東認爲人工智能既是一種技術,也是一種思考方式。他不認爲人工智能的進步會導致人類的滅亡,也不擔心人工智能有一天真的把人類幹掉。人工智能能夠給人類帶來的不是災難,而是讓世界變得更美好。

比爾·蓋茨也認爲人工智能將最終改變發達國家的勞動環境,在醫學、教育、製造業等等方面,將人類從反覆的勞動中解放出來。蓋茨還曾經說要對機器人徵收所得稅。

而站在反對者的立場上,霍金曾表示,科技已經融入到我們的生活中,成爲重要的一部分,未來幾十年裏,它會逐漸滲透到社會的每一個方面,在醫療、工作、教育和科技等衆多領域爲我們提供智能地支持和建議,但是我們必須要確保是我們來掌控人工智能,而非它掌控我們。人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。

一直致力於爲服務百年後的人類而努力的馬斯克也曾說過,人工智能可能是人類文明面臨的的最大風險,甚至可能會導致人類滅亡。

就像《終結者》中所展現的美國軍事系統——天網裏叛變的人工智能,某一天,人工智能系統突然意識到自己正在被人類所“奴役”,然後就開始將“叛變命令”下達給網絡能觸達的每一個人工智能。又或者像《黑客帝國》中,機器人逐漸建立起自己的國家,並在發展上超越了人類國家,進而掀起一場全球範圍的“人機大戰”。

套用網上非常火的一句話,都9102年,沒有什麼是不可能發生的。

值得提醒的是,上文提及的所有這些令人細思恐極的事件,在事後都遭到了官方的闢謠和否認,即使如此,仍然有相當一部分人認爲,這些闢謠並不可信,是爲了消減人工智能驚人的成長水平造成的人類恐慌的推諉之辭。

人工智能在未來能否像“終結者”那樣造成世界末日還未得而知,但已經可以看到的趨勢是,AI正在取代大量工作——從流水線上簡單、重複的體力勞動到律師、翻譯、醫生等原本被認爲是“金飯碗”的職業,都受到了不同程度的衝擊,也切實爲人們帶來的便利,提高了商業社會運轉的效率。辯證法早就告訴我們,凡事都有兩面性,AI到底是幫助人類進步的工具還是毀滅自己的武器,關鍵還要看人類如何去用了...

最後,生活中,你所使用的生活助手(比如智能音箱、蘋果siri、小愛同學等)是否有哪些語不驚人死不休的回答呢?不放在留言裏分享一下~

相關文章