摘要:對比霍金等人“人工智能將威脅人類”的觀點,普林斯頓大學計算機科學教授Edward Felten更關注眼下人工智能技術帶來的影響,他表示:。霍金認爲,人類可以組成某種形式的“世界政府”來防範人工智能可能帶來的威脅,但他同時認爲“世界政府”本身也有問題,因爲這樣一個政府可能會施行暴政。

  “人工智能威脅論”是霍金早先發表的言論,這一言論對於當時的社會反響很大,很多科學人士表示贊同。近日,霍金進一步將警告再升級,稱人工智能對於人類的威脅正在快速上升,人類必須要儘早認識到威脅,並及時化解這一威脅的存在。人工智能的進一步發展可能會導致他們會通過戰爭摧毀人類。

 

  人工智能(AI)技術一直是著名物理學家史蒂芬·霍金(Stephen Hawking)關注的重點。繼2015年9月拋出“人工智能威脅論”之後,近日霍金再次表達了他對人工智能技術的擔憂。

 

  本月8日,霍金向英國《獨立報》表示,人類必須建立有效機制儘早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進一步上升。他認爲人類需要利用邏輯和理性去控制未來可能出現的威脅。

 

  霍金表示:

 

  自從人類文明形成以來,來自生存能力優勢羣體的侵略就一直存在,而未來新科技(人工智能)進一步發展便可能具備這種優勢,它們可能會通過核戰爭或生物戰爭摧毀我們。因此人類需要利用邏輯和理性去控制未來可能出現的威脅。

 

霍金再次發出警告

  霍金再次發出警告

  霍金還就如何應對人工智能的威脅給出了自己的建議。霍金認爲,人類可以組成某種形式的“世界政府”來防範人工智能可能帶來的威脅,但他同時認爲“世界政府”本身也有問題,因爲這樣一個政府可能會施行暴政。“但我是一個樂觀主義者。我認爲,人類終將會崛起,解決這些挑戰。”

 

  這並不是霍金第一次提出人類必須團結起來攜手共進的倡議。他過去曾預言,人類在地球上只能再生活1000年,因此必須尋找另一個宜居的星球。

 

  實際上,霍金是人工智能技術的支持者,霍金認爲,如今AI似乎已經滲透到各個領域,包括推動自動汽車進步,支持Facebook的廣告篩選功能,並通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動。AI甚至可幫助根除長期存在的社會挑戰,比如疾病和貧困等。

 

  但霍金也一直對AI帶來的潛在挑戰表示擔憂。2015年9月,霍金在美國網站reddit的AMA(問我任何問題)專欄中談到,他擔心聰明能幹的AI會讓人類滅亡。霍金表示:

 

  一個超級聰明的AI可以非常好地實現它的目標,如果這些目標都沒有與我們人類一致,我們人類就麻煩了。

 

  近年來,隨着人工智能技術蓬勃發展,其潛在的威脅受到越來越多科學家的關注。

 

  英國牛津大學教授、人類未來研究所創始人Nick Bostrom表示:

 

  我認爲改善全球治理很有必要,不僅可應對AI帶來的危險挑戰,也可解決擺在我們面前的其他巨大挑戰。隨着世界不斷分化,我們在不斷開發出越來越強大的工具,我不確定人類是否能夠無限期生存下去。

 

  對比霍金等人“人工智能將威脅人類”的觀點,普林斯頓大學計算機科學教授Edward Felten更關注眼下人工智能技術帶來的影響,他表示:

 

  AI主要有兩個經濟風險:第一,工人具備的技能與未來工廠所需要的技能可能不匹配。第二,通過增加資本所有者和某些高級技工的回報,AI可能加劇經濟不平等性。

 

  Edward Felten認爲,計算機科學領域還不存在完美基礎,可以促使機器智能水平突然加速提高。上述問題可以通過調整公共政策解決,比如重新分配生產力。

相關文章