摘要:人工智能專家:建議向機器人灌輸人類價值觀以防背叛。拉塞爾建議,爲了防止機器人接管我們人類,我們必須製造出無私心的機器人,即在它們的目標任務中存在一定程序的不確定性,應該教會它們人類價值觀方面的知識。

  據國外媒體報道,隨着人工智能的發展,越來越多的科學家開始擔憂人工智能會給人類帶來各種難以預計的影響,甚至可能是災難。在近日開幕的“TED2017”大會上,計算機專家斯圖爾特-拉塞爾再次發出警告稱,人類製造出的事物(人工智能)將可能進化得比人類更聰明。拉塞爾建議,人類必須要在機器人內部預置不確定性,以防備它們的背叛。

 

人工智能專家:建議向機器人灌輸人類價值觀以防背叛

  人工智能專家:建議向機器人灌輸人類價值觀以防背叛

  美國加州大學伯克利分校計算機教授斯圖爾特-拉塞爾解釋說,雖然他本人也支持人工智能的研究,但總感覺製造出一種比自身物種更爲聰明的事物並不一定是好事情。拉塞爾建議,爲了防止機器人接管我們人類,我們必須製造出無私心的機器人,即在它們的目標任務中存在一定程序的不確定性,應該教會它們人類價值觀方面的知識。通過向人工智能系統中灌輸“人類常識”,科學家必須重新定義人工智能,這樣我們才能製造出有益的機器。

 

  拉塞爾表示,機器人應該按照某種法則或定律去編程,就比如科幻作家艾薩克-阿西莫夫提出的機器人三定律,以防止它們在執行任務時造成無意識的傷害。艾薩克-阿西莫夫所提出的機器人三定律主要內容包括:

 

  1)機器人不得傷害人類,或因袖手旁觀使人類受到傷害;

 

  2)在不違背第一定律的前提下,機器人必須服從人類的命令;

 

  3)在不違背第一及第二定律的前提下,機器人必須保護自己。

 

  因此,在爲機器人編程時,就必須將利他主義、謙虛謹慎的態度以及其它一些人類價值觀方面的優越性編寫進去。拉塞爾認爲,“這是人類與人工智能互相適應、和諧相處的第一步。”

 

  不過,蘋果Siri高級研發主管湯姆-格魯伯對人類和人工智能的未來抱有較爲樂觀的態度。他認爲,人工智能將可用於增強人類的忘記力,讓人類不再會忘記任何事情。

 

  格魯伯表示,“人工智能所帶來的超人能力是不可避免的,這能夠讓我們記住每個人的名字,記住聽過的每一首歌或者看過的任何事物。人工智能能夠與人類協作,而不是許多人所擔心的對抗,它們能夠幫助我們人類戰勝極限。如何利用這一強大的科學技術,我們有自己的選擇。我們既可以讓它們與我們競爭,也可以讓它們與我們協作。它們只會讓我們克服侷限,做得更好。機器人變得越來越聰明,我們人類也會更加聰明。”

相關文章