本文轉自:長江日報

杜麗燕

尚新建

《機器人倫理學導引》

[希臘]施皮羅斯·G·查夫斯塔 著

尚新建 杜麗燕 譯

北京大學出版社

【編者按】《機器人倫理學導引》(以下簡稱《導引》)有一篇長達40多頁的《譯者序》,清晰地介紹了“機器人倫理學”的由來、框架、現狀和走向,並提出了兩位中國學者對“機器人倫理學”的思考。本文摘編自這篇序言,標題爲編者所加。

□ 尚新建 杜麗燕

20世紀40年代,著名科幻作家艾薩克·阿西莫夫提出了機器人學三定律,作爲科幻小說中生產設計機器人以及機器人自身行爲的準則。

第一定律:機器人不得傷害人,也不得見人受到傷害而袖手旁觀。

第二定律:機器人應服從人的一切命令,但不得違反第一定律。

第三定律:機器人應保護自身的安全,但不得違反第一、第二定律。

在阿西莫夫之後,無論是贊成還是反對三大定律的研究者和小說家,基本上都會以遵循或反對該定律作爲出發點。許多人工智能和機器人技術專家認同這三個定律,甚至有人預言,隨着科學技術的發展,阿西莫夫三定律可以成爲未來“機器人倫理學”的基本框架或原則。之所以這樣說,是因爲阿西莫夫在提出機器人學三定律的同時,也表現出對機器人可能出現的問題的憂慮。從當今人們討論的機器人倫理學的內容中,我們可以清晰地看到阿西莫夫機器人學三定律特別是第一定律的影響。

第一定律只規定“機器人不得傷害人”,但沒有明確定義何謂傷害。阿西莫夫自己也意識到了這一點,因而在《講假話的傢伙》中,假設機器人有超強的推理能力、極速的計算能力和超凡的捕捉信息的能力,當它們擁有捕捉人的情感和心理的能力時,就能猜透人的心思,它們會“藉此給自己大撈資本”,也有可能憑藉自己捕捉的信息,窺視人的心理,從而控制人的情感,人際關係,繼而控制人的一切事務,結果是主從關係被逆轉。

一方面,三定律已經揭示出許多問題,另一方面,三定律本身便引人懷疑。

阿西莫夫本人就發現,機器人學三定律可能會困於死局。例如,機器人接收到兩個相互衝突的指令;或者,在保護一個人的同時可能傷害到另一個人。

面對各種困難和批評,阿西莫夫不斷對其三定律重新解釋或加以修正。最重要的修正是增加了機器人第零定律。第一定律僅針對人類個體,然而,當一個人與多人或整個人類同時遭受危險時,機器人必須有正確的選擇順序。不然,有可能因小失大,造成對整個人類的傷害。之所以用序號“零”,是爲了繼續貫徹“優先權依序遞減”的原則。修改後的定律如下——

機器人第零定律:機器人不得損害人類,不得袖手旁觀,坐視人類遭受傷害。

第一定律:機器人不得損害個人,不得袖手旁觀,坐視個人遭受傷害,除非該行爲違反第零定律。

第二定律:機器人必須服從人的命令,除非該命令違反第零或第一定律。

第三定律:在不違反第零、第一、第二定律的前提下,機器人必須盡力保存自己。

這種修改更加凸顯阿西莫夫定律的基本倫理原則:始終確保人類支配機器人,防止將機器人用於邪惡目的。

問題在於,人們能否消除定律自身存在的矛盾和模糊性?定律本身是否道德正確?更重要的是,即便定律天衣無縫,具有什麼結構和能力的機器人,才能夠準確無誤地貫徹這些定律?這裏不僅涉及對機器人倫理學的總體展望,還涉及與機器人制造和運用相關的具體技術、實踐、文化、法律等問題。

例如:有無爲人類普遍認同的機器人道德指令?機器人能否取代人的道德責任,比如陪伴老人的機器人能否代替兒女盡孝?研發用於其他目的的伴侶機器人,有無道德問題?將機器人安置在掌握職權的崗位,諸如警察、保安、獄警、教師或其他政府職務,讓人服從機器人,有無道德上的疑懼?等等。

我們必須考慮這些問題。雖然這些問題目前也許還無解,但是,提出問題本身,就是走向答案的關鍵一步。

相關文章