本文轉自:青島日報

書中財富

機器人時代,我們準備好了?

書名:機器人倫理學導引作者:[希]施皮羅斯·G.查夫斯塔 著尚新建 杜麗燕 譯出版日期:2022.8出版社:北京大學出版社

隨着計算機技術和製造業的不斷發展,機器人已經逐漸走出科幻作品或實驗室,和人們的現實生活產生越來越密切的聯繫。從娛樂到社交、醫療乃至戰爭,機器人的參與已經爲人類傳統的生產和生活方式帶來諸多變革。

但是,在從事“機器人學”的許多專家看來,我們並沒有準備好進入這個全新的機器人時代,對待機器人的方式與對待其他機器設備和人工產品的方式一樣。而這遠遠不夠,我們需要從倫理的角度思考我們與機器人的關係。

這顯然是一個非常敏感的領域,因爲機器人比任何可能製造出來的計算機(或任何其他機器)都更接近於人——無論形態上,還是字面上。這是因爲機器人的形狀和形式,讓我們想起了自己。

絕對不能脫離當今的社會技術考量,獨立研究機器人。

在本書的作者看來,科學家應該時刻謹記,機器人(以及其他高科技產品)可以影響社會如何發展,許多情況是設計研製時無法預測的。人類關注機器人學的一個重要部分是機器人倫理學。

給予機器人的自主性越多,對其道德和倫理敏感性的要求就越多。

目前,關於機器人,尤其是具有認知能力(智能)的機器人,尚無特殊的立法。從法律角度看,人們對待機器人的方式與對待其他機器設備和人工產品的方式一樣。這或許基於如下一個事實:具有完備智能和自主性的機器人尚未運行,或者尚未進入市場。不過,許多機器人學家持有一種觀點:人工智能和機器人工程迅猛發展,依照目前的速度,很快就需要相應的法律。

當前,機器人倫理學有三個不同的方面:

•如何設計使機器人的行爲合乎道德?

•人如何必須道德地行事,鐵肩擔道義?

•理論上講,機器人能夠成爲完全的道德行爲體(ethical agents)嗎?

所有這三方面的問題,必須在機器人倫理學的可行框架下獲得解決。因爲這三個方面代表不同的面向,表明在包括機器人在內的社會—技術框架下,應當如何分配道德責任,應當如何對人和機器人加以約束。

對機器人(或其他自主行爲體)的首要要求是不得造成傷害。澄清道德行爲體的模糊地位,解決人類倫理困境或者倫理學理論問題,是絕對必要的,但只是第二位的。這是因爲機器人具有更多的功能(和複雜性),就必須研發更先進的安全控制措施和系統,防止致命的危險和潛在的傷害。這裏需要指出,機器人的危險與我們社會(從工廠到互聯網、廣告、政治制度、武器等)的其他人工產品帶來的危險沒有什麼不同。製造機器人爲了一個目的,即代替我們承擔任務,將人從各類繁重或危險的勞動中解放出來。但是,它們並不能代替我們過日子,也不能消除我們過日子的需求或慾望。許多情況下,工廠或社會的意外事故被歸咎於機械缺陷,但是,我們很少將道德責任歸咎於機械缺陷。這裏,我們要提及美國步槍協會(National Rifle Association)的口號:“槍不殺人,人殺人。”這並不完全正確。實際上,是“人+槍殺人”。依照這種觀點,在車輛事故中,應該是“人類司機+車”的行爲體爲事故負責。

倫理學總是燒腦的,但它的價值沒有人會否認。

本書從倫理學的基本原理出發,展示了醫用機器人、助力機器人、社會化機器人、戰爭機器人等機器人在各領域的實際應用和前沿突破。同時對中日韓特別是日本的機器人學傳統作了深入梳理,力求對機器人倫理學作全方面、多角度的討論,頗具前瞻性和指導性。

本欄編輯

相關文章