(原標題:美國發布軍用AI倫理原則 打開了AI軍事化的閘門)

11月1日,美國國防部下屬的國防創新委員會推出了最終版的《人工智能倫理道德標準》。其實該標準醞釀已有數年。2018年7月,該委員會提出了標準的草案版本,並通過聽證會接受了上百位業內人士的意見。此次最終版本在委員會投票中得到一致支持。

近年來,美國軍方顯著加快了人工智能應用的速度,試圖藉助這一新顛覆性技術,徹底改變美軍的作戰模式。早在2019年2月,國防部發布首份美軍人工智能戰略文件,要求利用人工智能促進美國安全與繁榮,將人工智能賦能引入到具體軍事任務中。

美軍快速引入人工智能技術,也在美國內外引起了廣泛擔憂。一些觀察人士開始擔心美軍的步子邁得太快,可能產生新的安全風險。而此次國防創新委員會的倫理道德標準,就是着眼於解決這些潛在風險,明確美軍利用和研發人工智能的限制。

國防創新委員會提出了五項核心標準:即負責、公平、可追蹤、可靠、可控。其中,公平和可控兩條標準的爭議性較大。

委員會所提出的公平是指,美軍在開發和部署人工智能化的裝備時要避免出現意料之外的偏差,而這些偏差會在無意中對人員造成傷害。實現這條標準有很高難度。

可控的理念,則試圖給人工智能技術加上“保險絲”。委員會建議美軍在人工智能系統和裝備中設有“自動或手動”停機開關,一旦該設備運轉偏離使用者和設計者初衷,作戰和指揮人員就能立即關閉系統。

委員會所提出的倫理道德標準看似嚴苛,但解除了美軍應用人工智能的最大禁忌。

五條倫理標準中既沒有包括禁止美軍將人工智能技術應用於致命性武器,也沒有限制人工智能化武器的攻擊目標。這意味着美國已經徹底放棄了“人工智能非軍事化”理想目標,將其全面引入作戰領域。這也給美軍未來應用人工智能提供了有利的說辭和合法性依據,讓美國社會接納一個人工智能化的美軍。

基於委員會的此份報告,美國很有可能成爲全世界首個推出人工智能軍事化倫理標準的國家。

從全球範圍看,倫理標準是人工智能治理的先導性規則。從道德和倫理上探討人工智能,表明該技術的發展和使用可能對人類社會帶來重大的影響,可能改變人類社會的基本形態。人類社會當前所依賴的道德和倫理標準,對人工智能研發者和使用者尚沒有足夠限制,需要基於該技術發展變化提出新的倫理標準。

倫理標準也是國際社會在人工智能治理領域最廣泛談論的內容。谷歌等美國科技巨頭、各國政府、科技界的非政府組織都提出了自己的人工智能倫理。各方在這一問題上的博弈與合作剛剛開始。

美國則在這場人工智能的國際規則之爭中開闢了新的戰場,即人工智能軍事化領域。美國所提出的標準與聯合國致命自主武器系統所倡導的原則有一定差異,也不同於歐盟、中國等反對“人工智能軍事化”的基本立場。

下一階段,美國會試圖將自己的倫理標準演變爲該領域國際規則的根本性原則,獲取人工智能軍事化的“最終解釋權”。

李再興 本文來源:新京報 責任編輯:李再興_NBJS9026
相關文章