一些科學家呼籲禁止研發人工智能武器,並呼籲在戰爭中使用,因爲AI武器可能在一些不可預測的故障中殺死無辜的人。道德專家還認爲,AI武器在沒有任何人爲干預情況下進行殺戮是一種不道德的行爲。

早在前兩年,來自26個國家在機器人技術和人工智能方面具有影響的專家共同簽署了一封公開信,呼籲聯合國禁止在國際上使用“戰爭機器人”。

目前,來自50個國家的89個非政府組成的人權觀察團(HRW)已經組成了呼籲禁用殺手機器人的運動,還在推動國際相關條約的制定。AI武器目前正逐漸進入公衆視野,無人機就是典型的例子,能夠自行起飛、飛行和着落,還有機器哨兵,這些都是AI武器的例子。

加拿大公司Clearpath Robotics的首席執行官Ryan Gariepy也表示支持相關禁令提案,他的公司與軍事簽訂了武器合同,但他已經譴責人工智能系統用於戰爭中,並聲稱他們不會發展AI武器。

如果AI武器系統非法殺人,這種情況會引發法律責任問題。對於AI機器來說,如果進行殺戮的話是對人權的侵犯。又因爲機器是不道德的主體,不能對生死決定負責,而製造AI武器的人可能是負責人。

AI武器具有指揮高效性、精確的打擊化、操作自動化、行爲自動化等特徵,在很多國家軍事領域目前佔有很重要的地位。這種可以有意識地尋找、辨別需要打擊的目標,具有辨別自然語言的能力和會思考的系統在未來的戰爭中有絕對的優勢。

目前美國已經列了多達100多種的據用AI機器人,並在一些部隊裝備了一些型號的AI武器。這些武器裝備的確能提升軍隊的軍事能力,但如果被濫用和惡意使用,將是人類的最大災難。

相關文章