舊金山政府在全美首次允許警方使用機器人擊斃嫌犯,這一決定引發了巨大的爭議。這是否會在未來打開一個潘多拉魔盒,讓機器人鎮壓抗議示威成爲現實,更顛覆機器人“不可殺人”的人工智能倫理準則?

治安惡化與爭議決議

上週二,舊金山議會通過了一項議案,同意授權舊金山警察局在必要的情況下,將警用機器人用於致命用途。用通俗的話說,他們批准警方在保護生命且沒有其他選擇的必要情況下,用機器人遠程殺死嫌犯。

這一極具爭議的決定不僅立即引發了全美媒體關注,也讓持續數年的“殺人機器人”話題重新成爲了討論焦點。這份議案上個月提交討論時,就引發了舊金山灣區社會各界的普遍關注和激烈討論。

正式表決之前,舊金山市議會已經就此事討論了數週時間。而投票表決當天,舊金山市議會圍繞着這一議題,進行了兩個多小時的激烈辯論。最終還是以8:3的投票結果,批准了舊金山警察局的裝備使用授權。

舊金山市議會批准這一議案的背景是,他們正承受着民衆要求打擊犯罪的呼聲。和美國很多大城市一樣,舊金山過去幾年也面臨着嚴重的治安惡化問題,讓民衆和商家怨聲載道。車窗被砸已經成爲舊金山停車的尋常體驗。

由於警方應顧不暇,舊金山核心商業區多次發生光天化日之下肆無忌憚搶劫超市和奢侈品商店的事件,不少商店只能選擇關門撤離。除了打砸搶奪的財物犯罪案件居高不下,持槍搶劫殺人的惡性暴力犯罪事件也在日益增多。80多萬人口的舊金山去年殺人案56起,比疫情之前2019年的41起有明顯增長。

由於對治安惡化問題不滿,今年7月,舊金山選民通過特別公投罷免了對犯罪問題應對不力的激進左派地方檢察官布丁(Chesa Boudin)。在連任壓力下,舊金山市長承諾採取措施嚴打犯罪,而舊金山議會也連續引入新技術手段來遏制犯罪。今年9月,舊金山議會批准警方在特定情況下獲取私人監控攝像頭數據。

在上週二的辯論過程中,支持與反對雙方都指責對方在製造恐慌。雙方都提出了自己的理由和擔憂。支持者認爲這一授權是非常慎重和明確限制的,是在極端情況下給警方提供最後手段;但反對者則認爲可能會帶來警方濫用武力的風險,更會加劇警方和有色人種,尤其是非裔之間的衝突。

提出這一議案的舊金山華裔議員陳詩敏(Connie Chan)表示,她理解外界對警方使用武力的擔憂情緒,但“我們需要根據加州法律使用這些裝備。這絕對不是一個輕率的討論。”另一位議員曼德爾曼(Rafael Mandelman)也投下支持票。他表示,激進派將警察視爲危險和不值得信任的對立面,這對公共安全無益。

而反對的非裔議員沃爾頓(Shamann Walton)則強調,自己不是在針對警方,而是擔心提升警方武器裝備可能會增加警察與有色人種發生負面衝突的機會。相對而言,非裔民衆更爲擔憂和反對警方濫用武力的可能性。

值得一提的是,舊金山檢察官也站在了警察局的對立面。就在舊金山議會表決前一天,舊金山檢察官辦公室發表公開信,認爲授權機器人遠程殺人有悖於舊金山的進步價值觀,他們因此呼籲市議會禁止警方使用機器人針對任何人採用武力。

隨時可改裝加載武器

爲什麼會有這項授權表決?根據今年生效的一部加州新法律,加州警察局裝備軍用級別的設備需要獲取使用批准。爲了預防恐怖襲擊事件,過去十年美國諸多城市的警察局都購置了一批軍用級別的防爆機器人。舊金山警察局也不例外,因此需要提交設備使用授權申請。

但舊金山警察局此次在申請授權的時候,加入了一個極端案例的使用場景申請,即在“公衆或者警察生命遭受迫切威脅,無法使用其他武力手段時,允許他們將機器人用於致命武器選擇”。這意味着,他們有權將機器人改裝成攻擊性武器,從而遠程擊斃或者炸死恐怖嫌犯。

舊金山警察局副局長拉扎爾(David Lazar)在市議會辯論環節中提到,他們申請極端情況授權是爲了應對2017年拉斯維加斯大規模槍擊案那樣的案例。“我們必須要考慮,在那樣的情況下,(動用機器人)是一個可能的選擇。”

拉斯維加斯槍擊案是美國曆史上最血腥的大規模槍擊和國內恐怖襲擊事件。2017年10月1日,一名男子在賭城曼德拉灣酒店32樓套間,用二十多支經過改裝的半自動步槍向樓下參加音樂會的人羣瘋狂射擊了1000多發子彈。警方直到1個多小時之後才找到嫌犯,但他已經自殺身亡,作案動機迄今依然成謎。此次槍擊案導致61人死亡(包括嫌犯),還有500多人受傷。

或許拉扎爾提到的這一場景太過令人震撼,最終舊金山議會還是以多數票同意了警察局的申請。但議會也對此作出了特別規定,要求警察只能在使用其他武力或避免戰術之後,或認定他們無法通過其他手段控制嫌犯之後,才能使用機器人用於致命用途。而且,只有少數高級別警官才能批准使用機器人作爲致命武力。

爲了化解外界對“殺人機器人”的擔憂情緒,舊金山警察局則強調,他們現有的機器人並沒有安裝武器,目前也沒有計劃這麼做。但是在得到授權之後,如果在生命受到威脅時,他們就可以在機器人上安裝爆炸物,“接近、迷惑以及讓暴力、攜帶武器或者危險的嫌犯失去行動能力”,“安裝這些設備的機器人只會被用在極端情況下,用於保護或者防止無辜民衆繼續喪生。”

根據舊金山警局公佈的裝備清單,他們目前共有17部拆彈機器人,其中12部可以投入使用。這些設備採購於2010-2017年,主要用於處理爆炸物、危險品或者在低能見度環境,此前從未安裝或被用於爆炸用途過。除了申請用於致命用途之外,舊金山警察局還申請將這些機器人用於“訓練和模擬、刑事拘捕、重要事件、突發情況、執行逮捕或處理可疑設備等情況”。

雖然舊金山警察局當前機器人並沒有安裝致命武器,但其中部分較新的型號是可以配裝武器並且遠程遙控操作的。型號F5A的拆彈機器人可以通過配件安裝大口徑步槍;另一部QinetiQ Talon的機器人也可以改裝成軍用版本,安裝手雷發射器、機槍以及反器材步槍,這原本就是美國陸軍使用的同款機器人的警用版。

換句話說,在得到舊金山市議會批准之後,舊金山警察局在滿足使用條件的情況下,隨時都可以將目前的拆彈機器人改裝成一部遠程操作和直接開火的機器人。而這正是外界擔憂的原因所在。

擔憂警方濫用機器人

與舊金山隔海相望的奧克蘭警察局上個月則因爲公衆抗議,放棄了類似的改裝機器人用於極端場景的授權申請。種族矛盾是奧克蘭警方不得不考慮的因素。這裏的黑人與拉丁裔人口比例合計超過45%,是舊金山灣區比例最高的地區。

儘管緊鄰硅谷,奧克蘭卻是美國治安最糟糕的城市。去年暴力犯罪率高達75.5,遠遠高於美國平均水平22.7。新冠疫情更是加劇了社會矛盾和治安問題。奧克蘭這座43萬人口的城市,去年謀殺案高達133起,槍擊案更是接近600起,均創下了2006年以來的最高紀錄。

既然美國大城市社會治安這麼糟糕,爲什麼還有那麼多人反對授權警察更先進的武器應對襲擊嫌犯?爲什麼警用機器人改裝成武器,會引發那麼大的爭議?

2020年美國新冠疫情爆發之後,社會矛盾進一步激化,更出現了多次大規模種族騷亂事件。在遏制遊行示威行動中,美國各地的警察都與示威者發生了不同程度的衝突,更使用了催淚彈、煙霧彈等平暴手段。

此次舊金山警方獲准使用機器人擊斃嫌犯,即便明確規定了極端場景,也讓不少人擔心未來美國警方是否可能濫用機器人這種尖端科技手段來鎮壓民衆抗議示威活動,擔心屆時可能出現警方機器人阻止示威者前行的科幻場面。

南加州大學法學院教授伊麗莎白·喬(Elizabeth Joh)認爲,弗洛伊德事件引發全球反種族歧視抗議僅僅過去兩年時間,舊金山批准警方使用機器人作爲武器會影響民衆對執法部門的信任。“我們是否願意生活在一個警察用機器人殺人的世界,我肯定不願意。”

雖然此次舊金山議會在全美率先批准警方改裝機器人,但達拉斯警察局早在2016年,就在一起大規模槍擊案中,率先將拆彈機器人用於攻擊用途並殺死嫌犯。

那年7月,一名曾經上過阿富汗戰場的陸軍退伍軍人,因爲對美國社會和種族問題不滿,在達拉斯市區用狙擊步槍殺死了5名警察並擊傷9名平民與警察,這是美國自911事件之後警察死傷最多的襲擊事件。達拉斯警方在與槍手對峙數個小時並且談判無果的情況下,在他們拆彈機器人MARCbot上加裝炸彈,遠程遙控移動到嫌犯附近引爆,炸死了這位拒絕放下武器的嫌犯。

達拉斯警方擊斃殺人嫌犯並沒有爭議,但使用遙控機器人擊斃卻引發了巨大的爭議,因爲這是美國警方首次在國內使用機器人殺人。達拉斯警察局長對此解釋說,“當時實在沒有其他選擇,這是唯一減少傷亡的手段。”

在此之前,美國警察也曾經多次使用機器人來應對嫌犯,但並沒有用機器人來直接擊斃嫌犯。2013年新墨西哥州特警就使用了機器人潛入嫌犯所在房間進行偵查,2016年加州警察也用過機器人和嫌犯進行談判和運送物資,避免派出談判專家。機器人的存在,大大降低了警察直接面對嫌犯的風險。

機器人早被用於戰場

實際上,此次舊金山警方尋求授權的機器人,早就被美國軍方投入戰場使用。2011年的《不斷變化的戰爭角色》(The Changing Character of War)一書記載,美軍士兵在伊拉克遇到伏擊危險的時候,就會讓MARCbot機器人先去探路,如果發現敵人就直接遠程引爆安裝在上面的Claymore地雷。售價僅爲5000美元的MARCbot機器人因爲個頭小、動靜輕、成本低等優勢,成爲美軍士兵的“最愛替死鬼”。

從某種程度來說,無人機也是作戰機器人。從阿富汗戰爭時期開始,無人機就開始從偵查用途轉向攻擊手段,被美軍普遍用於遠程襲擊。而從2020年的亞美尼亞阿塞拜疆納卡衝突起,無人機更是成爲了現代戰爭主力。阿塞拜疆軍方派出大量攜帶炸彈的無人機對亞美尼亞地面部隊以及防空體系展開了密集攻擊,成爲他們贏得戰爭的重要手段。

今年10月,波士頓動力、Agility Robotics、ANYbotics等五家機器人公司聯合簽署了一份請願書,呼籲用戶不要將他們的機器人用於攻擊用途。“在遠程遙控或者自動運行的機器人上加裝武器,會帶來對人類的新風險以及嚴重的道德問題。”

然而,這份請願書只是象徵用途,並沒有任何約束力。美國軍方本就是這些機器人公司的重要客戶和資金來源,波士頓動力的機器狗也被美國軍方和警察用於後勤、偵查等諸多用途。波士頓動力根本無力阻止美軍將自己的機器狗改裝成攜帶武器的殺人狗。

相比遠程遙控的機器人與無人機,更爲可怕的威脅則來自於“AI殺人機器人”,即搭載視覺識別等人工智能技術的新一代全自動武器。這類機器人或無人機可以無需人工操作,靠着計算芯片和多種傳感器,根據預先設定的程序自動選擇攻擊目標併發起攻擊。

目前還沒有此類機器人投入使用的正式記錄,但未來一旦出現並投入使用,勢必會動搖“不可用於殺人“的機器人倫理準則。隨着AI技術的不斷成熟,歐美各界都在擔憂如果不採取全球協調一致的有效措施,”AI殺人機器人”的出現只會是時間問題。

早在2013年,科學界和法律界的專家就組建了“國際機器人武器控制委員會”(International Committee for Robot Arms Control),致力於推動各國和平使用機器人,對機器人武器研發生產採取共同監管措施。該組織明確提出,“不能允許機器人自主作出殺人的決定”。

2015年,霍金等全球1000多名知名科學家和人工智能專家聯合發表公開信,警告未來全球可能會出現人工智能軍備競賽,督促聯合國發佈攻擊性自動化武器的禁令。其中包括了特斯拉CEO馬斯克、蘋果聯合創始人沃茲尼亞克以及谷歌DeepMind項目負責人等來自硅谷的代表。

公開信寫道,“儘管不合法,自動化武器的使用會在未來幾年,而不是幾十年內成爲現實。這會給人類社會帶來極大的風險,自動化武器會成爲火藥和核武器之後的第三次武器革命。我們必須呼籲聯合國禁止此類武器,就像禁止化學武器一樣。”(文 / 鄭峻)

相關文章