編輯 | 都保傑

該來的終歸要來,衆所周知軍方的很多技術都是要走在科技前沿的,如此火爆的人工智能,當然不能例外,這可能是一個導火索或者危險嘗試,儘管有人奔走呼籲,但似乎無可避免。

去年4月份,美國軍方提出Maven項目,該項目的目標是“加快國防部整合大數據和機器學習”,也被美國國防部稱爲算法戰爭跨功能團隊(AWCFT:Algorithmic Warfare Cross-Functional Team)。去年8月,美國國防部長Jim Mattis到硅谷訪問谷歌高層,於是,谷歌有史以來第一份與五角大樓的AI合同出現。

谷歌稱,該項目中主要向美國國防部提供用於機器學習應用的TensorFlow API接口,以幫助軍事分析人員檢測圖像中的物體。

“不作惡”和“做正確的事”

谷歌究竟參與程度如何,雙方都未提及。據《紐約時報》5月30日的報道,谷歌雲CEO黛安·格林曾在每週的全公司TGIF(Thanks God, it's Friday)會議上發言,表示這個項目不是爲了攻擊目的,雙方的合同價值相當小,僅900萬美元。

儘管如此,谷歌內部員工的憤怒和失望情緒並沒有得到安撫,他們認爲這次的合作影響到了谷歌的聲譽和公司文化,也關乎機器學習發展和使用的道德問題。

爲了平息輿論壓力,谷歌向公司員工承諾,將制定一套原則,來指導其人工智能業務在防務和情報合同中,如何越過道德雷區,谷歌也向外界表示,新的原則將會避免讓人工智能朝武器化發展,但在實際實施中如何應用,還尚未清楚。

截至美國當地時間5月14日,谷歌已有十幾名員工正式因這一項目向谷歌請辭,以抗議公司繼續參與軍方的Maven項目。同時,學術界有364名人工智能專業人士也聯名上書,反對谷歌。

谷歌對於事態的發展並沒有做好準備。更令谷歌頭疼的是,Maven項目引發的爭議可能在未來幾個月還會加劇。

原因是據《連線》5月29日的報道,到了2018年,Maven項目開始擴展到新領域,包括利用開發工具以更高效地驅動硬盤。另外,今年Maven項目獲得的資金也有望擴大到1.31億美元。美國五角大樓還計劃與硅谷建立聯合人工智能中心,可能會效仿Maven項目,以支持美國軍方,併爲情報機構提供服務。

自2000年以來,不作惡原則一直是谷歌公司的核心行爲準則之一;此前在2015年的時候,但谷歌重新組建成立新的母公司時,這個口號被修改爲“做正確的事”,但仍然保留了“不作惡”原則的重要內容,並依舊將之作爲其核心行爲準則和價值觀之一。然而觀察人士發現,在今年4月底或者5月初的某個時間點,這個“不作惡”的表述被徹底完全的刪除了!

一方面是不想失去軍方的合同,另一方面是員工對於公司文化的質疑,谷歌在“不作惡”和“做正確的事”之間面臨了兩難的困境。

李飛飛不支持AI武器化,谷歌將發佈AI技術使用規範

爲了安撫內部員工的情緒,《紐約時報》稱,谷歌在上週四(5月24日)召開了內部討論會。

谷歌現任CEO桑達爾·皮查伊(Sundar Pichai)在會上表示,公司會公佈一系列機器學習使用的政策和防護安全措施文件,這些原則必須要經得住時間的考驗。

但實際上,谷歌在Maven項目成立之初就提到了這些原則和安全措施文件,直到到現在都未對外界公開。谷歌的員工希望公司能在未來幾個星期內提交這些原則和安全措施。

面對這場公司內部的辭職潮,谷歌原本有機會在項目合作時就避免事態嚴重化。

去年9月份,谷歌內部在討論如何向公衆解釋這個事情時,谷歌雲首席科學家、副總裁李飛飛曾在郵件中強烈建議雙方在合同中迴避“AI”(人工智能)這個字眼。

“無論付出什麼代價,都必須要避免提及或者使用到AI這兩個字。武器化人工智能可能是AI領域裏最敏感的話題,沒有之一。對於媒體而言這簡直就是紅肉(red meat),他們會找到一切方式毀掉谷歌。”這位來自斯坦福大學人工智能實驗室的學者在郵件中說。

“我不知道如果媒體開始谷歌正在祕密建造AI武器或AI技術,併爲國防工業服務會發生什麼。”李飛飛說,因此她希望在對外公佈合同時,能將項目描繪爲是谷歌雲平臺的重大勝利。不過李飛飛也在郵件中指出,這是她的建議,最終決定權還在她的老闆身上。

李飛飛一直堅持相信的是以人爲中心的人工智能,可以用積極和慈善的方式讓人類受益。她還表示,任何將人工智能武器化的項目研究,都將違揹她的原則。

最後,谷歌選擇不將Maven項目公之於衆。只有反對的員工通過谷歌內部溝通平臺開始抗議時,谷歌作爲Maven項目分包商的事才引起了公衆的關注。

到了今年4月初,反對的聲音越來越大,導致大約有3100多名谷歌員工簽名,向谷歌現任CEO桑達爾·皮查伊(Sundar Pichai)提交了一封信,要求皮查伊立即取消參與Maven項目,並起草並公開一份清晰的政策表明:谷歌和它的合作方不會開發用於戰爭的技術。

“谷歌在Maven項目中的相關參與計劃將不可挽回地毀滅谷歌的品牌和它吸納人才的能力。在越來越多的對於人工智能可能會偏激化和武器化的恐懼中,谷歌在獲取公衆信任方面已經顯得力不從心了。這一協議將會使谷歌的聲譽面臨威脅,並將會使谷歌站在其核心價值觀的對立面。”谷歌的員工在信中寫到。

而除了員工反對外,谷歌在外部也遭遇了輿論壓力。5月15日,國際機器人武器控制委員會(ICRAC)向谷歌母公司Alphabet的CEO拉里·佩奇、谷歌現任CEO桑達爾·皮查伊、谷歌雲CEO黛安·格林、谷歌雲首席科學家、副總裁李飛飛發出了一封公開信,再次要求谷歌停止其與國防部在Maven項目上的合作協議,承諾不去開發軍事科技,並保證不將其蒐集的個人數據用於軍事行動。

爭議:如何界定技術的使用

在遭遇大量員工辭職潮後,4月11日,谷歌還舉行了關於Maven項目的討論。據觀看討論的員工透露,格林堅定地認爲,Maven項目沒有將AI用於攻擊目的,而谷歌AI研究Meredith Whittaker則認爲很難界定如何使用該技術。

Maven項目的首要任務是幫助美國國防部有效地處理來自全球各地的海量的視頻資料。美國國防部每天收集到數量龐大的無人機飛行畫面,但人類圖像分析師遠遠跟不上視頻數量的增長。因此,國防部希望能利用機器學習來識別無人機鏡頭中的車輛和其他物體,從而減輕分析人員的負擔。在自身資源不足的情況下,國防部轉向了學界與業界的人工智能專家合作。

在這一爭議項目中,谷歌提供的TensorFlow是一款人工智能領域裏的免費開放軟件,也是谷歌人工智能戰略的關鍵。它爲機器學習工程師提供了進行數據排序和訓練算法的框架,並且在整個行業中被廣泛使用。

但反對聲音稱,新技術並非總能帶來便利,已經有研究人員發出警告,人工智能技術可能會以不易察覺的方式產生重大偏見。

學界認爲,谷歌收集了大量關於用戶行爲、活動和興趣的數據。谷歌不能僅利用這些數據改進自己的技術和擴大業務,還應該造福社會。公司的座右銘是“不作惡”,這是衆所周知的責任。

“像谷歌這樣跨國公司的責任必須與他們的用戶國際化相匹配。根據谷歌所考慮的國防部合同,以及微軟和亞馬遜已經實施的類似合同,這樣的做法標誌着擁有大量全球敏感私人數據的科技公司與一個國家軍隊的危險聯盟。它們還表明,谷歌未能與全球公民社會和外交機構進行接觸,這些機構已經強調這些技術的道德風險。”ICRAC在向谷歌提交的公開信中稱。

在谷歌創始人謝爾蓋·布林(Sergey Brin)看來,他能理解Maven項目中的爭議,但他表示,如果世界各國的軍隊都與谷歌這樣的國際組織合作,而不是僅僅與民族主義的國防承包商合作,這將有利於和平。

相關文章