摘要:斯皮格豪特認爲是第5個問題:即人工智能機器應該知道它什麼時候不理解算法——並且承認它不理解算法,也就是說,對人工智能的真正考驗在於,機器能否承認何時以及爲何不理解算法。在我看來,這是一份對於監管人工智能或提出任何新算法的非常有用的問題清單。

這周早些時候(週三,2月19日),歐盟委員會在“塑造歐洲數字未來”的總框架下,發佈了大量提案和政策文件,以監管人工智能。歐盟發佈的文件包括:一份關於人工智能、物聯網和機器人對安全和責任的影響的報告;一份概述歐盟數據戰略的論文;以及一份關於人工智能“卓越與信任”的白皮書。總的來說,這些文件喚起了技術專制,民主虔誠和雄心勃勃的融合,而這正是歐盟交流的特點。話雖如此,就採取一切措施使科技公司受到某種控制而言,歐洲委員會並非是唯一的選擇。

巧合的是,在臉譜網創始人馬克·扎克伯格及其助手尼古拉斯·克萊格的陪同下,在整整24小時前,就發佈了政策閃電戰。克萊格看上去有點眼熟,他曾親切地呼籲歐盟委員會向其官員解釋監管科技公司的正確方法。官員們依次向他表示感謝,並禮貌地解釋稱,他們有自己的想法,並護送他回到他的座位上。

對於這個問題來說,歐盟發佈的最有趣的文件是關於人工智能的白皮書。布魯塞爾宣稱,歐盟委員會提出“一種以監管和投資爲導向的方法”,該方法有兩個目標:促進人工智能的普及,並解決與該技術的某些用途相關的風險。然後,該文件就如何實現這些目標列出了不同的政策選擇。

一旦您擺脫了關於歐盟的“技術和工業優勢”,“高質量的數字基礎設施”和“基於其基本價值的監管框架”等強制性的提倡歐元言論,將使歐洲成爲“數據經濟及其應用創新的全球領軍者”。該白皮書似乎非常明智,但是,對於所有有關如何實際處理人工智能的文件,它都依賴於傳統的有關人類代理和監督,隱私和治理,多樣性,非歧視性和公平,社會福祉,問責制以及最受歡迎的“透明度”的傳統陳詞濫調,唯一明顯的遺漏是不確定性。

但是,這在目前的人工智能領域是意料之中的事情:討論總是由三部分概括而成,其中兩部分傳達了一點點虔誠的希望,這已經到了人們渴望獲得一些直白和常識的地步。總之,歐盟和臉譜網都想監管人工智能,劍橋大學教授提出通俗易懂的辦法。

幸運的是,它是由著名的劍橋大學統計學家、英國皇家統計學會前主席戴維·斯皮格豪特爵士提出的。他終其一生都在試圖教人們如何理解統計推理,並於上月在《哈佛數據科學評論》上發表了一篇對人們非常有幫助的文章,題目就是“我們應該信任算法嗎?”

哲學家奧諾拉·奧尼爾的觀點爲斯皮格豪特的方法奠定了基礎——我們應該關注的是可信賴性而不是信任,因爲信任是一個如此模糊、難以捉摸和令人不滿意的概念。(在這方面,它與隱私沒什麼不同。)奧尼爾在一次著名的技術演講中指出,尋求更多的信任“不是人生明智的目標——明智地安排和明智地拒絕信任纔是正確的目標”。

通過實際應用奧尼爾的觀點,斯皮格豪特教授認爲,當出現一種新算法時,我們最應該關注的是,程序員對系統(開發人員說它能做什麼,它是如何被評估的)和對框架(它對一個特定案例的結論)的可信聲明。

由此,斯皮格豪特提出了一組關於任何算法的7大問題:1、在現實世界的新地方嘗試有什麼好處嗎?2、一個更簡單、更透明、更強大的東西是否也一樣好呢?3、我能否向任何感興趣的人解釋一下它的工作原理嗎?4、在特定情況下,我能否向一個人解釋它是如何得出結論的嗎?5、算法能否知道自己何時處於不穩定狀態,並能否自己承認這種不確定性嗎?6、人們使用算法是否恰當,人們能否可以持適當的懷疑態度?7、算法在實踐中是否真的有用嗎?

在我看來,這是一份對於監管人工智能或提出任何新算法的非常有用的問題清單。到目前爲止,我們遇到的大多數有嚴重缺陷的機器學習系統,都會因爲這些方面的某些或全部原因而失敗。斯皮格豪特的問題是具體的,而不是籠統的,比如“透明度”或“可解釋性”。而且,最重要的是,它們對普通人來說是通俗易懂的,而不需要像那些設計算法的極客們那樣學習算法,才能真正弄懂這一切。

那麼最重要的問題是哪個呢?斯皮格豪特認爲是第5個問題:即人工智能機器應該知道它什麼時候不理解算法——並且承認它不理解算法,也就是說,對人工智能的真正考驗在於,機器能否承認何時以及爲何不理解算法。可悲的是,這是許多人的失敗考驗。

相關文章