我們每天都會與人工智能打交道。人工智能描述的是能夠執行通常需要人類智能的任務的計算機系統。當你在互聯網上搜索某個東西時,你看到的優選結果是由人工智能決定的。

你從你最喜歡的購物或流媒體網站得到的任何推薦也將基於人工智能算法。這些算法使用瀏覽器歷史記錄來查找您可能感興趣的內容。

因爲有針對性的推薦並不特別令人興奮,科幻小說更喜歡把人工智能描繪成推翻人類的超級智能機器人。一些人相信這種情況有一天會成爲現實。著名人物,包括已故的史蒂芬·霍金,對未來人工智能如何威脅人類表示擔憂。

爲了解決這個問題,我們詢問了11位人工智能和計算機科學的專家,“人工智能是對人類生存的威脅嗎?”有82%的人一致認爲人工智能不會對人類存在構成威脅。

我們離製造比我們更聰明的人工智能還有多遠?

目前存在的人工智能稱爲“俠義”或“弱”人工智能。它被廣泛應用於許多應用,如面部識別、自動駕駛汽車和互聯網推薦。它被定義爲“狹義的”人工智能,因爲這些系統僅能學習和執行非常具體的任務。

事實上,他們通常比人類更好地完成這些任務——著名的是,深藍是1997年第一個擊敗國際象棋世界冠軍的人工智能——然而,他們除了一項非常具體的任務(深藍只能下國際象棋)外,無法將自己的學習應用於任何事情。

另一種人工智能稱爲人工通用智能(AGI)。這被定義爲模仿人類智能的人工智能,包括思考和將智能應用於多個不同問題的能力。

佐治亞理工學院的機器人工程師馬修·奧布萊恩(MatthewO\'Brien)不同意這種觀點,“長期以來尋求的‘通用人工智能’目標還沒有實現。我們只是不知道如何製造出一種通用的適應性智能,而且還不清楚要達到這一點還需要多大的科技進步”。

未來的人工通用智能(AGI)如何威脅人類?

雖然還不清楚人工通用智能(AGI)何時或是否會發生,但我們能否預測它們可能對我們人類構成什麼威脅?人工通用智能(AGI)從經驗和數據中學習,而不是被明確告知要做什麼。這意味着,當面對前所未有的新形勢時,我們可能無法完全預測它的反應。

路易斯維爾大學的計算機科學家羅曼·揚波爾斯基(RomanYampolskiy)博士也認爲“人類控制人工智能的任何版本都是不可能實現的”,因爲人工智能不可能既自主又被人類控制。不能控制超級智能系統可能是災難性的。

卡爾加里大學(CalgaryUniversity)軟件與腦科學教授王英旭(YingxuWang)不同意這一觀點,他表示,“專業設計的人工智能系統和產品受到基本操作系統層的良好約束,以保障用戶的利益和福祉,智能機本身可能無法訪問或修改這些系統和產品。”

奧布萊恩博士補充說,“就像其他工程系統一樣,任何有潛在危險後果的系統都會經過徹底的測試,並有多個冗餘的安全檢查。”

我們今天使用的人工智能會成爲威脅嗎?

許多專家一致認爲,人工智能掌握在不懷好意的人中可能是一個威脅。哈維·穆德學院的人工智能專家喬治·蒙塔內茲博士強調,“機器人和人工智能系統不需要有感知力就有危險;它們只需成爲那些想要傷害他人的人手中的有效工具。這是今天存在的威脅。”

即使沒有惡意,今天的人工智能也可能具有威脅性。例如,在美國,將醫療保健分配給患者的算法中發現了種族偏見。在用於執法的面部識別軟件中也發現了類似的偏見。這些偏見有廣泛的負面影響,儘管僅僅是“俠義”的能力人工智能。

人工智能偏差來自於它所訓練的數據。在種族偏見的情況下,訓練數據不能代表一般人羣。另一個例子發生在2016年,一個基於人工智能的聊天室被發現發送高度攻擊性和種族主義內容。研究發現,這是因爲人們向機器人發送攻擊性信息,它從中學習了這種種族歧視信息。

我們今天使用的人工智能對於許多不同的任務都非常有用。這並不意味着它總是積極的——它是一種工具,如果惡意或不正確地使用,可能會產生負面後果。儘管如此,目前看來不太可能成爲對人類生存的威脅。

相關文章