硅谷大數據公司Palantir首席執行官亞歷山大·卡普(Alexander Karp)表示,就像電影《奧本海默》中這位科學家在原子彈爆炸後才意識到他開發的這一技術的影響一樣,人工智能開發人員也可能在爲時已晚的時候才意識到這項技術的潛在危害。

卡普在一篇評論文章中寫道:“在計算機科學領域,我們現在已經走到了一個類似的十字路口,一個連接工程學和倫理學的十字路口,在這裏,我們將再次不得不選擇是否繼續發展一項我們尚未完全瞭解其力量和潛力的技術。”

卡普說,人工智能被整合到我們周圍世界存在的無數技術系統中,最終可以與先進的武器系統相結合,並補充說,人工智能能夠部署致命武器並非不可能。

他寫道:“隨着人工智能網絡變得越來越大、越來越有能力,用它們來構建高效的武器系統變得越來越誘人,這與二戰期間核彈發明者面臨的道德困境相呼應。”

“諸如此類關於人工智能進一步發展的擔憂並非沒有道理。我們正在開發的軟件可以部署致命武器。武器系統與日益自主的人工智能軟件的潛在集成必然帶來風險。”

卡普認爲,雖然人工智能和機器學習技術確實非常強大,但叫停這項技術的發展是沒有根據的。

就像OpenAI首席執行官薩姆·奧特曼(Sam Altman)呼籲的那樣,卡普主張建立一個監管框架,以建立“護欄”,確保這項技術以積極的方式發展。

責任編輯:於健 SF069

相關文章