轉自:千龍網

今年國務院《政府工作報告》明確提出:制定支持數字經濟高質量發展政策,開展“人工智能+”行動。

AI技術正在賦能各個領域,由此產生的經濟效益和社會效益也頗爲可觀。在AI技術的迭代中,誰也無法準確預測這類技術的潛力還有多少沒挖掘出來。在AI科學家不斷讓智能體變得更加“聰明”的同時,有關這種技術的安全問題也成爲公共話題。

今年全國兩會上,全國政協委員齊向東關注創新發展“AI+安全”,並詳細解答瞭如何應對AI時代的信息安全和網絡安全威脅相關問題。全國人大代表張敏提出,要增強人工智能技術安全應用,加快推進《人工智能法》立法,築牢關鍵信息基礎設施安全屏障。

代表委員針對人工智能應用安全提出的建議,有可能上升爲通過立法強制保障人工智能的安全應用。這也表明,有關人工智能安全應用的共識正在形成中。

就在上週,馬斯克提起針對奧爾特曼和OpenAI的訴訟,指控被告遺忘了OpenAI既定使命中的核心部分,即開發有用且無害的人工通用智能。面對指控,奧爾特曼承諾OpenAI的使命是“確保人工智能造福全人類”。

國內外對於AI技術應用的憧憬與擔憂並存,這是人類出於自身利益和安全的正常考量。人們提出“負責任的AI”願景,也旨在解除應用這種技術的後顧之憂。至於這樣的憂慮爲何難以排除,在於它未來發展的不確定性,由此讓更多的人變得憂心忡忡。有人甚至認爲,“從AI的發展可以看出人類的能力是多麼的渺小,機器超過人只是時間問題。”

世界上最大的隱患,是對風險的渾然不覺或者抱着無所謂的態度。當人工智能的安全問題已成爲全球性的公共話題,國內外都不乏對人工智能發展立法的聲音。這樣的憂患意識令人欣慰。既然憂患意識已經普遍覺醒,當整個社會都對人工智能安全問題抱着“有所謂”的態度,又何愁“負責任的AI”不會從願景變成現實呢?

“負責任的AI”要從願景變成現實,需要經歷必不可少的“三部曲”,要從最基本的安全意識,逐漸落實到具體的追求安全的行動上。

從願景變成現實,“負責任的AI”要求人類懂得何爲真正的自愛。人工智能技術是人類的發明,智能體的價值在於造福人類。它對人類的用處越大,智能體也就越值得被人類所愛。要做到這一點,需要自愛的是極少數掌握AI技術迭代“按鈕”的科學家。這樣的“掌門人”真正懂得自愛,即他們的發明創造值得爲世人所愛,他們才因爲自己的技術貢獻而配被他人所愛。

從馬斯克採取法律手段叫板奧爾特曼來看,這次訴訟的意義在於教導掌握AI發展“按鈕”的技術“掌門人”要學會真正的自愛。他們懂得了真正的自愛,公衆對AI技術的安全之憂也就少了許多。

從願景變成現實,“負責任的AI”要求人類懂得何爲真正的自律。自愛是在人懂得節制的過程中形成的,一個在道德上自愛的人必然是真正自律的人。

“負責任的AI”成爲全球性的公共話題,在於掌握AI發展技術“按鈕”的人在技術研發中追求技術的迭代,無形中忽視了對AI安全問題的考慮。沒有這樣的安全考慮,AI技術領跑的速度上去了,但這種技術也可能脫離了道德的繮繩,忘記了技術是造福人類社會,而不是給人類社會添堵。

自律是人給自己制定行動的規則。在有自律精神的AI技術團隊那裏,“負責任的AI”意味着對智能體的設計必須設置重重的安全性約束裝置,一旦智能體在運行中有傷害人類情感或利益的可能和風險,它必須有能力中止這樣的行爲傾向。這樣的傾向看似是智能體自己的事情,實際上卻只能是智能體設計者的自律問題。

只有創造智能體的人嚴於自律,把用戶的安全當作自己的安全,“己所不欲勿施於人”,他們在設計智能體時,才能做到先讓AI“負責任”。

從願景變成現實,“負責任的AI”要求整個社會要具有責任意識。

責任是一種強迫,通過外在的立法和有效的訴訟,讓不懂得在技術研發中自愛的機構和個人逐漸學會自愛起來;通過道德的自覺,讓更多的人工智能技術研究人員樹立起技術發展的責任意識,讓更多有識之士包括像人大代表、政協委員這樣的公衆人物,不斷呼籲科學家、技術專家、企業家以及全社會都高度重視AI安全問題。責任意識越濃厚,未來的AI也就越安全。

要讓AI“負責任”,人類需要先自覺負起責任。AI安全的願景畫卷已經徐徐展開,期待“負責任的AI”變成現實爲時不遠。

責任編輯:石秀珍 SF183

相關文章