內容來源:本文爲東方出版社書籍《一本書讀懂人工智能》讀書筆記,筆記俠作爲合作方,經授權發佈。

封圖設計&責編 | 麗麗

第  2662 篇深度好文:5467 字 | 10分鐘閱讀

讀書筆記·人工智能

本文優質度:★★★★★ 口感:內蒙古牛肉

筆記俠說:

經歷過輝煌也跌入過谷底的人工智能,終於迎來了它的又一次熱潮。

一次次刷新人們認知的AI究竟是什麼?已經在哪些領域獲得應用?還將發展成怎樣令人驚訝的強人工智能?

接下來將爲你呈現一個真實的AI應用世界。

以下enjoy~

自從AlphaGo戰勝了圍棋職業棋手,大家的內心就有些惶惶然。職業棋手界將來怎麼辦?

你會不會也被AI取代?

短跑選手不可能戰勝汽車,但不會因此失去來自人們的讚賞。職業棋手也一樣,不會馬上喪失自身的價值。

所以不要怕。我們的現在和未來不一定是人類對戰人工智能。現在已經有很多機器人公司在生產能和人類肩並肩工作的“協作機器人”了。

我們看到一絲希望:今年,這個AI或許就能站在你的那一邊了。

一、AI在各個領域的應用

丘比採用AI幫助判斷是否有異物混入蛋黃醬或沙拉醬等食品。

如果遇到難以判定的情況,再依靠人類檢測員。這樣能夠提升檢測速度,還能減輕工作人員的負擔,因爲AI可以24小時作業。

在農業方面,與父母一起在日本種植黃瓜的小池誠正在研發能夠判定黃瓜等級,並自動進行分類作業的系統。

先讓系統學習大約9000份黃瓜圖像數據。

系統內的相機會拍攝放在分類作業臺上邊的黃瓜,利用TensorFlow的AI系統從圖像中抽取“長度”“彎曲狀況”“粗細度”等特徵,自動分爲6類。

不過如果圖像數據質量如果不均勻,會影響精確度。晝夜光的變化會使圖像亮度發生變化,如何收集穩定質量的圖像數據是關鍵。

AI可以幫助醫生和研究人員。美國IBM提供一種能夠回答提問功能的雲服務Watson Genomic Analytics(WGA)

WGA經過了2000萬篇以上的論文概要、1500萬個以上的醫療相關專利數據的訓練。

東京大學醫科學研究所宮野悟教授使用大腸癌的實驗數據驗證WGA的性能,只花了10分鐘就找到了有可能成爲癌症病因的遺傳基因。

如果靠人力來查,需要花兩個月的時間。

AI能夠以人事數據爲基礎判斷人才適合於何種工作、擅長髮揮怎樣的作用。

WorksApplications公司的ERP(綜合基礎業務系統)“HUE”就具備這樣的功能。

它可以分析職員的年齡、性別、職務經驗、薪金等數據,抽取在各個職位上過去做出過優秀業績的公司職員的傾向性數據,判斷人才的適應性。

大和運輸在LINE上利用能夠建立自動應答系統的“LINE商業聯繫”服務開展新型服務。這樣通過聊天就能夠通知送貨上門的時間以及有關貨物的相關諮詢。

AIRDO航空公司通過聊天機器人的雙向互動,縮短與顧客的距離,開展有效的市場營銷活動。

2017年3月通過LINE的對話服務開展特惠出售機票的活動。活動開始後,點擊率暴漲,造成了1分鐘服務器癱瘓的狀況。

其聊天機器人“AIRDO ONLINE Service”,能夠完成機票的預訂、確認、登機手續等。

這些只是AI能做到的一小部分事情。這幾年AI飛速地發展着,似乎只要你能想到的,技術就能做到。可是僅僅滿足“技術上可行”就夠了嗎?

二、自動駕駛技術將很快走向實用

純粹是錯覺

有時候除了技術本身,還有其他方面需要我們考慮,自動駕駛技術就是一個典型的例子。

目前自動駕駛技術發展得十分快。市面上已經有駕駛輔助系統,世界各汽車生產廠商正鉚足了勁兒開展研發。

形勢如此大好,不由令人感覺再過不久就能在普通道路上見到自動駕駛汽車。

但是,自動駕駛哪兒能這麼容易實現呢?

運用AI的自動駕駛技術的研發可以追溯到21世紀頭一個10年的中後期,谷歌公司基於其當時CEO勞倫斯•愛德華•佩奇的想法啓動了自動駕駛汽車研發項目,此舉後來廣爲人知。

自動駕駛技術要走向實際應用,道路非常漫長。

進入21世紀20年代,ROS(Robot Operating System)流行起來,機器人軟件技術廣爲人知。

在ROS熱潮、機器人熱潮的背後,谷歌及汽車廠商一直在默默地進行自動駕駛汽車的研發。

2015年10月豐田開展了自動汽車測試,自此豐田將研發自動駕駛汽車的事公之於衆,還收購相關技術公司或與其合作。

2016年1月更是爲研究AI在硅谷成立了豐田研究所(TRI,Toyota Research Institute)

本田與谷歌合作,正在共同開發完全自動汽車。

日產總裁卡洛斯·格恩在2017年1月透露,日產正在開展完全自動駕駛汽車的實驗。戴姆勒、福特、BMW等也紛紛表示正在研發自動駕駛汽車。

美國已經允許在公路上開展自動駕駛測試。

裝載了5萬瓶啤酒的自動駕駛貨車成功以時速120英里(約190km)的速度行駛的新聞還記憶猶新。

日本也在2016年11月進行了首例公路測試,雖然測試時公路上施行了道路管制。

僅從技術角度來講,自動駕駛汽車的平均事故率已經低於人類駕駛。

但解決了技術問題並非就掃除了商業化的所有障礙,不管自動駕駛汽車的事故率降到多低,依然存在發生事故的可能性。

自動駕駛汽車在緊急情況下該如何處理?相關的倫理、法律問題怎麼解決?這樣看來,自動駕駛要發展離不開相關法律制度的健全。

說到底機器學習只是讓計算機學習以前的舊有數據,其機制是讓機器學習過去已發生的事情。

AI無法處理迄今從未出現過的情況,因此需要讓它學習在這些緊急狀態下如何依據法律法規正確處理問題。

例如:你和家人坐在自動駕駛的汽車裏,路右邊是放學後的孩子,左邊是賞花的老人,而此時前邊行駛着的大貨車突然剎車,你們眼看就要撞上去。

撞上去後你和家人很可能就此喪命,不撞上去的話又剎不住車,不是威脅右側孩子們的安全就是威脅左側老人們的安全,此時自動駕駛汽車面臨如此緊急的情況要怎樣處理呢?

此時有幾種選項,比如“應該選擇轉向人少的一方”“孩子還有大好的未來,應該轉向左側”“應該直接撞上去”等。

不管自動駕駛汽車選擇哪種做法,都不能一概而論地說它做對了或做錯了。

怎麼選擇正確,不同國家的法院都是具體案例具體討論的,並未達成社會共識。

沒有達成社會共識就意味着無法對人進行數值化衡量,而只要不能用數值衡量就不能由人預先設定程序。

當然,不同選項的優先順序構成了機器學習的評價標準。如果沒有評價標準,就算AI計算多少遍也得不出結果。

換句話講,用數值衡量人是一個繞不過去的彎兒。

進行機器學習時問題更多。各國文化、道德、倫理觀念各不相同,雖然交通法大致框架一致,但涉及上述緊急情況下如何判斷行爲的妥當性時則各國各不相同。

有些藥在美國的藥店裏就能買到,但在日本卻屬於禁藥範圍。人工智能也可能出現類似情況。

涉及倫理問題,要在世界範圍內統一標準,不是國家各自修改一下法律就能解決的。

需要國家間進行協調,而這難度相當大。

三、“AI威脅論”源於無知:

3個誤解以及真正的課題

誤解1:終有一天AI 可能會自發產生消滅人類的想法。

回答1:以現在的AI技術,離“擁有自己的想法”還相距甚遠。

現在的AI,沒有人類輸入的對話數據,是不可能生成對話的,也就是說現在的對話AI還沒有脫離鸚鵡學舌的階段。

從前,AI機器人在電視節目中說“要消滅人類”,而成爲熱議的話題,這其實是由於提問人提問“你想消滅人類嗎?”機器人只是鸚鵡學舌地進行了回答。

通用人工智能的出現確實會對社會造成很大沖擊,但如果問它所帶來的威脅是否大到現在就需要給AI的開發加以制約,或者問現在的技術是否已經發展到這種程度,回答只能是No。

即使在第3次AI熱潮中,可稱爲智能中樞的語言功能的進展仍比較緩慢。

誤解2:AI 是黑匣子?由於缺乏決策透明度因此無法應用。

回答2:關於使AI不成爲完全的黑匣子的開發工作正在向前推進。

通常的程序,通過追蹤代碼能夠確認算法,但在深度學習中,沒有人類能讀懂的理論代碼,只有表示各神經網絡連接強弱的參數。

深度學習與通常的程序相比較,黑匣子性質更強烈,這是毋庸置疑的。

但現在,對以深度學習爲首的AI技術,人們不斷地做嘗試提高其透明度的手法,已經不能一概而論地稱“AI就是黑匣子”。

TRI的CEO(首席執行官)吉爾•布拉德先生所研究的是“可解釋的自動駕駛AI”。

將自動駕駛軟件劃分爲通過光學傳感器和雷達信息來識別物體存在的“認知層”和以此認知爲基礎決定駕駛員行動的“行動層”。

後者是以一般的程序形式組成的,能夠被解析。

美國英偉達公司開發的以深度學習爲基礎的自動駕駛軟件PilotNet是採取認知層和行動層均由神經網絡來承擔的所謂端對端原理的方法。

該公司同時在開發一項技術,通過該技術,可以看到經過深度學習的神經網絡是注視前方圖像的哪裏在實施導向的。

通過提升神經網絡行動的可視化,使黑匣子不再是黑匣子。

在AI的透明度方面,有比深度學習的黑匣子性更加重要的問題:

設想一下:

某個私人助手程序向客戶推薦“如果餓了,推薦您去A店”。

如果是因爲A店向提供助手服務的企業付了廣告費,作爲回報,私人助手程序提出了這個建議,那麼這個建議就可以說是一種祕密行銷。

在私人助手對話的用戶界面,如果要區分廣告和非廣告,就會使對話顯得不自然。總不能讓AI說:“推薦您去A店和B店。前者是廣告,後者非廣告。”

不僅僅是私人助手,只要是AI具有幫助人類做決定,或給予建議的功能,都有可能產生這個問題:“這個AI究竟是站在誰的一邊?”

是否需要定一個規則來公開AI背景中所有的利益關係呢?

誤解3:讓自動駕駛之類的AI 來對人類生命實施抉擇是對人類尊嚴的冒犯?

回答3 :實際上由AI 對生命實施抉擇的情況幾乎沒有。

倫理學領域有一個知名的“電車難題”:“如果自動駕駛的汽車馬上要與有許多孩子乘坐的汽車相撞時,自動駕駛AI爲拯救多數孩子的性命,將方向盤轉向懸崖,犧牲車內司機的性命,這種判斷在倫理上是否許可呢?”

實際上,許多AI開發者沒有把電車難題當作現實中的障礙。

TRI的CEO吉爾•布拉德先生在記者見面會上回答道:“原本不使人陷入電車難題那樣的危機狀態,正是自動駕駛AI應該發揮的作用。”

自動駕駛AI通過能觀察360度的激光傳感器和各種圖像傳感器,能夠觀察到人類駕駛者所不能看到的死角。正因此,才能比人類更容易避免未知的危機。

假如陷入了相當於電車危機的危機狀況,自動駕駛AI應該不會轉方向盤,而是優先踩急剎車減速。

這樣可能會增加與後邊車產生追尾的風險,但追尾一般會追究後邊車的責任,而爲避免事故的急剎車,無論在法律上還是倫理上,都沒有問題。

原本連倫理學家都無法解決的電車難題,卻給AI強加倫理責任,可以說這樣做本身就不正常。

當遇到突發危險時,AI只要能採取比人類更強的應對措施,就應該算是及格了,我們難道不應該採取這樣的評價方式嗎?

實際上自動駕駛AI比人類駕駛員具有更高的避免事故發生率。美國特斯拉汽車的半自動駕駛功能Autopilot的事故發生率已經比人類駕駛的低了。

這樣就會產生與AI相關的一個新的倫理問題:“將駕駛推給人類,在倫理上是正確的嗎?”

例如,人類駕駛員因爲疲勞,缺乏睡眠,而造成蛇形駕駛,這樣發生事故的危險增加。

這種情況下,如果自動駕駛AI違反駕駛員的意志,奪過汽車控制權,代爲駕駛,或者將其停在安全位置,就能夠減少事故發生。

AI違背用戶的意圖搶奪駕駛控制權,這是無法容許的違揹人類尊嚴的行爲嗎?還是交託於事故發生率更低的AI更符合倫理觀?

儘管AI威脅論的說法有些誇大其詞,但現在許多AI技術確實已經面臨倫理方面的課題。飽受批判的“AI開發指導原則”在喚起人們的討論這一點來說,可以說是發揮了重要的作用。

AI倫理與開發指導原則

爲了保護人類的安全,防止AI“走上邪路”,開發AI應該遵循什麼原則呢?世界各國都有自己的思考。

日本總務省所提出的開發原則是透明度、可控性、確保安全、安全保護、隱私保護、倫理、支持使用者、解釋責任8項原則。

關於其中的“透明度”,也不是說“沒有透明度”的AI不應該使用。不光是AI,有時候在黑匣子的狀態下使用技術也是沒辦法的事。

有一些技術人們並不能完全解釋清楚,卻被廣泛使用,飛機就是代表性的例子。

飛機在空中飛翔的結構中也有沒弄清楚的部分,但在使用時,會先商定如何減少事故,以及事故發生時如何處理。

結果因飛機失事所帶來的死亡事故與汽車交通事故相比較,正在大幅減少,飛機正在成爲最安全的一種交通工具。也可以從同樣的角度考慮AI的使用。

關於“可控性”,最終會發展至“是否設置死亡開關”的相關討論。有些討論就涉及當自動駕駛車失去控制亂跑,或發生機器人叛亂時,應該設置死亡開關。

但在許多AI聯動的AI網絡中,只制止一個AI,卻無法控制整體,可能使情況變得更加糟糕。

例如,在由自動駕駛汽車組成的車隊裏,其中一名駕駛員踩剎車是不被允許的。

在歐洲汽車製造商中,已經在討論“隨着自動駕駛AI的發展,應該禁止對情況的判斷能力不如AI的人類介入駕駛”。

考慮到這種影響,對於不應該設置AI死亡開關的意見也是合理的。

類似這樣的爭議和討論還有很多。

但無論如何,對於AI開發者來說,現在都是一個無與倫比的好時代。開發者能夠利用的工具非常齊備,只要有創意,就有可能實現。

相信AI今後還將有極爲廣闊的發展空間,我們拭目以待。

*文章爲講者獨立觀點,不代表筆記俠立場。

筆記書堂 AI熱潮的謊言和真相

小程序

原價:69.80

現價:52.35(筆記書堂省17.45元)

這本書主要介紹的是日本和歐美一些國家人工智能的發展情況和應用。

書中對人工智能的相關話題有一些很新穎的觀點,相信能爲讀者提供新的思路。

對於人工智能開發中倫理方面的探討,被採訪者們分別提出了自己的見解,各方的論述都有自己的道理,不同的想法碰撞出的火花是本書的一大亮點。

筆記俠好文推薦:

任何人都會辜負你,唯有到手的能力不會

曾鳴:面對這樣的對手,幾乎毫無還手之力

他用10億美金換來的方法論,請自取

看完了,給筆記俠點個贊再走嘛↓↓↓

查看原文 >>
相關文章