知名風險投資家馬克·安德森 (Marc Andreessen) 以“軟件正在吞噬世界software is eating the world”而聞名。在談到人工智能時,他聲稱人們應該停止擔心並持續創造

週二,安德森發表了一篇萬字長文,闡述了他對人工智能的看法、它帶來的風險以及他認爲AI需要的監管。在試圖抵消最近所有關於“AI 末日論”的討論時,他提出了一種可以被視爲過於理想主義的觀點:‘AI不想殺你Doesn’t want to kill you’。

安德森從對 AI 或機器學習的理解開始,稱其爲“應用數學和軟件代碼來教計算機如何以類似於人類的方式理解、綜合和生成知識”。

他說,人工智能是沒有感知力的——儘管它模仿人類語言的能力可以理解、愚弄一些人。事實是,它接受了人類語言的訓練,並在該數據中找到高級模式。 

“人工智能不想,它沒有目標,它不想殺死你,因爲它沒有生命,”他寫道。“人工智能是一臺機器——不會比你的烤麪包機更有生命力。”

安德森寫道,目前在 AI 世界中有一堵“散佈恐懼和末日論的牆”。在沒有點名的情況下,他可能指的是知名技術領導者聲,稱該技術對人類構成生存威脅的說法。上週,微軟創始人比爾·蓋茨、OpenAI 首席執行官薩姆·奧特曼Sam Altman、DeepMind 首席執行官戴米斯·哈薩比斯Demis Hassabis 等人簽署了一封來自人工智能安全中心的關於“人工智能滅絕的風險the risk of extinction from AI”的信。

安德森寫道,科技公司的首席執行官們有動力宣揚這種世界末日的觀點,因爲“如果建立監管壁壘,AI 供應商範圍就會受政府保護 ,免受新創業公司和開源競爭的影響,他們就會賺更多的錢。”  

許多人工智能研究人員和倫理學家也批評了世界末日的說法。一種觀點認爲,過分關注人工智能不斷增長的力量及其未來威脅,會分散人們對現實生活中一些算法對邊緣化社區造成危害的注意力,而不是在未指明的未來。

安德森寫道,擔任 AI 安全專家、AI 倫理學家和 AI 風險研究人員等角色的人“被付錢的監督是註定要失敗的,他們的陳述應該得到適當的處理,”他寫道。實際上,人工智能研究、倫理、信任和安全社區的許多領導者都明確反對末日議程,而是專注於減輕當今記錄在案的技術風險。

安德森並沒有承認任何記錄在案的人工智能在現實生活中的風險——它的偏見會影響面部識別系統、保釋決定、刑事司法程序、抵押貸款批准算法等等——聲稱人工智能可能是“一種讓我們關心的一切變得更好的方法”。 

他認爲,人工智能在生產力、科學突破、創意藝術和降低戰時死亡率方面具有巨大潛力。

“今天人們用他們的自然智能/智力做的任何事情,都可以用人工智能做得更好,”他寫道。“而且我們將能夠應對沒有人工智能就無法應對的新挑戰,從治癒所有疾病到實現星際旅行。” 

安德森在 1990 年代因開發第一個流行的互聯網瀏覽器而聲名鵲起,他於 2009 年與本霍洛維茨Ben Horowitz一起創辦了他的風險投資公司。兩年後,他寫了一篇經常被引用的博客文章,題爲“爲什麼軟件正在吞噬世界”,其中說就像之前的許多行業一樣,醫療保健和教育應該進行“基於軟件的基本轉型”。

“吞噬世界”Eating the world 正是許多人在談到 AI 時所害怕的。安德森說,除了試圖消除這些擔憂之外,還有很多工作要做。他鼓勵有爭議地使用 AI 本身,來保護人們免受 AI 偏見和傷害。

他說:“與私營部門合作的政府應大力參與每個潛在風險領域,以利用人工智能最大限度地提高社會的防禦能力。”  在安德森自己的理想主義未來中,“每個孩子都會有一位無限耐心、無限慈悲、無限知識、無限幫助的 AI 導師。” 對於人工智能作爲每個人、科學家、教師、首席執行官、政府領導人甚至軍事指揮官的合作伙伴和合作者的角色,他表達了類似的願景。 

在安德森的整篇文章中,他指出了其他人在公開表達他們對 AI 的看法時的別有用心。但他也有自己的。他想在 AI 革命中賺錢,並以此爲目標投資初創公司。

“我不相信他們是魯莽的或惡棍,”他在帖子中總結道。“他們都是英雄,每一個人。我和我的公司很高興能儘可能多地支持他們,我們將 100% 支持他們和他們的工作。”

以下是安德森《爲什麼人工智能會拯救世界》Why AI Will Save The World 一文,編譯分享給大家:

人工智能時代來了,人們都嚇壞了。 

幸運的是,我來這裏是爲了帶來好消息:人工智能不會毀滅世界,實際上可能會拯救世界。 

首先,簡要說明AI是什麼:應用數學和軟件代碼來教計算機如何以類似於人類的方式理解、綜合和生成知識。AI 是一種與其他任何計算機程序一樣的計算機程序——它運行、接受輸入、處理並生成輸出。人工智能的輸出在廣泛的領域都很有用,從編程到醫學到法律再到創意藝術。與任何其他技術一樣,它由人擁有並由人控制。 

對 AI不是什麼的簡短描述是:殺手軟件和機器人會突然復活並決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。

對 AI可能是什麼的更簡短描述是:一種讓我們關心的一切變得更好的方法。 

01 爲什麼人工智能可以讓我們關心的一切變得更好 

經過幾十年和數千項研究,社會科學最有效的核心結論是,人類智力human intelligence可以改善廣泛範圍的生活結果。更聰明的人幾乎在每個活動領域都有更好的結果:學業成績、工作表現、職業地位、收入、創造力、身體健康、長壽、學習新技能、管理複雜任務、領導力、創業成功、衝突解決、閱讀理解、財務決策制定、理解他人的觀點、創造性藝術、育兒成果和生活滿意度。  

此外,人類智力是我們幾千年來用來創造我們今天生活的世界的槓桿:

科學、技術、數學、物理、化學、醫學、能源、建築、交通、通信、藝術、音樂、文化、哲學、道德,道德。

如果沒有在所有這些領域應用智力,我們都將仍然住在泥屋裏,勉強維持生計農業的微薄生存。相反,在過去的 4,000 年裏,我們利用我們的智慧將我們的生活水平提高了 10,000 倍。 

AI 爲我們提供的是深刻增強人類智力的機會,使所有這些智力成果——以及許多其他成果,從新藥的創造到解決氣候變化的方法,再到到達星際旅行的技術——從這裏變得更好。

AI 對人類智能的增強已經開始——AI 已經以多種計算機控制系統的形式存在於我們身邊,現在正通過 ChatGPT 等 AI 大型語言模型迅速升級,並且從這裏開始加速——如果我們允許的話。

在我們的人工智能新時代: 

  • 每個孩子都會有一位無限耐心、無限慈悲、無限知識、無限幫助的AI導師。AI導師將陪伴在每個孩子成長的每一步,用無限愛的機器版幫助他們發揮最大潛能。
  • 每個人都會有一位無限耐心、無限同情、無限知識和無限幫助的 AI 助手/教練/導師/培訓師/顧問/治療師。人工智能助手將在生活中的所有機遇和挑戰中出現,最大限度地提高每個人的成果。
  • 每個科學家都會有一個 AI 助手/合作者/夥伴,這將極大地擴展他們的科學研究和成果範圍。每個藝術家、每個工程師、每個商人、每個醫生、每個護理人員都會在他們的世界中擁有相同的東西。
  • 每個人的領導者——首席執行官、政府官員、非營利組織主席、體育教練、教師——都會有同樣的東西。領導者做出的更好決策對他們所領導的人的放大效應是巨大的,因此這種智力增強可能是最重要的。

整個經濟體的生產率增長將急劇加快,推動經濟增長、新產業的創造、新就業機會的創造和工資增長,並導致全球物質繁榮的新時代到來。 

隨着人工智能幫助我們進一步破譯自然法則併爲我們謀取利益,科學突破以及新技術和藥物將顯着擴展。 

創意藝術將進入黃金時代,因爲人工智能增強的藝術家、音樂家、作家和電影製作人將能夠比以往任何時候更快、更大規模地實現他們的願景。 

我甚至認爲人工智能將在必要時通過大幅降低戰時死亡率來改善戰爭。每一場戰爭的特點都是在巨大的壓力下做出可怕的決定,並且由非常有限的人類領導人提供極其有限的信息。現在,軍事指揮官和政治領導人將擁有人工智能顧問,幫助他們做出更好的戰略和戰術決策,最大限度地減少風險、錯誤和不必要的流血事件。 

簡而言之,當今人們利用其自然智能所做的任何事情都可以通過 AI 做得更好,我們將能夠應對如果沒有 AI 就無法應對的新挑戰,從治癒所有疾病到實現星際旅行。 

這不僅僅是關於智力!也許人工智能最被低估的品質是它的人性化程度。人工智能藝術讓缺乏技術技能的人可以自由地創造和分享他們的藝術想法。與善解人意的 AI 朋友交談確實可以提高他們處理逆境的能力。人工智能醫療聊天機器人已經比人類同行更具同理心。無限耐心和富有同情心的人工智能不會讓世界變得更加嚴酷和機械化,而是會讓世界變得更加溫暖和美好。 

這裏的風險很高。機遇是深遠的。人工智能很可能是我們文明所創造的最重要——也是最好的——東西,當然可以與電力和微芯片相提並論,甚至可能超越它們。 

人工智能的發展和擴散——遠非我們應該擔心的風險——是我們對自己、對我們的孩子和對我們的未來所承擔的道德義務。 

有了人工智能,我們應該生活在一個更美好的世界中,現在我們可以做到。 

02 那麼爲什麼恐慌? 

與這種積極觀點形成鮮明對比的是,目前關於 AI 的公衆對話充斥着歇斯底里的恐懼和偏執狂。 

我們聽到這樣的說法,人工智能會以各種方式殺死我們所有人,毀掉我們的社會,奪走我們所有的工作,造成嚴重的不平等,並讓壞人做出可怕的事情。 

如何解釋這種從近乎烏托邦到可怕的反烏托邦的潛在結果的差異? 

從歷史上看,每一項重要的新技術,從電燈到汽車到收音機再到互聯網,都引發了一種讓人們相信新技術將摧毀世界、社會的影響。幾十年來,悲觀主義者檔案館的優秀人士記錄了這些技術驅動的道德恐慌;他們的歷史使這種模式生動清晰。事實證明,目前的恐慌甚至不是 AI 的第一次。 

現在,可以肯定的是,許多新技術導致了糟糕的結果——通常是同樣的技術在其他方面對我們的福祉產生了巨大的好處。因此,僅僅存在道德恐慌並不意味着沒有什麼可擔心的。 

但道德恐慌本質上是非理性的——它把可能是合理的擔憂誇大到歇斯底里的程度,具有諷刺意味的是,這使得人們更難面對真正嚴重的擔憂。 

我們現在對人工智能有全面的道德恐慌嗎? 

這種道德恐慌已經被各種參與者用作動力,要求採取政策行動——新的 AI 限制、法規和法律。這些行動者就人工智能的危險發表了極其戲劇化的公開聲明——助長並進一步煽動道德恐慌——所有這些人都把自己表現爲公共利益的無私捍衛者。  

但他們是嗎? 

他們是對還是錯? 

03 人工智能的浸信會和走私者 

經濟學家觀察到這種改革運動的長期模式。這些運動中的參與者分爲兩類——“浸信會”和“走私者”——借鑑了1920 年代美國禁酒的歷史例子:

“浸信會”是真正的信徒社會改革者,他們合理地——深刻地和情緒化地,如果不是理性地——認爲需要新的限制、法規和法律來防止社會災難。 

對於禁酒令,這些行動者通常是真正虔誠的基督徒,他們認爲酒精正在破壞社會的道德結構。  

對於 AI 風險,這些參與者真正相信 AI 會帶來一種或另一種存在風險——將他們綁在測謊儀上,他們是認真的。 

“走私者”是自私自利的機會主義者,他們通過實施新的限制、法規和法律將他們與競爭對手隔離開來,從而在經濟上獲利。 

對於禁酒,這些是字面上的私酒販子,他們在禁止合法酒類銷售時向美國人出售非法酒類發了財。 

對於 AI 風險,如果建立監管壁壘,這些 CEO 將賺更多的錢,這些壁壘形成了一個由政府支持的 AI 供應商組成的卡特爾,保護它們免受新創業公司和開源競爭的影響——“大而不倒”銀行的軟件版本。 

憤世嫉俗的人會認爲,一些明顯的浸信會教徒也是走私者——特別是那些被他們的大學、智囊團、活動家團體和媒體機構付錢攻擊 AI 的人。如果你拿薪水或接受助學金來助長 AI 恐慌……你可能是走私者。  

走私者的問題在於他們會贏得他們想要的。浸信會是天真的空想家,走私者是憤世嫉俗的經營者,所以像這樣的改革運動的結果往往是走私者得到他們想要的東西——監管俘獲、競爭隔離、卡特爾的形成——而浸信會則感到疑惑他們推動社會進步的動力在哪裏出錯了。 

我們剛剛經歷了一個令人震驚的例子——2008 年全球金融危機後的銀行業改革。浸信會告訴我們,我們需要新的法律法規來拆分“大到不能倒”的銀行,以防止此類危機再次發生。因此,(美)國會通過了 2010 年的多德-弗蘭克法案,該法案標榜爲滿足浸信會的目標,但實際上卻被走私者——大銀行所採用。結果是,2008 年“大到而能倒”的銀行現在規模大得多。 

所以在實踐中,即使浸信會是真誠的——即使浸信會是正確的——他們也被操縱和貪污的私酒販子用作掩護,以使自己受益。 

這就是目前在推動 AI 監管方面正在發生的事情。 

然而,僅僅確定行動者身份並質疑他們的動機是不夠的。我們應該考慮浸信會和走私者的論點。 

04 AI 風險1:AI 會殺死我們所有人嗎? 

第一個也是最初的 AI 末日風險是 AI 將決定真正殺死人類。 

對我們自己創造的技術會興起並摧毀我們的恐懼深深地融入了我們的文化中。希臘人在普羅米修斯神話中表達了這種恐懼——普羅米修斯給人類帶來了火的破壞力,更普遍的是技術(“techne”),爲此普羅米修斯被衆神判處永久折磨。 後來,瑪麗雪萊在她的小說《弗蘭肯斯坦》或《現代普羅米修斯》 中爲我們現代人提供了這個神話的版本,我們在其中開發永生技術,然後崛起並試圖摧毀我們。當然,如果沒有詹姆斯·卡梅隆的終結者電影中閃閃發光的紅眼殺人機器人的靜止圖像,任何關於 AI 恐慌的報紙報道都是不完整的。  

這個神話的假定進化目的是激勵我們認真考慮新技術的潛在風險——畢竟,火確實可以用來燒燬整個城市。

但正如火也是現代文明的基礎,在寒冷和充滿敵意的世界中讓我們保持溫暖和安全一樣,這個神話忽略了大多數 - 全部?– 新技術,在實踐中激起了破壞性的情緒,而不是理性的分析。僅僅因爲前現代人像這樣嚇壞了並不意味着我們必須這樣做;我們可以改用理性。 

我的觀點是,人工智能將決定真正殺死人類的想法是一個嚴重的類別錯誤。

人工智能不是經過數十億年的進化而準備參與適者生存之戰的生物——就像動物和我們一樣。它是數學-代碼-計算機,由人建造,由人擁有,由人使用,由人控制。它會在某個時候發展出自己的思想並決定它有導致自己試圖殺死人類的動機是一種迷信。 

簡而言之,AI 不想,它沒有目標,它不想殺死人類,因爲它沒有生命。人工智能是一臺機器——不會比你的烤麪包機更有生命地活躍起來。 

現在,很明顯,人工智能會毀滅人類的真正信徒——浸信會——他們的可怕警告突然獲得了大量的媒體報道,其中一些人聲稱已經研究這個話題幾十年了,並說他們現在害怕自己的生活他們所學的思想。

其中一些真正的信徒甚至是該技術的實際創新者。這些參與者主張對 AI 實施各種奇怪和極端的限制,從禁止 AI 開發,一直到對數據中心的軍事空襲和核戰爭。他們爭辯說,因爲像我這樣的人不能排除人工智能未來的災難性後果,我們必須採取預防措施爲了防止潛在的生存風險,可能需要大量的身體暴力和死亡的立場。 

我的回答是他們的立場是非科學的——什麼是可檢驗的假設?什麼會證僞這個假設?我們怎麼知道我們何時進入危險區域?除了“你無法證明它不會發生!”之外,這些問題基本上沒有答案。事實上,這些浸信會的立場是如此不科學和 極端——一個關於數學和代碼的陰謀論——並且已經在呼籲身體暴力,以至於我會做一些我通常不會做的事情,並質疑他們的動機。 

具體來說,我認爲有以下三點: 

首先,回想一下約翰·馮·諾伊曼回應羅伯特·奧本海默著名的關於他在製造核武器方面的作用——這有助於結束第二次世界大戰並防止第三次世界大戰——的回應是,“有些人承認有罪以聲稱自己的罪過。” 一個人可以在不顯得過於自負的情況下宣稱自己工作的重要性是最引人注目的方式是什麼?這解釋了實際上正在構建和資助 AI 的浸信會的言行之間的不匹配——注意他們的行動,而不是他們的話。(杜魯門在與奧本海默會面後更加嚴厲: “別再讓那個愛哭鬼進來了。” “Don’t let that crybaby in here again.”))

其次,一些浸信會實際上是走私者。有一整套“AI安全專家”、“AI倫理學家”、“AI風險研究員”的職業。他們被付錢是註定要失敗的,他們的陳述應該得到適當的處理。 

第三,加利福尼亞以數以千計的異教信仰Cults而聞名,從 EST 到人民聖殿教,從天堂之門到曼森家族。這些團體中有許多(儘管不是全部)是無害的,甚至可能爲那些在其中找到歸宿的異化者服務。但有些確實非常危險,衆所周知,邪教很難跨越最終導致暴力和死亡的界限。

灣區內的每個人都清楚但灣區外可能並非如此的現實是,“AI 風險”已經發展成爲一種異教,它突然出現在全球媒體關注和公衆對話的日光下。這種異教不僅吸引了邊緣人物,還吸引了一些真正的行業專家和不少富有的捐助者——包括直到最近的Sam Bankman-Fried (FTX聯合創始人)。它發展出一整套異教行爲和信仰。

這種異教就是爲什麼有一組 AI 風險末日論者聽起來如此極端的原因——並不是說他們實際上擁有使他們的極端主義合乎邏輯的祕密知識,而是他們已經把自己鞭打到狂熱中並且真的……極端極端。

......

不要誤會我的意思,異教很有趣,他們的書面材料通常富有創意和引人入勝,而且他們的成員在晚宴和電視上都很活躍。但他們的極端信仰不應該決定法律和社會的未來——顯然也不是未來。 

05 AI 風險2:AI 會毀掉我們的社會嗎? 

第二個廣泛討論的 AI 風險是 AI 會通過產生如此“有害”的輸出來破壞我們的社會,使用這種末日毀滅者的術語,對人類造成深遠的損害,即使我們不是字面上的殺了。 

簡短版本:如果殺人機器人沒有抓住我們,仇恨言論和錯誤信息就會。 

這是一個相對較新的末日擔憂,它從我上面描述的“AI 風險”運動中分支出來並在某種程度上接管了它。事實上,人工智能風險的術語最近從“人工智能安全”——擔心人工智能會真正殺死我們的人使用的術語——變成了“人工智能對齊Alignment”——擔心社會“危害”的人使用的術語。最初的 AI 安全人士對這種轉變感到沮喪,儘管他們不知道如何將其放回原處——他們現在主張將實際,該主題尚未被廣泛採用但至少是清楚的。 

AI 社會風險聲明的本質是它自己的術語“AI 對齊Alignment”。對齊什麼? 人類價值觀。 誰的人文價值觀念?啊,這就是事情變得棘手的地方。 

碰巧的是,我曾在類似的情況下坐在前排——社交媒體“信任與安全”戰爭。現在很明顯,社交媒體服務多年來一直承受着來自政府和活動家的巨大壓力,要求禁止、限制、審查和以其他方式壓制範圍廣泛的內容。對“仇恨言論”(及其數學對應物“算法偏見”)和“錯誤信息”的同樣擔憂正從社交媒體語境直接轉移到“人工智能對齊”的新領域。  

我從社交媒體大戰中學到的重要知識是: 

一方面,沒有絕對的言論自由立場

首先,包括美國在內的每個國家都至少將某些內容定爲非法 。其次,有某些類型的內容,例如兒童色情和煽動現實世界中的暴力,幾乎每個社會都幾乎普遍同意禁止訪問這些內容——無論合法與否。因此,任何促進或生成內容(語音)的技術平臺都會受到一些限制。 

另一方面,滑坡並不是謬誤,而是必然。

一旦限制極其可怕的內容的框架到位——例如,針對仇恨言論,一個特定的傷害性詞語,或針對錯誤信息,明顯是虛假的聲明,如“教皇已死”——範圍廣泛的政府機構 “和維權” 人士壓力團體和 非政府實體將開始行動,並要求對他們認爲對社會和/或他們自己的個人偏好構成威脅的任何言論進行更嚴格的審查和壓制。他們將以赤裸裸的重罪方式做到這一點 ——這個循環在實踐中顯然可以永遠運行,在我們精英權力結構中安裝的專制大廳監視器的熱情支持下。這已經在社交媒體上流傳了十年,而且除了某些例外情況外,一直都在變得更加狂熱。 

這就是現在圍繞“AI 對齊”形成的動態。它的支持者聲稱有智慧來設計 AI 生成的對社會有益的言論和思想,並禁止 AI 生成的對社會有害的言論和思想。它的反對者聲稱,思想警察是驚人的傲慢和專橫——而且往往是徹頭徹尾的犯罪,至少在美國是這樣——事實上,他們正在尋求成爲一種新型的政府-企業-學術融合的專制言論專政——直接到喬治·奧威爾的1984 。

由於“信任與安全”和“人工智能對其”的支持者聚集在全球人口中非常小的一部分,這是美國沿海精英的特徵——其中包括許多在科技行業工作和撰寫科技行業的人——許多我的讀者會發現自己準備爭辯說需要對 AI 輸出進行嚴格限制以避免破壞社會。我現在不會試圖說服你,我只是簡單地說,這是需求的本質,世界上大多數人既不同意你的意識形態,也不希望看到你獲勝。

如果你不同意通過不斷強化的語音代碼強加給社交媒體和人工智能的主流利基道德,你還應該意識到,關於允許人工智能說/生成什麼的鬥爭將更加重要 –很多- 而不是圍繞社交媒體審查制度的鬥爭。人工智能極有可能成爲世界萬物的控制層。它如何被允許運作可能比其他任何事情都更重要。你應該知道一小羣孤立的黨派社會工程師如何在古老的聲稱他們正在保護你的掩護下試圖確定這一點。 

總之,不要讓思想警察打壓AI。 

06 AI 風險 3:AI 會搶走我們所有的工作嗎?

自機器織機等機器最初出現以來,數百年來,人們對因機械化、自動化、計算機化或人工智能而導致失業的恐懼一直是一種反覆出現的恐慌。儘管在歷史上每一項新的主要技術都以更高的工資帶來了更多的工作,但每一波恐慌都伴隨着“這次不同”的說法——這是它最終會發生的時間,這是最終會發生的技術對人類勞動進行錘擊。然而,它從未發生過。 

我們最近經歷了兩次這樣的技術驅動的失業恐慌週期 ——2000 年代的外包恐慌和2010 年代的自動化恐慌。儘管在過去的幾十年裏,許多會說話的人、專家,甚至科技行業的高管都在敲桌子說大規模失業迫在眉睫,但到 2019 年底——就在 COVID 爆發之前——世界上的工作崗位比歷史上任何時候都多,工資更高。

不過這個錯誤的想法是不會死的。

果然,它回來了。

這一次,我們終於擁有了將取代所有工作並使人類工人變得多餘的技術—— 真正的人工智能。這一次歷史肯定不會重演,人工智能將導致大規模失業——而不是經濟、就業和工資的快速增長——對吧? 

不,這不會發生——事實上,如果允許人工智能在整個經濟中發展和擴散,可能會導致有史以來最劇烈和持續的經濟繁榮,相應地創紀錄的工作和工資增長——與恐懼完全相反。 

自動化扼殺工作的厄運論者不斷犯的核心錯誤被稱勞動力謬誤Lump Of Labor Fallacy。這種謬誤是錯誤的觀念,即在任何給定時間經濟中都有固定數量的勞動要做,機器做或人做——如果機器做,人就沒有工作可做...

勞動塊謬誤自然源於幼稚的直覺,但幼稚的直覺在這裏是錯誤的。當技術應用於生產時,我們會提高生產率——通過減少投入來增加產出。結果是商品和服務的價格降低。隨着商品和服務價格的下降,我們爲它們支付的費用減少,這意味着我們現在有額外的消費能力來購買其他東西。這增加了經濟中的需求,從而推動了新生產的創造——包括新產品和新產業, 然後爲那些在以前的工作中被機器取代的人創造新的就業機會。其結果是一個更大的經濟體,擁有更高的物質繁榮、更多的工業、更多的產品和更多的就業機會。 

但好消息並不止於此。我們也可以獲得更高的工資。這是因爲,在個體工人的層面上,市場將報酬設定爲的函數。技術注入型企業的員工比傳統企業的員工更有效率。僱主要麼支付該工人更多的錢,因爲他現在的工作效率更高,要麼另一個僱主純粹出於自身利益。結果是,引入一個行業的技術通常不僅會增加該行業的就業人數,還會提高工資。 

總而言之,技術使人們能夠提高工作效率。這導致現有商品和服務的價格下降,工資上漲。這反過來又會促進經濟增長和就業增長,同時推動創造新的就業機會和新的產業。如果允許市場經濟正常運行,如果允許技術自由引進,這是一個永無止境的永恆上升循環。因爲,正如米爾頓·弗裏德曼 (Milton Friedman) 觀察到的那樣,“人類的需求是無止境的”——我們想要的總是比我們擁有的更多。一個技術注入的市場經濟是我們更接近於提供每個人都可以想象到的一切的方式,但從來沒有完全實現。這就是爲什麼技術不會而且永遠不會破壞工作。 

對於那些沒有接觸過它們的人來說,這些想法是如此令人興奮,你可能需要一些時間來理解它們。但我發誓它們不是我編造的——事實上你可以在標準的經濟學教科書中讀到所有關於它們的內容。我推薦Henry Hazlitt 的《經濟學一課》中的機械詛咒The Curse of Machinery一章,以及 Frederic Bastiat 的諷刺蠟燭製造者請願書,因爲它與照明行業的不公平競爭而遮蔽了太陽,這裏爲我們的時代進行了現代化改造。 

但這次不一樣,你在想。 這一次,有了人工智能,我們擁有了可以取代所有人類勞動的技術。 

但是,使用我上面描述的原則,想一想從字面上看,所有現有的人類勞動都將被機器取代意味着什麼。 

這將意味着經濟生產力增長的起飛速度絕對是驚人的,遠遠超過任何歷史先例。現有商品和服務的價格將全面下降至幾乎爲零。消費者福利將飆升。消費者的消費能力將飆升。經濟中的新需求將會爆發。企業家們將創造出令人眼花繚亂的新產業、新產品和新服務,並儘可能快地僱傭儘可能多的人和人工智能來滿足所有新需求。 

假設人工智能再次取代勞動力——循環將重複,推動消費者福利、經濟增長以及就業和工資增長更高。這將是一個直線上升的物質烏托邦,這是亞當·斯密或卡爾·馬克思都不敢夢想的。  

我們將會變得如此幸運。 

07 AI 風險 4:AI 會導致嚴重的不平等嗎? 

說到卡爾·馬克思,對人工智能搶走工作的擔憂直接引出了下一個聲稱的人工智能風險,那就是,馬克思,假設人工智能確實搶走了所有的工作,無論是好是壞。這會不會導致嚴重的財富不平等,因爲人工智能的所有者獲得了所有的經濟回報而普通人一無所獲? 

事實上,這是馬克思主義的一個核心主張,即生產資料的所有者——資產階級——將不可避免地從從事實際工作的人——無產階級那裏竊取所有社會財富。

這個理論的缺陷在於,作爲一項技術的所有者,將它留給自己並不符合你自己的利益——事實上恰恰相反,將它賣給儘可能多的客戶符合你自己的利益。世界上任何產品最大的市場是整個世界,我們 80 億人。所以在現實中,每一項新技術——即使是那些開始銷售給高薪大公司或富裕消費者的稀薄空氣的技術——都會迅速擴散,直到它到達儘可能大的大衆市場,最終到達地球上的每個人的手中。 

這方面的典型例子是埃隆·馬斯克 (Elon Musk) 在 2006 年爲特斯拉制定的所謂 “祕密計劃” —他自然而然地公開了這一計劃: 

  • 第 1 步,打造 [昂貴] 跑車Step 1
  • 第 2 步,用這筆錢製造一輛負擔得起的汽車
  • 第 3 步,用這筆錢製造一輛更實惠的汽車

......當然這正是他所做的,結果成爲世界上最富有的人。 

最後一點是關鍵。如果埃隆今天只賣汽車給富人,他會更富有嗎?不,如果他只爲自己製造汽車,他會比這更富有嗎?當然不是。不,他通過向世界這個最大的可能市場銷售來最大化自己的利潤。 

簡而言之,每個人都得到了東西——正如我們在過去看到的,不僅有汽車,還有電力、收音機、電腦、互聯網、手機和搜索引擎。此類技術的製造商非常積極地降低價格,直到地球上的每個人都能負擔得起。這正是 AI 中已經發生的事情——這就是爲什麼你不僅可以低成本使用最先進的生成 AI,甚至可以免費使用 Microsoft Bing 和 Google Bard 的形式——而且這將繼續發生。不是因爲這些供應商愚蠢或慷慨,而是因爲他們貪婪——他們想要最大化他們的市場規模,從而最大化他們的利潤。 

因此,發生的情況與技術推動財富集中化相反——技術的個人客戶,最終包括地球上的每個人,反而被賦予了權力,並獲得了大部分產生的價值。與現有技術一樣,構建人工智能的公司——假設它們必須在自由市場中運作——將激烈競爭以實現這一目標。 

這並不是說不平等不是我們社會的問題。是的,它不是由技術驅動,而是被相反的驅動,由對新技術最有抵抗力的經濟部門驅動,這些經濟部門有最多的政府幹預來阻止採用像人工智能這樣的新技術——特別是住房、教育和醫療保健。AI 和不平等的實際風險不是 AI 會導致更多的不平等,而是我們不允許 AI 被用來減少不平等。 

08 AI 風險 5:AI 會導致壞人做壞事嗎? 

到目前爲止,我已經解釋了爲什麼五個最常被提及的 AI 風險中有四個實際上並不真實——AI 不會復活並殺死我們,AI 不會毀滅我們的社會,AI 不會導致大規模失業,AI 不會導致不平等的破壞性增加,但現在讓我們談談第五點,我非常同意的一點:人工智能將使壞人更容易做壞事。 

從某種意義上說,這是一個同義反復。

技術是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——也可以用來做壞事——燒人和打人。任何技術都可以用於好事或壞事。很公平。毫無疑問,人工智能將使罪犯、恐怖分子和敵對政府更容易做壞事。 

這導致一些人提議,好吧,既然如此,我們就不要冒險了,讓我們在這種情況發生之前禁止人工智能吧。不幸的是,人工智能並不是像鈈那樣難以獲得的深奧物理材料。恰恰相反,它是世界上最容易獲得的材料——數學和代碼。 

你可以從數以千計的免費在線課程、書籍、論文和視頻中學習如何構建 AI,而且優秀的開源實現每天都在激增。人工智能就像空氣——它將無處不在。逮捕如此嚴酷的人所需的極權主義壓迫程度——一個監視和控制所有計算機的世界政府?黑色直升機中的長靴暴徒奪取流氓 GPU?– 我們不會有一個社會需要保護。 

因此,有兩種非常直接的方法可以解決壞人用人工智能做壞事的風險,而這些正是我們應該關注的。 

首先,我們有法律將任何人用人工智能做的大多數壞事定爲犯罪。

入侵五角大樓?那是一種犯罪。從銀行偷錢?那是一種犯罪。製造生化武器?那是一種犯罪。實施恐怖行爲?那是一種犯罪。我們可以簡單地集中精力在力所能及的情況下防止這些罪行,在我們不能的情況下起訴它們。我們甚至不需要新的法律——我不知道有哪一個已經被提議的 AI 的實際不良使用還不是非法的。如果發現新的不良用途,我們將禁止該用途。 

但是你會注意到我在那裏漏掉了什麼——我說我們應該首先關注在人工智能協助的犯罪發生之前預防它們——這樣的預防難道不意味着禁止人工智能嗎?好吧,還有另一種方法可以防止此類行爲,那就是使用 AI 作爲防禦工具,使人工智能在有壞目標的壞人手中變得危險的能力,在有好目標的好人手中變得強大——特別是那些工作是防止壞事發生的好人。 

例如,如果你擔心 AI 會生成假人和假視頻,那麼答案就是構建新系統,讓人們可以通過加密簽名驗證自己和真實內容。在 AI 出現之前就已經存在了真實和虛假內容的數字創建和更改;答案不是禁止文字處理器和 Photoshop——或人工智能——而是使用技術來構建一個真正解決問題的系統。 

因此,其次,讓我們做出重大努力,將 AI 用於好的、合法的防禦目的。

讓我們將 AI 用於網絡防禦、生物防禦、追捕恐怖分子,以及我們爲保護我們自己、我們的社區和我們國家的安全所做的一切。 

當然,政府內外已經有很多聰明人在做這件事——但如果我們把目前專注于禁止 AI 的徒勞前景的所有努力和腦力用於使用 AI 來防止壞人做壞事,我認爲毫無疑問,一個充滿人工智能的世界將比我們今天生活的世界安全得多。 

爲了抵消壞人用人工智能做壞事的風險,政府與私營部門合作應積極參與每個潛在風險領域,以利用人工智能最大限度地提高社會的防禦能力。這不應僅限於人工智能帶來的風險,還應包括營養不良、疾病和氣候等更普遍的問題。人工智能可以成爲解決問題的強大工具,我們應該擁抱它。 

這就是我們使用 AI 拯救世界的方式。 

是時候建設了。It’s time to build.

我以兩個簡單的陳述結束本文。 

人工智能的發展始於 1940 年代,與計算機的發明同時進行。第一篇關於神經網絡的科學論文——我們今天擁有的人工智能的架構——1943年發表。在過去的 80 年裏,整整幾代人工智能科學家出生、上學、工作,在許多情況下都沒有看到我們現在得到的回報就去世了。他們都是傳奇,每一個人。 

今天,越來越多的工程師——其中許多人很年輕,可能有祖父母甚至曾祖父母參與了 AI 背後思想的創造——正在努力使 AI 成爲現實,反對散佈恐懼和末日論的牆試圖把他們描繪成魯莽的惡棍。我不相信他們是魯莽的或惡棍。他們都是英雄,每一個人。我和我的公司很高興能儘可能多地支持他們,我們將 100% 支持他們和他們的工作。 

本文來自微信公衆號“Tech商業”(ID:InnoBusiness),作者:Rea編譯,36氪經授權發佈。

相關文章