作者 | 芯芯

編輯 | 靖宇

「科技是懶人推動的!」

相信所有人在「摸魚」或者「躺平」時候,都曾經用這句話爲自己找藉口。

從蒸汽機的工業革命,到計算機的數字革命,技術的進步確實讓人類在某些方面,越來越有躺平的資本。

作爲最有潛力成爲下一代平臺的 AI 技術,會讓人類變得「更懶」嗎

好像確實是的,但這並不是個好消息。

根據發表在《機器人與人工智能前沿》雜誌上的一項最新研究顯示,當人類與 AI 和機器合作時,真的會「摸魚偷懶」。

該研究的第一作者 Cymek 稱:「團隊合作既可以是一種祝福,也可以是一種詛咒。」

所以,在 AI 時代,人類最大的危機不是被機器取代,而是「懶到退化」

當有了機器這樣一個有力幫手時,會讓人類變得比較「心大」。

德國柏林工業大學的研究人員向 42 名參與者提供了模糊的電路板圖像,要求他們檢查是否有缺陷。其中一半的參與者被告知,他們要處理的電路板已由一臺名爲「熊貓」的機器人檢查過,並已標記出缺陷。

實際上,機器人「熊貓」在實驗過程中檢測到了 94.8% 的缺陷。所有參與者都看到了相同的 320 張掃描電路板圖像,當研究人員仔細查看參與者的錯誤率時,他們發現,與「熊貓」一起工作的參與者,在任務後期捕捉到的缺陷較少,因爲他們已經看到「熊貓」成功地標記了許多缺陷。

兩組參與者幾乎檢查了整個電路板表面,花時間搜索,自我評價努力程度較高。結果是,與機器人合作的參與者平均發現了 3.3 個缺陷,獨自完成任務的人平均發現了 4.23 個缺陷。

研究稱:「這表明參與者在與機器人夥伴合作時,可能不太專心地檢查電路板。我們研究的參與者似乎保持了檢查電路板的努力,但似乎檢查是在較少的腦力勞動和對採樣信息的關注下進行的。」

這意味着,如果他們被告知機器人已經檢查了一部分,並體驗到機器人的可靠後,他們就會發現更少的缺陷。在潛意識中,他們假設「熊貓」不太會漏掉缺陷,產生「社會惰化」效應

這項研究的影響對於依賴嚴格的質量控制的行業尤爲重要。作者警告稱,甚至是短時間內對人類注意力的放鬆,可能是由於過度依賴機器人的準確性,都可能危及安全。

研究人員 Onnasch 提到:「在更長的輪班時間內,當任務變得例行化,並且工作環境提供的性能監控和反饋較少時,動力的喪失往往更大。在製造業普遍存在,特別是在雙重檢查常見的與安全相關的領域,這可能對工作結果產生負面影響。」

當然,研究者的測試也有一些限制。比如,樣本其實還不夠大,而且在實驗室中難以模擬「社會惰化」,因爲參與者知道他們受到監視。Cymek 解釋道:「主要的限制是實驗室環境。要了解人機互動中動力喪失問題的嚴重性,我們需要走出實驗室,在實際工作環境中與經驗豐富的工人一起測試我們的假設,他們通常與機器人一起工作。」

事實上,在實驗室之外,人機合作導致的「墮化」早已經在現實世界中出現。

在自動駕駛領域,有一個與「社會惰化」相似的現象,叫做「自動化自滿(Automation complacency)」,典型是由於有了自動化輔助而分心

2018 年 3 月,在美國亞利桑那州,配有安全員的 Uber 自動駕駛汽車撞死一位騎自行車的人。警方的分析發現,如果安全員一直看着道路,安全員本可以在受害者前方 12.8 米處停下來,並避免悲劇。

特斯拉常常是美國媒體和監管機構重點關注的目標,原因常常是與自動駕駛有關的事故。一個典型的場景是,特斯拉司機在使用自動駕駛功能時睡覺,或玩遊戲,並捲入致命車禍。

在當下的 AI 狂潮中,機器取代人類的預言越來越接近現實。一方認爲機器會服務於人類,另一方則認爲人類會不小心製造出邪惡之物。

在醫療領域,IBM 研發的 AI 系統「Doctor Watson」曾向癌症患者給出過不安全的用藥建議。今年有論文指出,生成式 AI 已經可以通過美國醫療許可考試的三個部分。一個相似的遷移假設是,如果未來由 AI 對人類進行診治,然後人類醫生進行把關,人類醫生是否又會出現「社會惰化」和「自動化自滿」問題

前述研究的作者指出:「將人類和機器人的能力結合顯然提供了許多機會,但我們也應該考慮,人機團隊中可能發生的意外羣體效應。當人類和機器人在一項任務上工作時,這可能會導致人類團隊夥伴的動力損失,並使社交惰化等影響更有可能發生。」

還有人擔心,AI 可能會影響人類思維和創造力,並削弱人際關係,從整個現實中分心。硅谷的生成式 AI 明星初創公司 Inflection 推出的聊天機器人 Pi,被設計成一位友善、支持的伴侶。創始人表示,Pi 是幫助人們應對孤獨的工具,可以作爲一個傾訴的對象。批評者則認爲,這會讓人逃離現實,而不是與真實的人類互動。

現在,人與工具的關係已經進化到一個新的層次。所有工具的誕生,其實都讓人類變懶了,如掃地機讓人免於清掃房屋,手機讓人不用再記下電話號碼。

但 AI 技術和此前的技術區別在於,將更多的思考和選擇工作,都交給了 AI,而後者基本上是一個黑箱,這更像一種思考自主權的讓渡。當人將開車決策完全交給自動駕駛,將醫療診斷都交由 AI 系統,潛在的代價與記不住電話號碼的代價可能完全不同。

開發了歷史上第一個聊天機器人的計算機科學家約瑟夫・維森鮑姆,曾將科學比喻成「一種上癮的藥物」,並由於服用劑量越來越大而成爲「一種慢性毒藥」,如將計算機引入一些複雜的人類活動,可能會沒有回頭路可走。

當人把思考、判斷的權力交給機器,作爲一種「參考」,「社會惰化」和「自動化自滿」的魔鬼或許也潛伏其中,並可能隨任務的重複成爲一種慢性毒藥。

本文來自微信公衆號:極客公園 (ID:geekpark),作者:芯芯

廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章