來源:華爾街見聞

  如果互聯網上越來越多地充斥AI生成的內容,就將可能成爲AI公司自己的麻煩。

最近,關於AI污染網絡環境的消息多了起來。

前段時間,一篇名爲《AI,正在瘋狂污染中文互聯網》的文章刷屏,文中有網友發現某平臺上一個AI賬戶,以極快的速度將未經覈實的信息輸出到中文互聯網,並且誤導了Bing AI,以至於Bing給出了錯誤答案。

這不是孤例,而且不止國內,海外的情況也是如此。

美國生活雜誌《國際生活》的主編Jennifer Stevens在第一次聽說ChatGPT後,她想知道這對她編輯的雜誌意味着什麼。

幾個月後,她萬萬沒想到,自己花了很多時間在篩選無用的文章。

據報道,包括Stevens在內的很多在線新聞主編看到,人工智能生成了越來越多的質量遠遠低於他們標準的內容,他們認爲這是一種新型的垃圾信息。

生成式AI可以根據簡單的提示回答問題、生成圖像,甚至生成文章。其中一些技術還有望增強數據分析,消除單調的寫作任務,就像計算器改變了數學一樣。

但最近的情況也顯示了生成式AI垃圾信息激增並可能在互聯網上蔓延的潛力。

5月初,新聞網站評級公司NewsGuard發現了49家使用AI生成內容的假新聞網站。據該公司聯合創始人Gordon Crovitz說,截至6月底,這一數字已達到277個。

“這是指數級增長,”Crovitz說。

Crovitz曾擔任專欄作家和出版人,他說,這些網站的創建似乎是爲了通過谷歌的在線廣告網絡賺錢。

研究人員還指出,人工智能技術有可能被用來製造政治虛假信息和用於黑客攻擊的有針對性的信息。

網絡安全公司Zscaler表示,現在斷定犯罪分子是否正在廣泛使用AI還爲時過早,但該公司預計,AI將被用於創建高質量的虛假網絡釣魚網頁,這些網頁旨在誘騙受害者下載惡意軟件或泄露他們的在線用戶名和密碼。

在YouTube上,ChatGPT淘金熱正如火如荼,數十個關於“如何靠生成式AI技術賺錢”的視頻觀看次數在十萬次以上,許多博主提出的建議疑似涉及垃圾內容。一些博主告訴觀衆,他們每週可以賺數千美元,敦促他們寫電子書,或者創建AI運營的博客賬號,賬號內容可以通過出現在谷歌搜索中來產生廣告收入。

OpenAI的一位發言人曾說,ChatGPT善於回答問題,但它偶爾會產生錯誤的答案。

“很多人認爲它(ChatGPT)是一個搜索引擎,但它不是。”

美國知名科幻電子雜誌《克拉克世界》(Clarkesworld)的總編Neil Clarke說,今年早些時候,該雜誌不得不暫時停止接受在線投稿,因爲其被數百篇人工智能生成的故事給淹沒。

Clarke說,這些投稿是由在線視頻推動的,這些視頻建議使用ChatGPT給Clarkesworld投稿。

他說,他的雜誌拒絕所有AI生成稿件,這些稿件很容易識別,它們“拼寫和語法都沒問題,但卻是一個完全不連貫的故事”。

“通常,它們從一個世界即將結束的大問題開始,1000個字後,這個問題就以某種方式結束了,沒有任何解釋。”

《國際生活》的Stevens則說:

“它們都是以一種相當平淡和普通的方式寫成的,語法上都是正確的,只是覺得很公式化,對我們來說真的沒用。”

分析稱,如果互聯網上越來越多地充斥AI生成的內容,就將可能成爲AI公司自己的麻煩。

因爲AI生成的內容本身就存在不夠準確的問題,AI模型獲得大量互聯網數據,但卻無法很好地辨別信息的真實性和可信度,而如果ChatGPT這些大模型使用AI生成的內容進行訓練,模型就會變得不那麼有用,這種現象被稱爲“模型崩潰”

不僅僅是垃圾內容會導致模型崩潰,越來越多的人已經在使用人工智能來生成整體內容了。

上個月,洛桑聯邦理工學院的研究人員在網上聘請了自由撰稿人,對《新英格蘭醫學雜誌》上發表的摘要進行總結,結果發現其中超過三分之一的人使用了人工智能生成的內容。

當AI生成的內容越來越多,未來想找到未被AI訓練的數據,將難上加難。

牛津大學應用與理論機器學習小組的研究員Ilia Shumailov認爲,模型崩潰是不可避免的,但有一些潛在的技術解決方案可以解決這個問題。例如,能夠訪問真人生成內容的公司,仍然能夠構建高質量的大型語言模型。

風險提示及免責條款

市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

相關文章