財聯社5月15日訊(編輯 周子意)本週,人工智能領域的頭條新聞無疑就是OpenAI和谷歌的產品大對決。

OpenAI公司一貫“喜愛”在競爭對手的重大產品發佈會之前搶先發布自己的產品,從而搶佔新聞焦點,本週也不例外。

OpenAI在此前就給予了公衆很高的期望值,週一(5月13日),該公司如期宣佈了GPT-4的升級版,名爲GPT-4o(“o”代表omni全方位)。GPT-4o旨在充當手機或平板電腦上的個人助理,具有改進的語音交互功能,能夠解釋和推理設備相機拍攝的照片,擁有更強大的語言翻譯能力,以及更快的響應時間。

GPT-4o背後的技術創新令人印象深刻,該模型是多模態的,它可以實時對音頻、視覺和文本進行接收、推理,並生成文本、音頻和圖像的任意組合輸出。該模型與過往版本比較,省去了將用戶的聲音轉化爲文本並處理的步驟,意味着整個流程更加快速。

GPT-4o還縮短了模型處理特定數量token所需的時間(在英語文本的情況下,一個token通常等於一個半單詞),這也使得該模型比OpenAI此前最佳型號GPT-4 Turbo運行得更快、更便宜。

週二(5月14日),谷歌也連放大招,正面硬剛OpenAI。

在谷歌的I/O開發者大會上,谷歌宣佈了一系列新的人工智能功能和即將發佈的產品,包括Gemini模型的廣泛升級、未來的人工智能助手“Astra”、生成式人工智能賦能谷歌搜索、以及一系列與圖像、音樂、視頻有關的生成式AI工具。

谷歌在會上公佈了Gemini 1.5 Pro模型的改進,將100萬tokens的上下文窗口進一步擴大至200萬,並且使其能夠擁有更自然的聲音,更好地理解音頻和圖像,更強的邏輯推理和規劃能力,以及更好的計算機代碼生成能力。

並且,谷歌還發布了一款高級視覺和對話響應智能體項目Astra,用於處理音頻、視頻等多模態的輸入內容。相較於OpenAI的GPT-4o只能處理靜態圖像,Astra還可以處理視頻。在一段演示視頻中,它能夠通過攝像頭視頻,識別“什麼東西能發出聲音”、“現在身處何地”等指令。不過它的回應存在滯後或延遲,據悉,谷歌未來版本的人工智能個人助理正在通過“Astra”進行開發。

人工智能助手的“高光時刻”

從OpenAI和谷歌的產品發佈可以看出,科技公司都非常重視人工智能助手的研發,並且,“首個人工智能殺手級應用”的位置已成爲硅谷各家的“必爭之地”。

從本週的產品發佈情況來看,OpenAI和谷歌的人工智能助手各有優勢。GPT-4o可以直接接收並生成語音,省去了將語音轉化爲文本的過程;而Astra則可以處理視頻此類的動態圖像,這是一個顯著的優勢。

這兩個產品的發佈顯然讓硅谷另兩家巨頭蘋果亞馬遜處於不利地位。他們需要升級語音助手Siri和Alexa,以跟上這些新的競爭對手的能力,否則這些產品將陷入困境。就目前已知信息,亞馬遜投資的Anthropic擁有強大的Claude AI模型可供使用;此前也有報道傳出,蘋果正在與OpenAI談判,以在短期內獲得其技術許可。

不過,這些新的人工智能助手就會是未來的“人工智能殺手級應用”嗎?這個結論目前還沒有定論,完全取決於接下來會發生什麼。

就從目前的人工智能助手的用例來看,它們還稱不上是人類日常生活中無處不在的必備產品,除了翻譯功能以外,幾乎沒有一個是能夠關於幫助人們完成工作的。

有分析指出,當這些助手擁有更多的“代理”屬性時,這種情況可能會改變。若有朝一日,它們能夠真正瞭解人類的個人偏好,按照人們的喜好完成任務,並且可以在日常生活中幫忙處理一些事情(例如在線購物、填寫保險表格、預訂假期等)時,這時的人工智能助手就很有可能成爲一款“殺手級應用”。

谷歌目前表示正在開發此類產品,但沒有給出產品發佈的時間表;OpenAI也繼續透露“即將”發佈激動人心的未來公告;下週,微軟將召開Build開發者大會。

相關文章