本文轉自:華西都市報

美國開放人工智能研究中心(OpenAI)5月13日展示了ChatGPT最新版本GPT-4o,相比先前版本,它與使用者對話基本無延遲,會傾聽,能嘮嗑,還善於察言觀色,讓人驚呼新版本“更像人”了。

GPT-4o能捕捉用戶聲音中的細微差別,做到隨時開始或打斷對話,識別說話人的語氣、情緒,根據場景或指令生成多種音調、帶有豐富人類情緒特徵的音頻回覆,你甚至可以要求它唱歌。

GPT-4o-視覺能力大大提升。它可以查看不同語言的菜單照片並進行翻譯,還能在傳統識圖的基礎上,識別手寫體,比如解答手寫的方程組、精準分析數據,並能夠讀懂畫面中人物的面部表情。

GPT-4o語言能力更加強大。目前GPT-4o已經支持包括中文在內的20種語言進行音頻等多模態交互,這次更新在多語言方面更加強大。

GPT-4o數據優勢明顯。在數據層面,根據傳統基準測試,GPT-4o的性能對比GPT-4 Turbo處於優勢,對比其他模型更是大幅領先。

GPT-4o可通過呼吸來辨別情緒,它甚至可以指導使用者怎麼深吸慢呼平復心情,在分析用戶喘氣聲後進行呼吸指導。

GPT-4o響應時間越來越短。它可以在最短232毫秒內響應對話,平均響應時間320毫秒,和人類的反應速度幾乎一樣。

GPT-4o還在一定程度上免費。首席技術官穆裏穆拉蒂表示,OpenAI的使命就是要向所有人免費提供高級人工智能工具。

GPT-4o可能是有史以來最好的模型。OpenAI聯合創始人表示,這是OpenAI朝着更自然的人機交互形式邁出的重要一步。

相關文章