據 AI 開發平臺 HumanLoop 消息,OpenAI 首席執行官 Sam Altman 在閉門研討會上表示,OpenAI 目前嚴重受限於 GPU,導致他們推遲了許多短期計劃,大部分關於 ChatGPT 可靠性和速度的問題都是由於 GPU 資源短缺造成。 Sam Altman 還分享了 OpenAI 近期路線圖:將降低 GPT-4 API 成本;更長的 ChatGPT 上下文窗口(最高可達 100 萬個 tokens),將來會有一個記住對話歷史記錄的 API 版本;GPT-4 的多模態功能要到 2024 年纔會公開,在獲取更多 GPU 資源前不能將 GPT-4 的視覺版本擴展到所有人。 此外,OpenAI 正在考慮開源 GPT-3,他們之所以還沒有開源的部分原因是因爲他們覺得沒多少人和公司有能力妥善管理如此大型的大語言模型。最近很多文章聲稱的“巨型 AI 模型的時代已經結束”並不正確,OpenAI 內部數據表明,規模與性能成正比的定律仍成立,OpenAI 的模型規模每年可能會增加一倍或三倍(多方信息表明 GPT-4 參數規模 10000 億),而不是增加許多數量級。
相關文章