5月14日消息,今日凌晨,OpenAI正式發(fā)布了新一代的旗艦?zāi)P虶PT-4o,可以利用語音、視頻和文本信息進(jìn)行實(shí)時(shí)推理。
據(jù)介紹,GPT-4o在英文文本和代碼中的表現(xiàn)與GPT-4 Turbo相當(dāng),但在非英文文本上的能力大幅提升,在視頻和音頻的理解上,GPT-4o要明顯強(qiáng)于當(dāng)前的其他模型。
此外,能力更全面的GPT-4o,響應(yīng)速度也更快,最快232毫秒響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類在對話中的響應(yīng)速度相當(dāng)。
除了更強(qiáng)、更全面的能力,OpenAI也在推動(dòng)GPT-4o更廣泛的應(yīng)用。GPT-4o的文本和圖片功能自推出之日起就向ChatGPT推送,ChatGPT用戶可免費(fèi)使用,ChatGPT Plus用戶的數(shù)據(jù)量上限將是免費(fèi)用戶的5倍,新版本的音頻模式將在未來幾周向ChatGPT Plus用戶推送。
TechWeb第一時(shí)間對GPT-4o進(jìn)行了實(shí)測,不過目前免費(fèi)用戶還不能使用圖片生成功能。我們使用GPT-4o來描述圖片,并讓其分別對一張中文圖表和一張英文圖表進(jìn)行了分析,來看看結(jié)果。
我們首先讓GPT-4o描述了一張圖片,發(fā)現(xiàn)描述的非常準(zhǔn)確,并可以對單獨(dú)人物的動(dòng)作進(jìn)行描述,最后還可以用文字來分析該圖片場景。
隨后是一張中文圖表,不但可以讀懂上面的數(shù)字含義,還可以對差異和趨勢進(jìn)行非常詳細(xì)的分析。
最后是一張英文圖表,GPT-4o可以讀懂并翻譯圖表展示的數(shù)據(jù)內(nèi)容,最后根據(jù)圖表數(shù)據(jù)總結(jié)得出分析結(jié)論。
總體來說,GPT-4o的能力的確有了很大的提升,未來在所有功能開放的時(shí)候,TechWeb也將繼續(xù)為大家?guī)砀敿?xì)的實(shí)測體驗(yàn)。(蕭?。?/p>
- 文心一言、文小言APP會(huì)員退費(fèi)已開啟
- “騰訊會(huì)議崩了”上熱搜 官方稱正在搶修 網(wǎng)友回復(fù)亮了!
- Gartner:2025年全球GenAI支出將達(dá)6440億美元,80%用于硬件
- 清明檔新片預(yù)售票房超3600萬元 《不說話的愛》領(lǐng)跑
- 張一鳴已加入新加坡國籍?抖音回應(yīng)
- OpenAI上線“OpenAI 學(xué)院”,已提供數(shù)十小時(shí)免費(fèi)AI學(xué)習(xí)資源
- 京東:達(dá)達(dá)員工逐步升級(jí)至20薪
- 倒計(jì)時(shí)!TikTok二次禁令大限將至 創(chuàng)作者與合作伙伴信心不減
- 百望股份CEO付英波中關(guān)村論壇演講:DI戰(zhàn)略為AI落地提供新思路
- 閱文短?。洪_放2000部IP與全行業(yè)共創(chuàng)精品短劇
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。