OpenAI發(fā)布GPT-4.1模型:最強(qiáng)編碼能力,僅提供API訪問(wèn),價(jià)格降了

4月15日消息,OpenAI推出專(zhuān)為開(kāi)發(fā)者打造的全新模型系列——GPT-4.1。該系列包含三個(gè)新成員:旗艦級(jí)GPT-4.1、高速的GPT-4.1 Mini,以及最小、最快、最經(jīng)濟(jì)的 GPT-4.1 Nano。

據(jù)介紹,GPT?4.1系列模型在編碼能力、復(fù)雜指令遵循、長(zhǎng)文本處理(首次支持高達(dá)一百萬(wàn) Token 上下文,且無(wú)額外費(fèi)用)以及多模態(tài)理解方面均實(shí)現(xiàn)了顯著提升,性能全面超越 GPT-4o,并在關(guān)鍵指標(biāo)上比肩甚至超越 GPT-4.5。

值得注意的是,GPT-4.1系列僅通過(guò) API 提供。

此前,OpenAI剛剛出臺(tái)了一項(xiàng)針對(duì)未來(lái)新的大模型AIP調(diào)用的規(guī)定,要求AIP調(diào)用組織完成身份驗(yàn)證流程,才能解鎖訪問(wèn)OpenAI平臺(tái)最先進(jìn)模型和功能。也就是說(shuō)“不通過(guò)驗(yàn)證就不讓用最新模型”。盡管OpenAI 的AIP組織驗(yàn)證支持200多個(gè)國(guó)家和地區(qū),但中國(guó)大陸開(kāi)發(fā)者仍面臨資格限制。

另外,OpenAI史上最貴大模型將被“淘汰”。

OpenAI稱(chēng),將在API中棄用GPT-4.5預(yù)覽版,因?yàn)镚PT-4.1在許多關(guān)鍵功能上提供了改進(jìn)或相似的性能,且成本和延遲更低。GPT-4.5預(yù)覽版將在三個(gè)月后,即2025年7月14日關(guān)閉,以便開(kāi)發(fā)者有足夠的時(shí)間進(jìn)行過(guò)渡。

GPT-4.1三大模型

旗艦?zāi)P虶PT?4.1性能優(yōu)化集中于編碼、指令遵循、長(zhǎng)文本理解上:

1、最強(qiáng)編碼:GPT?4.1在SWE-bench Verified上的得分為54.6%,比GPT?4o提高了21.4個(gè)百分點(diǎn),比GPT?4.5提高了26.6個(gè)百分點(diǎn)。

2、指令遵循:在Scale的MultiChallenge?上,GPT?4.1的得分為38.3%,比GPT?4o提高了10.5個(gè)百分點(diǎn)。

3、長(zhǎng)上下文:在Video-MME上,GPT?4.1取得了新的SOTA——在長(zhǎng)視頻、無(wú)字幕類(lèi)別中得分72.0%,高于GPT-4o的65.3%。

GPT-4.1 mini 在小型模型性能方面取得了重大飛躍,甚至在許多基準(zhǔn)測(cè)試中超越了 GPT-4o。它在智能評(píng)估中與 GPT-4o 相當(dāng)或超過(guò),同時(shí)將延遲減少了近一半,成本降低了 83%。

對(duì)于需要低延遲的任務(wù),GPT-4.1 nano 是最快且最便宜的模型。它以其 100 萬(wàn)個(gè)標(biāo)記的上下文窗口,在小型尺寸下提供卓越的性能,并在 MMLU 上得分 80.1%,在 GPQA 上得分 50.3%,在 Aider 多語(yǔ)言編碼上得分 9.8%——甚至高于 GPT-4o mini。它非常適合分類(lèi)或自動(dòng)補(bǔ)全等任務(wù)。

API定價(jià)

GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 現(xiàn)在對(duì)所有開(kāi)發(fā)者開(kāi)放,僅通過(guò)API提供。

價(jià)格方面,GPT?4.1比GPT?4o便宜26%,輸入、輸出分別是每百萬(wàn)token 2美元和8美元。

GPT?4.1 nano是OpenAI迄今為止價(jià)格最低、速度最快的模型,輸入、輸出分別為0.1美元和0.4美元。

對(duì)于重復(fù)使用相同上下文的查詢(xún),這些新模型的提示詞緩存折扣已從之前的50%提高至75%。

最后,長(zhǎng)上下文請(qǐng)求已包含在標(biāo)準(zhǔn)的按Token計(jì)費(fèi)內(nèi),無(wú)需額外費(fèi)用。

今年2月,OpenAI發(fā)布了自己有史以來(lái)最貴的大模型GPT-4.5,GPT-4.5的API定價(jià)高達(dá)75美元/百萬(wàn)tokens輸入、150美元/百萬(wàn)tokens輸出,被開(kāi)發(fā)者吐槽“用不起”!

這次GPT-4.1的價(jià)格,你覺(jué)得如何?

通過(guò)視頻,OpenAI 團(tuán)隊(duì)成員介紹了GPT?4.1系列模型模型的性能優(yōu)勢(shì)、基準(zhǔn)測(cè)試結(jié)果,并通過(guò)實(shí)時(shí)演示,如現(xiàn)場(chǎng)編寫(xiě)功能完善的前端應(yīng)用、處理超長(zhǎng)日志文件等,展現(xiàn)了它們的實(shí)際能力。

一起看看:

編碼能力顯著優(yōu)于 GPT-4o

GPT-4.1 在各種編碼任務(wù)中顯著優(yōu)于 GPT-4o,包括主動(dòng)解決編碼任務(wù)、前端編碼、減少不必要的編輯、可靠地遵循差異格式、確保一致的工具使用等。

在SWE-bench Verified(一個(gè)衡量現(xiàn)實(shí)世界軟件工程技能的指標(biāo))上,GPT-4.1完成了54.6%的任務(wù),而GPT-4o完成了33.2%(2024-11-20)。這反映了GPT-4.1模型在探索代碼庫(kù)、完成任務(wù)以及生成既可運(yùn)行又可通過(guò)測(cè)試的代碼方面的能力提升。

對(duì)于希望編輯大型文件的API開(kāi)發(fā)者來(lái)說(shuō),GPT-4.1在多種格式下的代碼差異方面更加可靠。Aider的多語(yǔ)言差異基準(zhǔn)測(cè)試中,GPT-4.1的成績(jī)是GPT-4o的兩倍多,并且甚至比GPT-4.5高出8個(gè)百分點(diǎn)。

GPT-4.1專(zhuān)門(mén)訓(xùn)練以更可靠地遵循diff格式,這使得開(kāi)發(fā)者只需讓模型輸出更改的行,而不是重寫(xiě)整個(gè)文件,從而節(jié)省成本和延遲。

對(duì)于喜歡重寫(xiě)整個(gè)文件的開(kāi)發(fā)者,GPT-4.1的輸出token限制提高到了32,768個(gè)(相比GPT-4o的16,384個(gè)tokens有所增加)。

GPT-4.1 在前端編碼方面也顯著優(yōu)于 GPT-4o,能夠創(chuàng)建功能更強(qiáng)大、外觀更美觀的網(wǎng)頁(yè)應(yīng)用。在對(duì)比測(cè)試中,評(píng)分人員80%的時(shí)間更喜歡 GPT-4.1生成的網(wǎng)站,而不是 GPT-4o生成的網(wǎng)站。

除了上述基準(zhǔn)測(cè)試之外,GPT-4.1 在更可靠地遵循格式方面表現(xiàn)更佳,并且更少進(jìn)行不必要的編輯。在OpenAI內(nèi)部評(píng)估中,代碼中的不必要的編輯從 GPT-4o 的 9% 降至 GPT-4.1 的 2%。

指令遵循

GPT-4.1 更可靠地遵循指令,我們?cè)诟鞣N指令遵循評(píng)估中測(cè)量到了顯著的改進(jìn)。GPT-4.1在困難提示方面的表現(xiàn)相較于GPT-4o有了顯著提升。

多輪指令跟隨對(duì)于許多開(kāi)發(fā)者來(lái)說(shuō)至關(guān)重要——模型需要能夠在對(duì)話的深層保持連貫性,并跟蹤用戶(hù)之前告訴它的信息。OpenAI訓(xùn)練了GPT-4.1,使其能夠更好地從對(duì)話中的過(guò)去消息中提取信息,從而實(shí)現(xiàn)更自然的對(duì)話。

在Scale的MultiChallenge基準(zhǔn)測(cè)試中GPT?4.1雖然不及o1和GPT-4.5,但已經(jīng)可以追上o3-mini,并且比GPT?4o提升了10.5個(gè)百分點(diǎn)之多。

GPT-4.1在IFEval上的得分也為87.4%,而GPT-4o的得分為81.0%。IFEval使用帶有可驗(yàn)證指令的提示(例如,指定內(nèi)容長(zhǎng)度或避免某些術(shù)語(yǔ)或格式)。

長(zhǎng)文本

GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 可以處理多達(dá) 100 萬(wàn)個(gè)上下文標(biāo)記——比之前的 GPT-4o 模型多 128,000 個(gè),非常適合處理大型代碼庫(kù)或大量長(zhǎng)文檔。

OpenAI展示了GPT-4.1在上下文窗口內(nèi)不同位置檢索一條隱藏的少量信息(即一根 “針”)的能力,也就是“大海撈針”的能力。

OpenAI還發(fā)布了用于評(píng)估多跳長(zhǎng)上下文推理的數(shù)據(jù)集Graphwalks。這是因?yàn)椋S多需要長(zhǎng)上下文的開(kāi)發(fā)者用例需要在上下文中進(jìn)行多個(gè)邏輯跳躍,例如在編寫(xiě)代碼時(shí)在多個(gè)文件之間跳轉(zhuǎn),或者在回答復(fù)雜的法律問(wèn)題時(shí)交叉引用文檔等。

Graphwalks需要模型跨上下文多個(gè)位置進(jìn)行推理,其使用由十六進(jìn)制散列組成的定向圖填充上下文窗口,然后要求模型從圖中的一個(gè)隨機(jī)節(jié)點(diǎn)開(kāi)始進(jìn)行廣度優(yōu)先搜索(BFS),然后要求它返回一定深度的所有節(jié)點(diǎn)。

GPT-4.1在上下文長(zhǎng)度達(dá)到128K個(gè)token時(shí)優(yōu)于GPT-4o。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2025-04-16
OpenAI發(fā)布GPT-4.1模型:最強(qiáng)編碼能力,僅提供API訪問(wèn),價(jià)格降了
據(jù)介紹,GPT?4.1系列模型在編碼能力、復(fù)雜指令遵循、長(zhǎng)文本處理(首次支持高達(dá)一百萬(wàn) Token 上下文,且無(wú)額外費(fèi)用)以及多模態(tài)理解方面均實(shí)現(xiàn)了顯著提升,性

長(zhǎng)按掃碼 閱讀全文