OpenAI,重大發(fā)布!奧特曼發(fā)聲
來(lái)源:每日經(jīng)濟(jì)新聞2025-04-15 08:08

北京時(shí)間4月15日凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播發(fā)布了最新模型——GPT-4.1。

除了GPT-4.1之外,還有GPT4.1-Mini和GPT4.1-Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬(wàn)token上下文,這對(duì)于金融分析、小說(shuō)寫(xiě)作、教育等領(lǐng)域幫助巨大。

圖片來(lái)源:OpenAI官網(wǎng)截圖

當(dāng)日,OpenAI首席執(zhí)行官奧特曼表示,GPT-4.1(以及-Mini和-Nano)現(xiàn)已在API中可用。

由于GPT-4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT-4.5,其能力可見(jiàn)一斑。

目前,如果想體驗(yàn)GPT-4.1而無(wú)法通過(guò)API身份驗(yàn)證的小伙伴,微軟已經(jīng)在AzureOpenAI上線了該模型,可以使用了。

GPT-4.1最大亮點(diǎn)之一就是支持100萬(wàn)tokens上下文,這也是OpenAI首次發(fā)布長(zhǎng)窗口模型。

與前代模型相比,GPT-4.1、GPT-4.1Mini和GPT-4.1Nano能夠處理多達(dá)100萬(wàn)tokens的上下文,是GPT-4o的8倍。

OpenAI在LongContextEvals上對(duì)長(zhǎng)文本進(jìn)行了測(cè)試,測(cè)試結(jié)果顯示,GPT-4.1系列的三個(gè)模型均能夠在語(yǔ)料庫(kù)的任何深度找到目標(biāo)文本,無(wú)論是開(kāi)頭、中間還是結(jié)尾,甚至在長(zhǎng)達(dá)100萬(wàn)tokens的上下文中,模型依然能夠準(zhǔn)確地定位目標(biāo)文本。

OpenAI還在Multi-RoundCoreference進(jìn)行了測(cè)試,通過(guò)創(chuàng)建合成對(duì)話來(lái)測(cè)試模型在長(zhǎng)上下文中的理解和推理能力。在這些對(duì)話中,用戶(hù)和助手交替進(jìn)行對(duì)話,用戶(hù)可能會(huì)要求模型生成一首關(guān)于某個(gè)主題的詩(shī),接著要求生成另一首關(guān)于不同主題的詩(shī),然后可能要求生成一個(gè)關(guān)于第三個(gè)主題的短故事。模型需要在這些復(fù)雜的對(duì)話中找到特定的內(nèi)容,例如“第二篇關(guān)于某個(gè)主題的短故事”。

測(cè)試結(jié)果顯示,GPT-4.1在處理長(zhǎng)達(dá)128Ktokens的數(shù)據(jù)時(shí)顯著優(yōu)于GPT-4o,并且在長(zhǎng)達(dá)100萬(wàn)tokens的上下文中依然能夠保持較高的性能。在編碼能力測(cè)試中,SWEBench評(píng)估將模型置于Python代碼庫(kù)環(huán)境,讓其探索代碼庫(kù)、編寫(xiě)代碼和測(cè)試用例。結(jié)果顯示,GPT-4.1的準(zhǔn)確率達(dá)到55%,而GPT-4o僅為33%。

該測(cè)試中,模型會(huì)收到一個(gè)代碼庫(kù)和問(wèn)題描述,然后其需要生成補(bǔ)丁來(lái)解決該問(wèn)題,模型的表現(xiàn)會(huì)高度依賴(lài)于所使用的提示和工具。

在多語(yǔ)言編碼能力測(cè)試方面,Aderpolyglot基準(zhǔn)測(cè)試涵蓋多種編程語(yǔ)言和不同格式要求。GPT-4.1在差異性能上較GPT-4o提升一倍,在處理多語(yǔ)言編程任務(wù)、代碼優(yōu)化和版本管理時(shí)更高效。

在指令遵循能力測(cè)試中,OpenAI構(gòu)建內(nèi)部評(píng)估體系,模擬API開(kāi)發(fā)者使用場(chǎng)景,測(cè)試模型對(duì)復(fù)雜指令的遵循能力。每個(gè)樣本包含分屬不同類(lèi)別的復(fù)雜指令,并分難度等級(jí)。在困難子集評(píng)估中,GPT-4.1遠(yuǎn)超GPT-4o。

在多模態(tài)處理測(cè)試的視頻MME基準(zhǔn)測(cè)試中,GPT4.1對(duì)30~60分鐘無(wú)字幕視頻進(jìn)行理解并回答多項(xiàng)選擇題,取得72%的成績(jī),達(dá)到當(dāng)前最佳水平,在視頻內(nèi)容理解上實(shí)現(xiàn)重大突破。

價(jià)格方面,GPT-4.1系列在性能提升的同時(shí),價(jià)格更具競(jìng)爭(zhēng)力。GPT-4.1相比GPT-4o價(jià)格降低26%,而GPT-4.1Nano作為最小、最快且最便宜的模型,每百萬(wàn)token的成本僅為12美分。

當(dāng)?shù)貢r(shí)間4月14日,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺(tái)透露,接下來(lái)的一周將發(fā)布很多新產(chǎn)品。本月初,他曾表示將在數(shù)周內(nèi)發(fā)布o(jì)3、o4-mini,未來(lái)幾月內(nèi)發(fā)布GPT-5。

根據(jù)OpenAI在其官網(wǎng)上發(fā)布的公告,OpenAI兩年前推出的人工智能模型GPT-4將于本月底從聊天機(jī)器人ChatGPT中“退役”。OpenAI表示,從4月30日起,GPT-4將被GPT-4o“完全取代”,后者是ChatGPT目前的默認(rèn)模型。不過(guò),GPT-4仍可通過(guò)OpenAI的API使用。

OpenAI寫(xiě)道,“在正面評(píng)估中,GPT-4o在寫(xiě)作、編碼、STEM等方面一直超過(guò)GPT-4。此外,最近的升級(jí)進(jìn)一步改進(jìn)了GPT–4o的指令遵循、問(wèn)題解決和會(huì)話流程,使其成為GPT-4的自然繼承者?!?/p>

GPT-4于2023年3月推出,被用于ChatGPT和微軟的Copilot聊天機(jī)器人。GPT-4模型具有多個(gè)版本,還擁有多模態(tài)功能,這允許它們同時(shí)理解圖像和文本。OpenAI首席執(zhí)行官奧爾特曼當(dāng)時(shí)還表示,GPT-4的規(guī)模龐大,培訓(xùn)成本超過(guò)1億美元。

后來(lái)在2023年11月,OpenAI推出GPT-4Turbo模型,這是一種更快且更便宜的模型。

去年5月,GPT-4o被推出,其在多模態(tài)功能方面更加強(qiáng)大,據(jù)時(shí)任OpenAI首席技術(shù)官穆拉蒂表示,GPT-4o中的“o”代表了“全能”。

責(zé)任編輯: 李志強(qiáng)
聲明:證券時(shí)報(bào)力求信息真實(shí)、準(zhǔn)確,文章提及內(nèi)容僅供參考,不構(gòu)成實(shí)質(zhì)性投資建議,據(jù)此操作風(fēng)險(xiǎn)自擔(dān)
下載“證券時(shí)報(bào)”官方APP,或關(guān)注官方微信公眾號(hào),即可隨時(shí)了解股市動(dòng)態(tài),洞察政策信息,把握財(cái)富機(jī)會(huì)。
網(wǎng)友評(píng)論
登錄后可以發(fā)言
發(fā)送
網(wǎng)友評(píng)論僅供其表達(dá)個(gè)人看法,并不表明證券時(shí)報(bào)立場(chǎng)
暫無(wú)評(píng)論
為你推薦
時(shí)報(bào)熱榜
換一換
    熱點(diǎn)視頻
    換一換