每日經(jīng)濟(jì)新聞 2025-04-17 07:05:21
2025年4月17日凌晨1點(diǎn),OpenAI發(fā)布最新模型GPT-4.1,及GPT 4.1-Mini和GPT 4.1-Nano兩款模型。GPT-4.1在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升,支持100萬token上下文,對(duì)金融分析、教育等領(lǐng)域幫助巨大。目前,微軟Azure OpenAI已上線該模型。GPT-4.1系列價(jià)格更具競(jìng)爭(zhēng)力,OpenAI正努力在生成式人工智能領(lǐng)域保持領(lǐng)先地位。
每經(jīng)編輯 畢陸名
今天(17日)凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播發(fā)布了最新模型——GPT-4.1。
除了GPT-4.1之外,還有GPT 4.1-Mini和GPT 4.1-Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬token上下文,這對(duì)于金融分析、小說寫作、教育等領(lǐng)域幫助巨大。
由于GPT-4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT-4.5,其能力可見一斑。
目前,如果想體驗(yàn)GPT-4.1而無法通過API身份驗(yàn)證的小伙伴,微軟已經(jīng)在Azure OpenAI上線了該模型,可以使用了。
GPT-4.1有什么亮點(diǎn)?
GPT-4.1最大亮點(diǎn)之一就是支持100萬tokens上下文,這也是OpenAI首次發(fā)布長(zhǎng)窗口模型。
與前代模型相比,GPT-4.1、GPT-4.1 Mini和GPT-4.1 Nano能夠處理多達(dá)100萬tokens的上下文,是GPT-4o的8倍。
OpenAI在Long Context Evals上對(duì)長(zhǎng)文本進(jìn)行了測(cè)試,測(cè)試結(jié)果顯示,GPT-4.1系列的三個(gè)模型均能夠在語料庫的任何深度找到目標(biāo)文本,無論是開頭、中間還是結(jié)尾,甚至在長(zhǎng)達(dá)100萬tokens的上下文中,模型依然能夠準(zhǔn)確地定位目標(biāo)文本。
OpenAI還在Multi-Round Coreference進(jìn)行了測(cè)試,通過創(chuàng)建合成對(duì)話來測(cè)試模型在長(zhǎng)上下文中的理解和推理能力。在這些對(duì)話中,用戶和助手交替進(jìn)行對(duì)話,用戶可能會(huì)要求模型生成一首關(guān)于某個(gè)主題的詩,接著要求生成另一首關(guān)于不同主題的詩,然后可能要求生成一個(gè)關(guān)于第三個(gè)主題的短故事。模型需要在這些復(fù)雜的對(duì)話中找到特定的內(nèi)容,例如“第二篇關(guān)于某個(gè)主題的短故事”。
測(cè)試結(jié)果顯示,GPT-4.1在處理長(zhǎng)達(dá)128K tokens的數(shù)據(jù)時(shí)顯著優(yōu)于GPT-4o,并且在長(zhǎng)達(dá)100萬tokens的上下文中依然能夠保持較高的性能。
在編碼能力測(cè)試中,SWEBench評(píng)估將模型置于Python代碼庫環(huán)境,讓其探索代碼庫、編寫代碼和測(cè)試用例。結(jié)果顯示,GPT-4.1的準(zhǔn)確率達(dá)到55%,而GPT-4o僅為33%。
在多語言編碼能力測(cè)試方面,Ader polyglot基準(zhǔn)測(cè)試涵蓋多種編程語言和不同格式要求。GPT-4.1在差異性能上較GPT-4o提升一倍,在處理多語言編程任務(wù)、代碼優(yōu)化和版本管理時(shí)更高效。
在指令遵循能力測(cè)試中,OpenAI構(gòu)建內(nèi)部評(píng)估體系,模擬API開發(fā)者使用場(chǎng)景,測(cè)試模型對(duì)復(fù)雜指令的遵循能力。每個(gè)樣本包含分屬不同類別的復(fù)雜指令,并分難度等級(jí)。在困難子集評(píng)估中,GPT-4.1遠(yuǎn)超GPT-4o。
在多模態(tài)處理測(cè)試的視頻MME基準(zhǔn)測(cè)試中,GPT 4.1對(duì)30-60分鐘無字幕視頻進(jìn)行理解并回答多項(xiàng)選擇題,取得72%的成績(jī),達(dá)到當(dāng)前最佳水平,在視頻內(nèi)容理解上實(shí)現(xiàn)重大突破。
價(jià)格方面,GPT-4.1系列在性能提升的同時(shí),價(jià)格更具競(jìng)爭(zhēng)力。GPT-4.1相比GPT-4o價(jià)格降低26%,而GPT-4.1 Nano作為最小、最快且最便宜的模型,每百萬token的成本僅為12美分。
自2022年底推出火爆的ChatGPT聊天機(jī)器人以來,OpenAI一直在迅速升級(jí)其模型,使其遠(yuǎn)遠(yuǎn)超越文本,進(jìn)入圖像、語音和視頻領(lǐng)域。該公司正努力在生成式人工智能領(lǐng)域保持領(lǐng)先地位,在這一領(lǐng)域,它面臨著來自谷歌、Anthropic和馬斯克的xAI等競(jìng)爭(zhēng)對(duì)手的激烈競(jìng)爭(zhēng)。
OpenAI寫道:“我們的推理模型第一次可以獨(dú)立使用所有ChatGPT工具——網(wǎng)頁瀏覽、Python、圖像理解和圖像生成。”“這有助于他們更有效地解決復(fù)雜的、多步驟的問題,并邁出獨(dú)立行動(dòng)的真正步驟。”
該公司在上個(gè)月的一輪融資中估值為3000億美元。該公司表示,o3和o4-mini是其首批能夠“用圖像思考”的人工智能模型。根據(jù)OpenAI的說法,這意味著“它們不僅可以看到圖像,還可以將視覺信息直接整合到推理鏈中。”
每日經(jīng)濟(jì)新聞綜合OpenAI
封面圖片來源:每日經(jīng)濟(jì)新聞
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP