久久久九九九一级大片a|一级黄片黄片一级一级|三级无码视频免费操人视频|成人精品A片亚州一区二区|亚洲日韩欧美在线一二区|91丝袜一区二区|国摸私拍电影一区二区爱|免费久久久久久久久久久久|免费国产黄色av发布网址|国产精品人妻人伦a 6 2v久动漫

GPT-5.4養(yǎng)龍蝦太貴?OpenAI自己出手砍到了一折

最近OpenClaw可以說(shuō)是火遍了大江南北。各大廠商都說(shuō)自己的模型如何支持小龍蝦,唯獨(dú)沒(méi)人推薦ChatGPT。

事實(shí)上OpenAI才收購(gòu)了OpenClaw。

原因就一個(gè)“貴”。

讓AI幫你完成一個(gè)稍微復(fù)雜的任務(wù),比如自動(dòng)化處理一批客戶郵件,背后可能要調(diào)用模型幾十上百次:理解意圖、檢索信息、生成草稿、校對(duì)潤(rùn)色、逐封發(fā)送……如果每一步都調(diào)用滿血版GPT-5.4,一輪操作下來(lái),飼料費(fèi)(token)比蝦本身還貴。

特別是隨著OpenClaw這類agent框架的爆發(fā),AI的工作模式已經(jīng)發(fā)生了根本性轉(zhuǎn)變:從前我們向AI提問(wèn),它盯著問(wèn)題想很久,然后吐出一長(zhǎng)串文字;現(xiàn)在AI面對(duì)一個(gè)復(fù)雜任務(wù),要將其拆解成微小步驟分步推進(jìn)。每一步都調(diào)用旗艦大模型,不僅延遲讓人崩潰,成本也會(huì)高到離譜。

在這種背景下,OpenAI正式發(fā)布GPT-5.4 mini與nano兩款小型模型,并宣稱其為公司“迄今最強(qiáng)大的小型模型”。

麻雀雖小五臟俱全,不要小瞧這兩個(gè)小玩意,不僅GPT-5.4核心的優(yōu)勢(shì)和能力它們繼承了下來(lái),同時(shí)還更快、更省資源,并且適合于大批量、高頻率的AI任務(wù)調(diào)用。

OpenAI貌似是覺(jué)得mini還不夠小,所以做出了更輕量的nano。

nano是GPT-5.4最輕量、最快速的版本,專為對(duì)速度和成本要求極高的任務(wù)而設(shè)計(jì)。

事實(shí)就是,用單一模型處理所有事務(wù)性價(jià)比太低,經(jīng)常陷入高射炮打蚊子的境況,不如調(diào)整成大模型決定任務(wù)方向,小模型進(jìn)行大規(guī)模快速執(zhí)行的方案。

OpenAI自家的Codex就是這么干的。

一個(gè)主模型負(fù)責(zé)理解任務(wù)意圖、拆解步驟,然后調(diào)度mini/nano級(jí)別的子agent去執(zhí)行具體的代碼修改、測(cè)試運(yùn)行、結(jié)果校驗(yàn),每個(gè)子任務(wù)只消耗極低的成本。

大模型就像坐鎮(zhèn)中軍、運(yùn)籌帷幄的主帥,只抓頂層戰(zhàn)略、調(diào)度全局資源。小模型則是無(wú)數(shù)支精銳輕騎,身形輕便、行動(dòng)迅捷、批量奔赴前線,專一完成細(xì)分任務(wù)。

01

OpenAI為什么這么做

mini和nano在價(jià)格上確實(shí)“mini”以及“nano”。要理解OpenAI為什么押注輕量化,先看看這兩款模型到底便宜到什么程度。

mini和nano均支持 400k tokens 的上下文窗口。在輸入價(jià)格上,GPT-5.4旗艦版是2.5 美元/百萬(wàn)token,mini版是0.75美元/百萬(wàn) token,nano版更是夸張,僅0.2美元/百萬(wàn)token,輸入成本僅為旗艦?zāi)P虶PT-5.4的8%。

而輸出價(jià)格上,GPT-5.4是15美元/百萬(wàn) token,mini版約為它的1/3(4.5 美元),nano版約為它的1/12(1.25 美元)。

換句話說(shuō),OpenAI用戶們的賬單直接砍到了零頭。

價(jià)格只是表象,真正驅(qū)動(dòng)OpenAI做這件事的,是整個(gè)行業(yè)的使用趨勢(shì)已經(jīng)發(fā)生了根本性轉(zhuǎn)向。

輕量化小模型主要有調(diào)用成本低、響應(yīng)快這兩大特征,不少證據(jù)表明小模型已經(jīng)成為當(dāng)前AI落地最具性價(jià)比、最具增長(zhǎng)潛力的選擇。

在OpenRouter本月度最受歡迎LLM排行榜前十中,輕量化模型占到了6個(gè)席位,它們參數(shù)量普遍集中在數(shù)十億至數(shù)百億級(jí)別,和Claude Opus這類動(dòng)輒數(shù)千億甚至萬(wàn)億參數(shù)的通用旗艦大模型形成鮮明的差異。

榜單Top 2席位被輕量化小模型包攬,第1名MiniMax M2.5以8.29T tokens的調(diào)用量斷層領(lǐng)跑全榜,月度漲幅高達(dá) 476%;第2名Google Gemini 3 Flash Preview,調(diào)用量也達(dá)到4.24T tokens,遠(yuǎn)超多數(shù)通用旗艦大模型。

Hugging Face Hub的模型下載量統(tǒng)計(jì)同樣印證了這一趨勢(shì):92.48%的下載量來(lái)自少于10億參數(shù)的模型,86.33% 為5億以下,69.83% 為2億以下。

大模型也進(jìn)入了薄利多銷的時(shí)代。

1B+參數(shù)量的模型,即便包含多款輿論熱度極高的開(kāi)源大模型,整體下載占比僅為7.52%,不足輕量化模型的十分之一,這說(shuō)明大模型的高關(guān)注度,似乎并未轉(zhuǎn)化為真實(shí)的落地與采用。

從OpenAI自身的商業(yè)賬本來(lái)看,做小模型更是一道必答題。

今年2月底,OpenAI宣布ChatGPT全球每周活躍用戶已突破9億,付費(fèi)用戶約5000 萬(wàn),付費(fèi)轉(zhuǎn)化率僅約5%左右,絕大多數(shù)用戶仍停留在免費(fèi)版本。這也成為其未來(lái)商業(yè)化最核心的增長(zhǎng)空間。

絕大多數(shù)的C端付費(fèi)用戶,核心使用場(chǎng)景是日常對(duì)話、文案潤(rùn)色、信息檢索、輕量代碼編寫等高頻輕量需求。

這類場(chǎng)景完全不需要GPT-5.4這類旗艦大模型的極限復(fù)雜推理能力,百億級(jí)以內(nèi)的輕量化小模型足以覆蓋大部分需求,同時(shí)又能提供毫秒級(jí)響應(yīng)、無(wú)排隊(duì)等待的使用體驗(yàn),完美匹配絕大多數(shù)用戶的核心訴求。

說(shuō)了這么多“為什么”,接下來(lái)看看這兩款模型到底交出了怎樣的答卷——畢竟,飼料便宜了,蝦的個(gè)頭要是也縮水了,那就不叫降本增效,叫偷工減料。

02

mini、nano能力幾何

mini和nano的優(yōu)勢(shì)就只是小和便宜嗎?

No No No

根據(jù)OpenAI官網(wǎng)的一系列跑分測(cè)試,可以說(shuō)它們能力表現(xiàn)也很突出。

在業(yè)內(nèi)公認(rèn)最權(quán)威的AI程序員測(cè)試SWE-bench Pro 中,GPT-5.4 mini的準(zhǔn)確率達(dá)到了54.4%,表現(xiàn)極具殺傷力,逼近滿血版GPT-5.4的57.7%。

GPT-5.4 nano的準(zhǔn)確率為52.4%,再考慮到它極低的成本,非常適合作為快速迭代的代碼審查和輔助子agent。

以下兩張圖表看得更直觀,橫軸分別代表模型的響應(yīng)時(shí)長(zhǎng)和所用成本,縱軸均表示模型在任務(wù)中的準(zhǔn)確率。

GPT-5.4雖然準(zhǔn)確率穩(wěn)居第一,但是在橫軸上卻延伸了太遠(yuǎn),也就是不僅思考久,燒的錢還多。而nano和mini的折線則整體居于坐標(biāo)圖左側(cè),標(biāo)志了它們極高的性價(jià)比。

它們只是犧牲了一點(diǎn)點(diǎn)終極的邏輯上限,就換來(lái)了極快的響應(yīng)速度和極低的成本。

對(duì)此,不少網(wǎng)友戲稱:小龍蝦的飼料費(fèi)終于被打下來(lái)了。

的確,mini和nano未來(lái)可能會(huì)成為養(yǎng)蝦的主流API選擇。

在OSWorld-Verified(真實(shí)電腦環(huán)境操作測(cè)試)中,GPT-5.4 mini達(dá)到了72.1%的準(zhǔn)確率,幾乎追平了滿血旗艦版的75%。

這項(xiàng)測(cè)試主要是讓AI像人一樣,通過(guò)看顯示器、動(dòng)鼠標(biāo)、敲鍵盤來(lái)使用一臺(tái)真的電腦,包括使用Chrome、Office、VS Code等軟件。

這才是OpenClaw等agent玩家最看重的指標(biāo)。

過(guò)去讓AI操控電腦,AI經(jīng)常會(huì)瞎點(diǎn)或者反應(yīng)遲鈍。mini版本的這個(gè)高分意味著,它識(shí)別按鈕、滑塊、輸入框的精度極高,在一些自動(dòng)化任務(wù)上可以更加得心應(yīng)手。

然而,也不是所有場(chǎng)景都適合用小模型。

nano模型在OSWorld-Verified上的得分僅為39.0%,甚至低于上一代GPT-5 mini的42.0%。

這意味著在需要精細(xì)操控電腦界面的復(fù)雜任務(wù)上,nano還力有不逮。

同樣,對(duì)于需要深度推理、長(zhǎng)鏈條邏輯的高難度任務(wù),旗艦版GPT-5.4仍然不可替代。

小模型的價(jià)值不在于取代大模型,而在于和大模型搭配使用——把對(duì)的模型放在對(duì)的位置,才是子agent架構(gòu)真正的精髓。

這也恰恰是nano和mini發(fā)布的深層意義,它們不是來(lái)?yè)屍炫灠骘埻氲?,而是?lái)幫旗艦版分擔(dān)那些“高射炮打蚊子”的活兒。

當(dāng)大模型不再需要親自處理每一個(gè)瑣碎步驟,整個(gè)系統(tǒng)的效率和成本結(jié)構(gòu)都會(huì)發(fā)生質(zhì)變。

OpenAI想打的不是一場(chǎng)簡(jiǎn)單的價(jià)格戰(zhàn),OpenAI內(nèi)心OS是這樣的:“我可以每個(gè)token少賺你點(diǎn)錢,但是我要讓你多用我的小模型,把總收入抬上去?!?/p>

典型的薄利多銷。

過(guò)去“便宜”是國(guó)產(chǎn)模型的護(hù)城河,可是這道護(hù)城河正在被填平。對(duì)普通開(kāi)發(fā)者和企業(yè)用戶而言,AI可能很快就會(huì)變成各行各業(yè)用得起、跑得快的新基礎(chǔ)設(shè)施。

小龍蝦的飼料費(fèi)打下來(lái)了,養(yǎng)蝦的門檻也在悄悄降低。接下來(lái)的問(wèn)題是:誰(shuí)能養(yǎng)出最肥的蝦?

特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個(gè)人觀點(diǎn),不代表DoNews專欄的立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問(wèn)都請(qǐng)聯(lián)系idonews@donews.com)

GPT-5.4養(yǎng)龍蝦太貴?OpenAI自己出手砍到了一折
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2026 All Rights Reserved
蜀ICP備2024059877號(hào)-1