「豆包」拉低價(jià)格線 全球大模型開卷性價(jià)比

0 評(píng)論 1035 瀏覽 2 收藏 8 分鐘

豆包大模型將大模型用價(jià)拉至行業(yè)新低,國內(nèi)各大模型廠商紛紛跟進(jìn)降價(jià),百模大戰(zhàn)也隨著集體降價(jià)進(jìn)入了新階段。

大模型也開始打起價(jià)格戰(zhàn)。

5月15日,字節(jié)跳動(dòng)旗下火山引擎發(fā)布豆包大模型,除了針對(duì)C端用戶的豆包APP可免費(fèi)使用該模型的應(yīng)用外,豆包大模型將B端用價(jià)拉至行業(yè)最低。

按照火山引擎總裁譚待的說法,豆包主力模型(≤32K)在企業(yè)市場(chǎng)的定價(jià)只有0.0008元/千Tokens,0.8厘就能處理1500多個(gè)漢字,比行業(yè)便宜99.3%。

豆包以高性價(jià)比亮相之前,通義千問、智普AI、DeepSeek等國內(nèi)很多大模型都開始“卷”起價(jià)格,百模大戰(zhàn)也隨著集體降價(jià)進(jìn)入了新階段。正如譚待所說,降低成本是推動(dòng)大模型快進(jìn)到“價(jià)值創(chuàng)造階段”的一個(gè)關(guān)鍵因素。

一、「豆包」將B端用價(jià)拉至行業(yè)新低

豆包大模型的前身是云雀大模型,也是2023年8月字節(jié)跳動(dòng)旗下發(fā)布的首個(gè)基于Transformer架構(gòu)的大模型。半年后,豆包大模型不僅出了全家桶,還將針對(duì)行業(yè)B端用戶降價(jià)。

豆包主力模型在企業(yè)市場(chǎng)的定價(jià)只有0.0008元/千Tokens,0.8厘就能處理1500多個(gè)漢字,比行業(yè)便宜99.3%。據(jù)此計(jì)算,1塊錢就能買到豆包主力模型的125萬Tokens的用量,大約為200萬個(gè)漢字,相當(dāng)于三本《三國演義》。而128K的豆包通用模型也只需要0.005元/千Tokens,比行業(yè)價(jià)格低95.8%。

要知道GPT-4 Turbo 輸入1000 Tokens為0.01美元,輸出1000 Tokens價(jià)格為0.21元。相比之下,字節(jié)跳動(dòng)直接把價(jià)格“打骨折”,堪稱AI界的拼多多。

不止“豆包”,國內(nèi)不少大模型都在降價(jià)。

不久前,百度發(fā)布了文心大模型輕量版,其中ERNIE Tiny版本的價(jià)格降到了0.001元每千Tokens,相當(dāng)于1元100萬Tokens。

今年5月,智譜AI的大模型商用價(jià)格也大幅降價(jià)。入門級(jí)產(chǎn)品GLM-3 Turbo模型調(diào)用價(jià)格下調(diào)80%,從5元/百萬Tokens降至1元/百萬Tokens,足以讓更多企業(yè)和個(gè)人都能用上這款入門級(jí)產(chǎn)品。

智譜AI的大模型的價(jià)格

5月6日,國內(nèi)知名私募巨頭幻方量化旗下的AI公司DeepSeek發(fā)布全新第二代MoE大模型DeepSeek-V2,DeepSeek-V2 API定價(jià)為每百萬Tokens輸入1元、輸出2元(32K上下文)。

5月9日,阿里云正式發(fā)布通義千問2.5,根據(jù)OpenCompass的測(cè)評(píng)結(jié)果,通義千問2.5得分追平GPT-4 Turbo,與此同時(shí),個(gè)人用戶可從App、官網(wǎng)和小程序免費(fèi)使用。

5月14日,騰訊的混元文生圖大模型直接開源,免費(fèi)商用。

在海外,OpenAI剛剛發(fā)布的GPT-4o也大幅度降價(jià),不僅供所有用戶免費(fèi)使用,在API調(diào)用方面也比去年11月發(fā)布的GPT-4-turbo降價(jià)一半,但速度提升兩倍。這是OpenAI大模型產(chǎn)品的第三次降價(jià)。

法國人工智能企業(yè)Mistral AI大模型Mistral Large的輸入、輸出價(jià)格目前也比GPT-4 Turbo便宜約20%,一度引起廣泛關(guān)注。

無論國內(nèi)還是海外,大模型正在集體降價(jià)。

二、大模型降本,應(yīng)用落地增效??

各個(gè)廠商“價(jià)格戰(zhàn)”已經(jīng)開打,而在大半年前,人們獲知的常識(shí)是大模型訓(xùn)練很燒錢,為何僅僅半年時(shí)間,廠商們就能將價(jià)格“打下來”、紛紛卷了起來?

火山引擎總裁譚待認(rèn)為,降低成本是推動(dòng)大模型快進(jìn)到“價(jià)值創(chuàng)造階段”的一個(gè)關(guān)鍵因素。對(duì)于中小型企業(yè)客戶而言,調(diào)用大模型的一個(gè)重要考慮就是成本。譚待透露,字節(jié)跳動(dòng)在模型結(jié)構(gòu)、訓(xùn)練、生產(chǎn)等各種技術(shù)層面有很多優(yōu)化手段能夠?qū)崿F(xiàn)降價(jià)。

OpenAI CEO Sam Altman也為人們不用在ChatGPT上看廣告就能使用它而感到驕傲, “我們的一個(gè)關(guān)鍵使命就是將AI產(chǎn)品免費(fèi)提供給人們?!?/p>

的確,低價(jià)正在幫助大模型研發(fā)企業(yè)抓住市場(chǎng)機(jī)會(huì),以占據(jù)一席之地。而用戶體量的增加也能反過來幫助研發(fā)訓(xùn)練出更好模型。那么,大模型的訓(xùn)練成本真的降低了嗎?

去年GPT-4發(fā)布時(shí),Sam Altman曾透露,OpenAI 最大模型的訓(xùn)練成本“遠(yuǎn)遠(yuǎn)超過了5000萬美元”。據(jù)斯坦福大學(xué)發(fā)布的《2024年人工智能指數(shù)報(bào)告》估算,OpenAI的GPT-4訓(xùn)練成本為7800萬美元。

高昂的大模型訓(xùn)練成本也直接推高的使用費(fèi)用,直接將很多企業(yè)用戶阻攔在外。

不過,研究人員們正在尋找更低成本的訓(xùn)練方法。去年,新加坡國立大學(xué)和清華大學(xué)的研究者提出了一個(gè)名為 VPGTrans 框架,以極低成本訓(xùn)練高性能多模態(tài)大模型,相比于從頭訓(xùn)練視覺模塊,VPGTrans 框架可以將 BLIP-2 FlanT5-XXL 的訓(xùn)練開銷從 19000 +人民幣縮減到不到1000元。

國產(chǎn)大模型中,研發(fā)人員也各個(gè)方面找到降本增效的辦法。DeepSeek-V2提升數(shù)據(jù)集質(zhì)量、優(yōu)化架構(gòu)后,AI異構(gòu)計(jì)算平臺(tái)“百舸”將訓(xùn)練和推理場(chǎng)景的吞吐量最高提升30%和60%。

除了訓(xùn)練過程外,一些大模型訓(xùn)練的基礎(chǔ)設(shè)施——芯片也在降價(jià),比如英偉達(dá)AI芯片Nvidia A100的降價(jià)直接將大模型訓(xùn)練成本降低了約60%。

大模型價(jià)格戰(zhàn)最直接的影響就是應(yīng)用落地開始提速。豆包平臺(tái)上,已經(jīng)有超過800萬個(gè)智能體被創(chuàng)建。GPT Store已有超過300萬個(gè)依托GPT模型的APP被創(chuàng)建。

僅半年時(shí)間,砸錢拼大模型性能的時(shí)代似乎已經(jīng)是過去式?,F(xiàn)如今,市場(chǎng)用戶也隨著各家大模型的降價(jià)更看重誰家大模型又實(shí)惠又好用。這將推動(dòng)大模型應(yīng)用更快在場(chǎng)景和商業(yè)上實(shí)現(xiàn)落地。

本文由人人都是產(chǎn)品經(jīng)理作者【元宇宙日爆】,微信公眾號(hào):【元宇宙日爆】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒評(píng)論,等你發(fā)揮!