降價潮背后:中國產(chǎn)業(yè)大模型落地的卡點到底在哪?
技術是不會以任何商業(yè)行為或者人們的意愿所改變它的上限和下限的,它需要的時間是恒定的。
如果說中國大模型市場最核心的話題是什么?降價則必然是其中之一。
從目前的參賽玩家來看,不論是字節(jié)豆包,還是阿里、百度、騰訊、科大訊飛,國內的一眾to b大模型廠商都被卷入這股降價潮中,它們或是全量降價,或是小參數(shù)模型降價。
“很多云廠其實本來沒想降,但大家都降了,也沒辦法,只能跟?!币晃幌嚓P人士告訴產(chǎn)業(yè)家。
具體來看,目前業(yè)內降價的主要版本更多的是基于公有云版本的接口成本降低,以及輕量化模型的調用成本調優(yōu)。而從目前大模型的調用來看,這些也是當下開發(fā)者小范圍使用最優(yōu)先使用的版本。根據(jù)不完全統(tǒng)計,如今有超過40%的企業(yè)都在嘗試使用大模型相關產(chǎn)品,或是基于辦公,或是基于生產(chǎn)等等。
但這種意愿的蓬勃生長和這次降價潮并不成正相關?!捌鋵嵔祪r對我們影響不大,本來我們的調用成本就很低,現(xiàn)在重點是能不能內部使用起來?!币晃唤鹑谄髽I(yè)的CIO告訴我們。
這是很多人向產(chǎn)業(yè)家傳遞的信號。因此,在這背后,對應的一個核心問題是:降價,是不是會推動和加速大模型在產(chǎn)業(yè)和行業(yè)側的落地?或者說,降價是不是大模型從技術向工程邁步的核心因素?
如果說一年前,市場對于這個問題的回答是肯定的,那么如今,這個問題則更多見仁見智。在產(chǎn)業(yè)家和不同企業(yè)的溝通交流中,得出的一致結論是,如今企業(yè)更多的卡點并非在大模型本身,而在于企業(yè)自己。
這些工程側的卡點涵蓋向量數(shù)據(jù)庫、數(shù)據(jù)清理/標注、知識庫的梳理建立以及內部業(yè)務邏輯和流程的清理,“我們現(xiàn)在想在copilot基礎上加一層,到Agent的階段,但整體的業(yè)務流程梳理需要時間?!鄙鲜鋈耸扛嬖V我們。
在降價潮把大模型拉回C位的如今,我們更應該審視的是在大模型進入中國一年后的當下,在技術、參數(shù)不再是唯一標準的如今,中國產(chǎn)業(yè)大模型的卡點如今到底在哪?
一、大模型時代,低價究竟意味著什么?
“我們不希望發(fā)布半成品。之所以今天發(fā)布,是因為現(xiàn)在我們的模型能力已經(jīng)準備好了?!被鹕揭婵偛米T待表示。上周三,火山引擎正式發(fā)布字節(jié)旗下的豆包大模型。
而與此同時,更為重磅的消息是,豆包大模型宣布降價,每千tokens價格0.0008,直接給出了“全網(wǎng)最低價”。
這也意味著,大模型價格戰(zhàn)就此打響。先是阿里宣布其主力模型全面降價,在豆包大模型的基礎上,再降三個點,每千tokens價格0.0005;當天下午百度宣布“免費,立即生效”,緊接著,阿里云再加碼,宣布通義旗下的12款模型已開源,全部免費下載。等到了周三,參與者又多了科大訊飛和騰訊。
對此,海外媒體給出的評價是,國內互聯(lián)網(wǎng)廠商的價格戰(zhàn),向來都遵循一個公式:“一旦降價,就直接擊穿底價,‘不留活口’?!痹谶^往的SaaS和云計算階段,也恰都是這種節(jié)奏。
原因為何?或者說,大模型成熟到可以以如此低的成本進行大規(guī)模商業(yè)化了嗎?
在談及大模型價格之前,先來看云計算的價格戰(zhàn),在過去的幾年時間里,包括阿里云、騰訊云、華為云等在云側的價格也更都處于不斷調低的模式,但就云計算技術本身而言,伴隨著流批一體、分布式存儲等技術的優(yōu)化,服務器CPU的成本在加速降低??陀^來看,這種降價邏輯完全合理。
但這里面忽略了一個問題,即時間緯度。從時間來看,國內云計算的發(fā)展早在2006年,甚至更早就已經(jīng)開始了,等到了2014年左右才進入到快速發(fā)展期。而直到2016年,國內各大云廠商才開始靈活調整價格,真正的價格戰(zhàn),或者說競相放低價格則要更晚。
從這個緯度來看,大模型在國內卻僅發(fā)展了不到兩年的時間,中間不論是如今整體算力上的短缺,還是對于GPU納管的存儲計算能力,以及其算法框架的優(yōu)化, 盡管其是基于云計算的底層架構進行成本側的優(yōu)化,但目前都尚未成熟。
據(jù)了解,以目前國內的主流芯片而言,如果是軟硬一體的交付,其算力利用率能到80%,但如果分別進行軟件和硬件的交付,整體由于異構以及不兼容的問題,其利用率甚至可以低到60%以及更低。此外,就國內的主流芯片而言,其相較于英偉達的H100等性能,同等價格下其性能更是只有其60%左右。
這些都代表著對大模型而言,真正良性的價格下浮并沒有實現(xiàn)。那么,從這個節(jié)點來看,大模型廠商廠商降價的本質是什么?
在前段時間,王小川曾聊到這樣一句話,“百川智能不參與價格戰(zhàn),因為我們主要面向的是c端業(yè)務,降價的主要是B端的需求?!?/p>
誠然如此,從本質來看,在大模型降價背后,對一眾云廠商而言,其可以通過更低的價格更快、更好地構建自身的AI開發(fā)生態(tài),通過讓自身的大模型產(chǎn)品被更多B端企業(yè)使用,進而建立數(shù)據(jù)飛輪和強化用戶粘性。
從當下來看,一旦企業(yè)選擇使用一家大模型,一般要經(jīng)歷搭建知識庫、數(shù)據(jù)庫、數(shù)據(jù)清理/標注,以及訓練、微調等環(huán)節(jié),這也意味著其替換成本極其高,對模型廠商而言則對應的是極高的用戶粘性以及提前卡位。
實際上,從各家面向生態(tài)的動作能窺得一二。比如百度面向開發(fā)者推出的一眾包括飛槳在內的開發(fā)社區(qū),再比如阿里自身的魔搭社區(qū),以及騰訊、華為面向開發(fā)者的一眾工具,在降價的動作背后,也更是對自身AI生態(tài)的底層加速。
二、低價,真的會「催熟」大模型落地?
而在生態(tài)和客戶粘性之外,更應該思考的一個問題是:低價真的會催熟中國產(chǎn)業(yè)大模型的落地嗎?
客觀來看,如果說大模型是一個簡單的C端應用,或者對于企業(yè)來講是一個“拿來即用”的程序,那么降價或免費策略一定會更大程度地催熟市場。但如果站在企業(yè)搭建大模型的角度,這個問題則要更復雜得多。
總體來說,企業(yè)自身搭建一個大模型,不僅僅需要從大模型企業(yè)那里獲取相關服務,對于企業(yè)自身也有更高要求,比如企業(yè)內部的數(shù)據(jù)訓練、知識庫搭建等等。
以一個在金融企業(yè)內部的大模型實際案例為例,即銀行需要構建大模型,其第一步是數(shù)據(jù)收集。首先,各部門需要把風險評估、客戶信用評分、欺詐檢測等數(shù)據(jù)匯總起來,同時在此基礎上,收集各部門對大模型業(yè)務的需求。
其次,將這些結構化和非結構化的數(shù)據(jù)進行具體整理,并確定數(shù)據(jù)來源。這里包括數(shù)據(jù)清洗、轉換數(shù)據(jù)格式等等。
而這些工作都是企業(yè)在業(yè)務部門內需要完成的。
在完成了整個數(shù)據(jù)層面的處理,還需要進行模型層面的訓練。這里則需要用到大模型廠商提供的服務,比如基于大模型廠商提供的SFT組件,以及對應的prompt模塊進行模型訓練調整。
另外,為了行業(yè)模型能夠更精準地匹配業(yè)務,大模型廠商還需要配合企業(yè)完成知識庫的搭建。
可以看到,大模型落地更等同于一個系統(tǒng)工程。即使大模型企業(yè)通過低價或免費策略吸引了大量客戶,企業(yè)客戶在實際應用中仍需要投入大量的資源和時間來整合和優(yōu)化這些服務。目前從國內的實踐落地來看,盡管已經(jīng)有一些央國企在帶頭完成各自行業(yè)里的垂直模型搭建,但其中在數(shù)據(jù)收集以及訓練層面也仍是困難重重。
此外,問題也更在模型側。“包括我們不知道在不同的場景我們到底該用多大的模型進行訓練,這點我們技術團隊只能根據(jù)廠商給出來的幾個模型一個個試,但究竟是多大的能夠做什么事情,這個事情沒有明確的說明。”一位相關技術負責人告訴產(chǎn)業(yè)家。
從某種程度來說,降價解決的僅僅是大模型工程最前端的入口問題,但對于整個過程中的全部鏈路節(jié)點的打通,這中間的各種問題仍然足夠繁瑣,關卡難度也更足夠大。
三、大模型,「行業(yè)壁壘」之戰(zhàn)
“用虧損換收入是不可持續(xù)的,所以我們從來不走這條路子。”火山引擎譚待這樣告訴媒體。
站在商業(yè)化的角度去思考,既然目前大模型廠商離盈利還較遠,那么如今字節(jié)、阿里、百度、科大訊飛和騰訊都紛紛宣布降價,甚至免費,在這波操作背后,這些大模型廠商有沒有更深層的意圖?
首先,一個在過去互聯(lián)網(wǎng)時代和云計算時代的邏輯是,大廠推出的系統(tǒng)和應用要想在行業(yè)里站穩(wěn)腳跟,就必須要有一定的行業(yè)know-how積累和服務經(jīng)驗的沉淀。
同樣地,這套思路也適用于大模型時代。只是與之不同的是,大模型時代是站在互聯(lián)網(wǎng)時代和云計算時代之上的,一方面,過去的問題不會重復出現(xiàn),比如數(shù)據(jù)孤島和系統(tǒng)之間打通的問題,在大模型時代基于scaling law的模式,則會有更好的解決方式;
另一方面,過去的互聯(lián)網(wǎng)廠商和如今的大模型廠商是同一批參與者,這也意味著,一些包括數(shù)據(jù)庫、中間件以及數(shù)據(jù)層面的行業(yè)積累可以復用。
實際上,這也是為什么去年華為盤古大模型一經(jīng)發(fā)布,就打著“不作詩,只做事”的口號,直接選擇行業(yè)大模型的原因。此外,包括百度、阿里、騰訊、火山引擎等更是在行業(yè)大模型側不斷加碼,比如在5月28日的智能經(jīng)濟論壇峰會上,百度副總裁沈抖就表示,百度的行業(yè)大模型方案是在通用大模型的基礎上,催生出N個行業(yè)小模型,基于“大模型+小模型”的方案幫助企業(yè)落地。
相較之下,騰訊的混元大模型的行業(yè)積累則聚焦在社交、辦公和汽車領域。在不久前剛結束的北京車展前后,騰訊也發(fā)布了汽車行業(yè)大模型,這也是基于騰訊的混元大模型之上的,比如在汽車研發(fā)、生產(chǎn)、營銷、服務和企業(yè)協(xié)同辦公等場景,汽車大模型都可以發(fā)揮作用。
然而,上述提到的行業(yè)案例也只是目前大模型生態(tài)里的冰山一角。
可以感知到的是,目前各家大模型廠商的一致路徑都是,通過與行業(yè)企業(yè)的合作,基于更精準的數(shù)據(jù)進而構建出各自的大模型行業(yè)壁壘。
寫在最后
實際上,從降價到大模型大規(guī)模實際落地,中間還有很長的一段路要走。這條路是大模型廠商如何做好模型搭建相關的云服務,企業(yè)如何梳理數(shù)據(jù)、訓練數(shù)據(jù)、如何基于業(yè)務邏輯搭建模型,以及工具和接口是否一致等等問題。
但降價潮本身也并非毫無意義。
從目前的落地情況來看,大模型在B端的落地還遠未到成熟的地步。在大模型廠商之外,SaaS企業(yè)也更在進行軟件層面的AI重構,能看到的是,包括用友、金蝶、微盟、銷售易等企業(yè),它們有的選擇與大模型企業(yè)合作搭建自己的大模型;有些則選擇以API的方式接入大廠的大模型底座,在上面建自己的AI Agent;再或者,有些則是更進一步,構建“AI+SaaS”原生應用。
這些新的基于軟件層面的嘗試,都將建立在算力足夠普惠的基礎上。“未來整個行業(yè)的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的。對于行業(yè)來說,現(xiàn)在模型的API調用還是非常非常低的比例,如果推理成本一年降低10倍那就有更多的人可以用上大模型,這是非常利好的消息?!崩铋_復表示。
算力普惠,是大模型落地的充分條件,但從如今的進度條來看,它盡管需要被正視價值,但遠遠不能成為改變整個大模型落地的最強催化劑。
“技術是不會以任何商業(yè)行為或者人們的意愿所改變它的上限和下限的,它需要的時間是恒定的?!?/strong>上述金融企業(yè)的CIO說道。
作者:思杭,編輯:皮爺
來源公眾號:產(chǎn)業(yè)家(ID:chanyejiawang),專注深度產(chǎn)業(yè)互聯(lián)網(wǎng)內容
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @產(chǎn)業(yè)家 授權發(fā)布,未經(jīng)許可,禁止轉載。
題圖來自Unsplash,基于CC0協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發(fā)揮!