百模大戰(zhàn)開啟,AI進(jìn)入路線之爭(zhēng)?
人工智能大模型賽道在近幾個(gè)月來不斷有高潮掀起,然而在玩家們紛紛下場(chǎng)背后,成本仍舊是企業(yè)繞不開的難題。那么,具備了哪些特質(zhì)的大模型更具有發(fā)展前景?大模型的發(fā)展還需面臨怎樣的挑戰(zhàn)?一起來看看作者的解讀。
大模型戰(zhàn)場(chǎng)再起波瀾。
搜狗搜索創(chuàng)始人王小川創(chuàng)立的百川智能發(fā)布了旗下第三款大模型產(chǎn)品Baichuan-53B,據(jù)介紹其訓(xùn)練參數(shù)高達(dá) 530 億。而百川智能也放出風(fēng)聲,后續(xù)還會(huì)有多款產(chǎn)品發(fā)布。再加上科大訊飛的星火大模型升級(jí)、馬上消費(fèi)致力解決金融行業(yè)大模型在落地過程中的安全可控和隱私保護(hù)、基礎(chǔ)設(shè)施能力建設(shè)等關(guān)鍵問題的大模型呼之欲出,進(jìn)入八月后的人工智能大模型賽道再掀高潮。
那么,如此熱鬧的市場(chǎng)中,到底具備了哪些特質(zhì)的大模型才最具前景,哪些困難又是當(dāng)前無法跨越的,都是當(dāng)前需要好好研究的方向。
一、百模大戰(zhàn)開啟,市場(chǎng)要多熱鬧有多熱鬧
自從ChatGPT爆火之后,入局大模型已經(jīng)成為各大科技公司的首選。據(jù)《中國人工智能大模型地圖研究報(bào)告》顯示,截至2023年5月底,國內(nèi)10億級(jí)參數(shù)規(guī)模以上基礎(chǔ)大模型至少已發(fā)布79個(gè),而在下半年,包括科大訊飛、阿里等頭部玩家也將發(fā)布最新產(chǎn)品,戰(zhàn)場(chǎng)進(jìn)一步升級(jí)幾乎成為定局。
實(shí)際上,這輪百模大戰(zhàn)甚至可以追溯到到2020年。當(dāng)年美國就已推出了15款大模型,其中就包括GPT-3。而中國隨后在2021年也推出了30款大模型,2022年更是推出了28款大模型,進(jìn)入2023年,前5個(gè)月更是高達(dá)19款大模型面試,增速可見一斑。據(jù)數(shù)據(jù)統(tǒng)計(jì),中美兩國大模型的數(shù)量占全球大模型數(shù)量的近90%,兩極之勢(shì)已經(jīng)形成。
回到國內(nèi),大模型廠商幾乎是當(dāng)前國內(nèi)頂級(jí)科技公司、機(jī)構(gòu)的清單名錄:百度、騰訊、阿里、商湯、華為迅速入局,智源研究院、中科院自動(dòng)化所也步后塵,如此態(tài)勢(shì)下更帶動(dòng)一大批腰部公司入場(chǎng),集群效應(yīng)顯著。
大模型規(guī)?;鲩L(zhǎng)之下,據(jù)IDC預(yù)測(cè),2026年中國AI大模型市場(chǎng)規(guī)模將達(dá)到211億美元,人工智能將進(jìn)入大規(guī)模落地應(yīng)用關(guān)鍵期。
因此,對(duì)于任何大模型來說,想要在亂局之下突圍,都不是容易的事,打贏戰(zhàn)役的基礎(chǔ)之一就是糧草充足。據(jù)媒體報(bào)道,由于訓(xùn)練成本過高,ChatGPT的開發(fā)公司OpenAI仍然在2022年出現(xiàn)5.4億美元左右的虧損。OpenAI首席執(zhí)行官Sam Altman還表示,該公司必須籌集多達(dá) 1000 億美元的資金,才能滿足不斷上漲的成本。
頭部大模型公司燒錢尚且不足,更不用說其他玩家了。但另一方面,投資熱度降低也是行業(yè)內(nèi)不爭(zhēng)的事實(shí)。根據(jù)媒體統(tǒng)計(jì)的數(shù)據(jù),在國內(nèi)市場(chǎng),從ChatGPT發(fā)布到現(xiàn)在,在AI大模型賽道融資事件只有21起。其中大多數(shù)明星獨(dú)角獸企業(yè),不是入局早具有先發(fā)優(yōu)勢(shì),就是有機(jī)構(gòu)大佬的背書,占盡資源才沒有顯得過于狼狽。
另外,需要注意的是,留給大模型講故事的領(lǐng)域看似很多,但真正講好的少之又少。連知名投資人都表示,行情再火,也要捂好自己的錢包,畢竟好的標(biāo)的實(shí)在難找。從實(shí)際情況看也是如此,大牌廠商力推通用大模型,力圖走贏家通吃的互聯(lián)網(wǎng)路線,當(dāng)下發(fā)力在整合資源層面的模型居多;而中小廠商,主打一個(gè)錯(cuò)位競(jìng)爭(zhēng),力圖通過在細(xì)分領(lǐng)域的深耕,分得屬于自己的一杯羹。
充滿朝氣但混亂的大模型之爭(zhēng),看似熱鬧卻也暗流涌動(dòng),套用一句臺(tái)詞形容,當(dāng)下可謂是“風(fēng)浪越大,魚越貴”的階段。
二、數(shù)據(jù)投喂的噱頭下,繞不開成本這道難題
當(dāng)前大模型想要吸引眼球,數(shù)據(jù)投喂的量級(jí)從來都是大做文章的環(huán)節(jié)。梳理大模型發(fā)展的歷史,你會(huì)看到參數(shù)規(guī)模增長(zhǎng)的夸張曲線。
在國外,2018年,谷歌提出了大規(guī)模預(yù)訓(xùn)練語言模型BERT,該模型是基于Transformer的雙向深層預(yù)訓(xùn)練模型,其參數(shù)首次超過3億規(guī)模;2019年,OpenAI繼續(xù)推出15億參數(shù)的GPT-2,但馬上英偉達(dá)推出了83億參數(shù)的Megatron-LM,谷歌推出了110億參數(shù)的T5,微軟推出了170億參數(shù)的圖靈Turing-NLG,都搶走了OpenAI的風(fēng)頭。
2020年,OpenAI推出了超大規(guī)模語言訓(xùn)練模型GPT-3,參數(shù)達(dá)到1750億,而微軟和英偉達(dá)聯(lián)手跟進(jìn),在2020年10月聯(lián)手發(fā)布了5300億參數(shù)的MegatronTuring自然語言生成模型。2021年1月,谷歌推出的Switch Transformer模型以高達(dá)1.6萬億的參數(shù)量成為史上首個(gè)萬億級(jí)語言模型。
在國內(nèi),2021年,商湯發(fā)布了書生大模型,擁有100億的參數(shù)量;2021年4月,華為云聯(lián)合循環(huán)智能發(fā)布盤古NLP超大規(guī)模預(yù)訓(xùn)練語言模型,參數(shù)規(guī)模達(dá)1000億,聯(lián)合北京大學(xué)發(fā)布盤古α超大規(guī)模預(yù)訓(xùn)練模型,參數(shù)規(guī)模達(dá)2000億。
進(jìn)入2022 年,基于清華大學(xué)、阿里達(dá)摩院等研究成果以及超算基礎(chǔ)實(shí)現(xiàn)的“腦級(jí)人工智能模型”八卦爐完成建立,其模型參數(shù)規(guī)模突破了174萬億個(gè),直接拉高了入局門檻。
海量數(shù)據(jù)投喂的意義在哪里?大通用性、泛化性是其追求的核心要求,那些以互聯(lián)網(wǎng)贏家通吃思維入局的各大廠商,殺入通用大模型,也正是由于其手握海量數(shù)據(jù),具有先天優(yōu)勢(shì)可以進(jìn)行資源整合。
但是,對(duì)大模型來說,真的是數(shù)據(jù)越多越好嗎?
首選,就是成本問題。昆侖萬維CEO方漢認(rèn)為,“超過千億級(jí)別的大模型,訓(xùn)練需要投入的人力、電力、網(wǎng)絡(luò)支出等投入,一年至少5000萬美金到1億美金?!比绻@一測(cè)算成真,那顯然大模型只能是有錢人的游戲。
但其實(shí),在當(dāng)下的眾多垂直領(lǐng)域,大模型的身影也無處不在。而這些領(lǐng)域的一個(gè)共性特征就是:投喂數(shù)據(jù)并非天文數(shù)字。
這是為什么?垂直領(lǐng)域下,行業(yè)數(shù)據(jù)更加精準(zhǔn),因此十億級(jí)別參數(shù)甚至更少的數(shù)據(jù),都可以支撐模型實(shí)現(xiàn)效果,自然花費(fèi)的成本也更低廉。從這個(gè)角度解釋,教育、法律、金融等行業(yè)大模型的出現(xiàn),也是因?yàn)樾袠I(yè)形成共識(shí):錢在這個(gè)游戲中,并不是萬能的。
三、錯(cuò)位競(jìng)爭(zhēng),腰部大模型的生存要義
通用大模型走下神壇,與其表現(xiàn)出來的落地障礙有關(guān),360集團(tuán)副總裁彭輝總結(jié)為七點(diǎn):缺乏行業(yè)深度、不懂企業(yè)、數(shù)據(jù)安全隱患、知識(shí)更新不及時(shí)、“胡說八道”、投入巨大、無法訓(xùn)練進(jìn)大模型的核心知識(shí)的保證所有權(quán)等。
而另一邊,垂直大模型卻如雨后春筍一般出現(xiàn)。
8月9日,網(wǎng)易有道推出“子曰”教育大模型首次落地的硬件產(chǎn)品——有道詞典筆X6 Pro,新增虛擬人口語教練Echo,可實(shí)現(xiàn)多輪英語對(duì)話。此外還有互動(dòng)問答、語法精講功能,待機(jī)時(shí)長(zhǎng)100天,起售價(jià)1399元。
內(nèi)容層面上,首次引進(jìn)經(jīng)典教輔品牌《五年高考·三年模擬》,不局限于查詞本身,詞典筆還能做全科一對(duì)一輔導(dǎo)。
而在網(wǎng)易有道之前,學(xué)而思已經(jīng)宣布正在進(jìn)行自研數(shù)學(xué)大模型的研發(fā),命名為MathGPT,面向全球數(shù)學(xué)愛好者和科研機(jī)構(gòu);而在五月,淘云科技宣布推出兒童認(rèn)知大模型——阿爾法蛋兒童認(rèn)知大模型,為孩子在練表達(dá)、塑情商、啟創(chuàng)造、助學(xué)習(xí)等方面帶來全新交互體驗(yàn)。
除去教育,其他垂直領(lǐng)域的大模型也層出不窮:今年4月,知乎正式發(fā)布“知海圖AI”中文大模型,知乎創(chuàng)始人、董事長(zhǎng)兼CEO周源表示:“知乎以應(yīng)用層和數(shù)據(jù)層的獨(dú)特優(yōu)勢(shì),將致力于為中文互聯(lián)網(wǎng)的大語言模型添磚加瓦?!?;7月,攜程發(fā)布首個(gè)旅游行業(yè)垂直大模型“攜程問道”,攜程集團(tuán)董事局主席梁建章表示,希望用戶從包括“攜程問道”在內(nèi)的產(chǎn)品中獲得旅游行業(yè)“可靠的內(nèi)容,放心的推薦”。京東緊隨其后發(fā)布言犀大模型,其宣傳稱:“沉淀了京東在零售、物流、健康、金融等行業(yè)多年積累的知識(shí),融合70%通用數(shù)據(jù)與30%京東數(shù)智供應(yīng)鏈原生數(shù)據(jù)進(jìn)行訓(xùn)練,帶來了商品推薦、金融政策、理財(cái)規(guī)則、物流體驗(yàn)等領(lǐng)域的能力。”
如此種種,讓我們需要好好面對(duì)一個(gè)問題:垂直大模型,為什么火?
首先,大模型變小,成本控制更容易。與通用大模型動(dòng)輒萬億級(jí)別的參數(shù)投喂,垂直大模型往往在十億量級(jí)的參數(shù)訓(xùn)練就能有效果,而其數(shù)據(jù)要求的專業(yè)性、精確性,也比通用大模型囫圇吞棗般的投喂要有針對(duì)和效率,進(jìn)而折射出資金、算立等資源利用率的差異。
其次,垂直大模型在解決數(shù)據(jù)安全隱患、缺乏行業(yè)深度等問題方面更具優(yōu)勢(shì)。以AI制藥行業(yè)對(duì)大模型的需求為例,由于藥物研發(fā)對(duì)高精度實(shí)驗(yàn)數(shù)據(jù)的獲取成本較高,且公開數(shù)據(jù)庫中有大量無標(biāo)注數(shù)據(jù),對(duì)于通用大模型而言使用這類數(shù)據(jù)投喂,顯然是“吃的是奶,產(chǎn)出來的什么都不是”的風(fēng)險(xiǎn)。對(duì)于需要利用好大量無標(biāo)注數(shù)據(jù),又要利用好少量高精度數(shù)據(jù)的需求,垂直大模型顯然是更好的選擇。
最后,垂直大模型是商業(yè)創(chuàng)意實(shí)現(xiàn)的溫床。在通用大模型的模式下,大、廣、全是其追求的方向,這勢(shì)必造成大模型之間功能同質(zhì)化問題的出現(xiàn)。而垂直大模型在投入上本來就低,更適合小公司切入進(jìn)來。
而小公司想要在市場(chǎng)中立足,在沒有資源、沒有實(shí)力的情況,勢(shì)必要從商業(yè)創(chuàng)業(yè)與服務(wù)上做文章,說到底,定制化的服務(wù),只要能創(chuàng)造足夠的價(jià)值,永遠(yuǎn)不會(huì)缺乏市場(chǎng)。
百模大戰(zhàn),看起來箭在弦上了。
作者:因客;編輯:楊博丞
微信公眾號(hào):DoNews(ID:ilovedonews),不局限于對(duì)互聯(lián)網(wǎng)行業(yè)的追蹤與探索,更要向未來、向未知的方向邁進(jìn)。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @DoNews 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于 CC0 協(xié)議。
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
- 目前還沒評(píng)論,等你發(fā)揮!