突遭下架,“國服最強”開源模型將何去何從?

0 評論 237 瀏覽 0 收藏 13 分鐘

阿里通義千問QwenLM代碼在GitHub下架引發(fā)信任危機,在開閉源方向選擇上,阿里云積極開源,但仍面臨變現(xiàn)難題。大模型價格戰(zhàn)爆發(fā),技術(shù)與市場需求脫節(jié),商業(yè)化充滿不確定性。

2024年下半年,國產(chǎn)AI大模型并不好過。

近期,AI代碼類應(yīng)用cursor發(fā)布,因其強大的編程功能,一時風(fēng)頭無兩;緊接著openAI又于9月12日發(fā)布了最新模型chatGPT o1,在邏輯推理和編程能力上又提升到一個全新級別,可以說擁有了真正的通用推理能力,國際AI領(lǐng)域的競爭日益激烈。

同樣在9月,號稱“國服最強”的開源大模型通義千問QwenLM全系列代碼在github(全球最大的開源代碼托管平臺之一)被下架,包括開源新王Qwen2.0在內(nèi)的項目在訪問時全部404。不僅引發(fā)了從業(yè)者對開源模型穩(wěn)定性的信任危機,也暴露出國產(chǎn)大模型在商業(yè)化道路上的困境。

Part.1?下架風(fēng)波,回應(yīng)敷衍

“團隊沒有跑路,就是github org被無端端flag,所以你們看不到內(nèi)容,我們已經(jīng)在聯(lián)系官方目前也不知道原因?!?/p>

阿里高級算法專家,通義千問團隊負(fù)責(zé)人林俊旸在事件發(fā)生后迅速在社交平臺辟謠。

但這樣的回應(yīng)并沒有讓AI相關(guān)從業(yè)者們滿意。在此之前,他們中的一些人剛經(jīng)歷過Runway從HuggingFace上刪庫跑路的風(fēng)波。Runway以Stable Diffusion系列聞名,一夜之間把自家開源模型清空,讓無數(shù)正在使用該模型的開發(fā)者陷入停擺。

雖然目前github上QwenLM模型代碼已經(jīng)恢復(fù),但對于事件的原因,通義千問團隊并沒有再做出任何回應(yīng)。對于開源模型的項目,是否會再次受制于類似事故,從業(yè)者們更加茫然和悲觀。

開源是阿里通義大模型的重要戰(zhàn)略。

阿里云CTO周靖人曾在公開論壇表示:“開發(fā)者的反饋和開源社區(qū)的生態(tài)支持,是通義大模型技術(shù)進步的重要助力?!?/p>

大模型的訓(xùn)練和迭代成本極高,絕大多數(shù)的AI開發(fā)者和中小型企業(yè)無法負(fù)擔(dān)。從這角度上來看,通義大模型的「全模態(tài)、全尺寸」開源戰(zhàn)略,長期沉淀的良好口碑為其贏得了一眾鐵粉。

每有開源動作都會被熱切的開發(fā)者們早早蹲守。截止2023年10月,阿里云旗下開源社區(qū)“魔塔”已有超過2300個模型,開發(fā)者超過280萬,模型下載數(shù)破億。阿里最新推出的開源模型QWen2系列更是風(fēng)靡全球,其中Qwen2-72B更是在發(fā)布后短短兩個小時,就沖上了Huggingface開源大模型排行榜之首,隨后又衛(wèi)冕全球最權(quán)威的開源模型測試榜單之首。而阿里最新季度業(yè)績披露,通義千問開源模型下載量已突破2000萬。

通義大模型的開源之舉,打破了海外閉源大模型對國內(nèi)開發(fā)者們的制約。就像阿里云CTO周靖人所說,“阿里云的初衷不是把模型攥在自己手上去商業(yè)化,而是幫助開發(fā)者,開源的策略與阿里云的初心完全一致?!痹谒磥?,要在AI創(chuàng)新技術(shù)與模型層出不窮的當(dāng)下,開源是“最佳也是唯一的途徑”。

Part.2?開源VS閉源,誰是贏家?

在大模型時代開啟之時,開源和閉源就一直爭論不休。

百度創(chuàng)始人李彥宏就曾在今年4月舉行的百度AI開發(fā)者大會上宣稱“開源模型會越來越落后?!彪S后,李彥宏在內(nèi)部講話中也對開源模型的局限性表達了明確的看法——雖然開源模型獲取和使用便利,但商業(yè)化應(yīng)用中卻往往遭遇GPU使用率低、推理成本高等問題。而互聯(lián)網(wǎng)圈另外一位大佬周鴻祎則表示:“我一直相信開源的力量?!?/p>

拋開行業(yè)大佬之間的口水戰(zhàn),開源和閉源,兩種截然不同的開發(fā)方式在當(dāng)今的大模型發(fā)展中各有千秋。

從陣營上看,開源模型如meta的Llama系列、斯坦福的Alpaca、國內(nèi)的阿里通義大模型等展現(xiàn)了社區(qū)驅(qū)動的快速進步和創(chuàng)新。而以O(shè)penAI的GPT系列、Anthropic 的Claude大模型、百度的文心大模型、華為的盤古大模型等都選擇了閉源的形式,保持著技術(shù)領(lǐng)先和商業(yè)應(yīng)用的優(yōu)勢。

開源模式促進了大模型技術(shù)的共享與創(chuàng)新,而閉源模式則保障了商業(yè)利益和技術(shù)優(yōu)勢,為大模型的商業(yè)化提供了支持。

有從業(yè)者聲音認(rèn)為,從模型側(cè)來講,開源模型當(dāng)前還是稍遜于閉源模型。但隨著更多開源模型的迭代,開源的能力也在快速跟上。比如通義大模型Qwen2.5模型性能已經(jīng)全面趕超GPT-4 Turbo。

“從模型質(zhì)量上來看,開源模型由于其代碼的公開性,更容易在社區(qū)得到測試和改進;但閉源模型在研發(fā)時,模型的數(shù)據(jù)語料質(zhì)量、豐富程度以及算力規(guī)模,團隊的算法能力和背后強大的資金支持等因素,保證了閉源模型的高質(zhì)量輸出?!?/p>

上述從業(yè)者也提到,數(shù)據(jù)安全對于大模型來說非常重要,訓(xùn)練時會牽涉到用戶的隱私數(shù)據(jù),抓取也可能存在攻擊性數(shù)據(jù)。開源模型因為要開放給更多用戶,在安全和隱私方面會更加重視,安全專家可以進行代碼審查,及時發(fā)現(xiàn)并修復(fù)潛在的安全風(fēng)險;而閉源模型因為其代碼不公開,有專業(yè)的安全團隊進行安全防護和漏洞修復(fù),可以減少由于外部攻擊導(dǎo)致的安全隱患。在業(yè)內(nèi)人士看來,開源和閉源并非二元對立的關(guān)系。

Part.3?通義千問,路在何方?

比起開源和閉源之爭,如何實現(xiàn)商業(yè)化才是各家大模型當(dāng)前急需解決的難題。

縱觀阿里通義大模型的體系,可以分為大模型底座和應(yīng)用端產(chǎn)品模型兩個層面。2022年9月,達摩院發(fā)布“通義”大模型系列,打造業(yè)界首個AI底座。經(jīng)過一年多的技術(shù)爆發(fā),通義大模型已經(jīng)從初代升級至2.5版本。為了滿足不同計算資源需求和應(yīng)用場景,通義團隊還推出了參數(shù)規(guī)模從5億到1100億的八款大語言模型,以及包含了多個面向不同應(yīng)用場景的模型,如Qwen-VL(視覺理解大模型)、Qwen-Audio(音頻理解大模型)等。

除了底層大模型的研發(fā),通義團隊在應(yīng)用端產(chǎn)品也卯足了勁。在去年10月的阿里云云棲大會上,CTO周靖人一口氣發(fā)布了八款產(chǎn)品模型:包括通義靈碼(智能編碼助手)、通義智文(AI閱讀助手)、通義聽悟(AI工作學(xué)習(xí)助手)、通義星塵(個性化角色創(chuàng)作平臺)、通義點金(智能投研助手)、通義曉蜜(智能客服助手)、通義仁心(個人健康助手)、通義法睿(AI法律顧問)。同時,通義千問正式上線了APP,所有用戶都可通過“通義APP”直接體驗最新模型能力;開發(fā)者可以通過網(wǎng)頁嵌入、API/SDK調(diào)用等方式,將上述所有模型集成到自己的AI應(yīng)用和服務(wù)中。

基于通義大模型的開源屬性,商業(yè)化更是一個復(fù)雜的挑戰(zhàn)。

「科技新知」梳理下來,目前大模型的商業(yè)化模式大致可分為四類。從C端市場來看:一是直接提供API接口,用戶通過按量使用來收費;二是大模型賦能產(chǎn)品帶來的需求與價格增長,如chatGPT、Midjourney等產(chǎn)品的付費使用。從B端市場來看,一是AI功能帶來的流量增長,進而收取廣告費用;二是通過AI對企業(yè)內(nèi)部賦能,幫助企業(yè)降本增效,如文心大模型接入百度系產(chǎn)品,幫助產(chǎn)品提效。

目前看來,阿里似乎是在ToB和ToC的商業(yè)化道路上同時摸索前行。2023年4月,阿里巴巴宣布所有產(chǎn)品未來將接入“通義千問”大模型,進行全面改造。而在企業(yè)賦能上,阿里云把從飛天云操作系統(tǒng)、芯片到智算平臺的“AI+云計算”這些AI基礎(chǔ)設(shè)施和通義大模型能力向所有企業(yè)開放,未來每一個企業(yè)既可以調(diào)用通義千問的全部能力,也可以結(jié)合企業(yè)自己的行業(yè)知識和應(yīng)用場景,訓(xùn)練自己的企業(yè)大模型。同時,通義靈碼、通義智文、通義聽悟等在內(nèi)的八款產(chǎn)品模型,也受到了不少C端用戶的肯定。

變現(xiàn)之路尚未明朗,AI大模型的價格戰(zhàn)卻已經(jīng)打響。今年5月以來,字節(jié)、阿里、百度、智譜AI等多家國內(nèi)大模型廠商均調(diào)整了旗下大模型產(chǎn)品的定價策略,通義千問主力模型Qwen-long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。

這也深層次反應(yīng)了大模型廠商在技術(shù)、市場和戰(zhàn)略等多方面的競爭到來。從商業(yè)化的角度來說,純粹的價格戰(zhàn)能在短期吸引用戶,形成頭部的虹吸效應(yīng),但長期選擇上,沒有技術(shù)創(chuàng)新作為支撐,難以形成持久的競爭優(yōu)勢。

大模型落地應(yīng)用想象空間巨大,但落地難度同樣不小。例如,將大模型直接應(yīng)用于具體場景,比如醫(yī)療健康或法律咨詢領(lǐng)域時,實際操作的挑戰(zhàn)便顯現(xiàn)出來。

在降本增效的大背景下,B端客戶在選擇大模型時也會更加注重成本和收益。如何通過細分市場企業(yè)精準(zhǔn)定位市場需求,提供針對性解決方案,也是通義大模型在商業(yè)化布局中需要深思的。

而在C端市場,對于大多數(shù)消費者來說,AI技術(shù)的實用性尚未達到不可或缺的地步,各家應(yīng)用的功能目前也并非不可替代。

這是通義大模型商業(yè)化的困境,也是多數(shù)AI大模型企業(yè)的難題。

作者丨余寐?編輯丨蕨影

本文由人人都是產(chǎn)品經(jīng)理作者【科技新知】,微信公眾號:【科技新知】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!