優(yōu)等生歸來,谷歌最強大模型Gemini能否打敗GPT-4?
在當?shù)貢r間12月6日,谷歌發(fā)布了大模型Gemini,某種程度上,我們可以將Gemini看作是谷歌用來應(yīng)對GPT-4的“殺手锏”。那么,Gemini的核心優(yōu)勢在于哪些方面?當我們將谷歌和OpenAI二者進行對比時?我們可以得出什么結(jié)論?
“沉寂”已久的谷歌終于放大招了。
美國當?shù)貢r間12月6日,谷歌發(fā)布多模態(tài)大模型Gemini。谷歌DeepMind直接宣布,Gemini是“谷歌最大、最強的人工智能模型”。
Google Deepmind 的官方賬號截圖,來源:谷歌DeepMind
Gemini谷歌是從頭開始構(gòu)建的多模態(tài)模型,這也是更接近人類認識世界的方式。
作為谷歌用來應(yīng)對GPT-4的“殺手锏”。Gemini在32個多模態(tài)基準測試中取得了30個SOTA(State Of The Art,即當前最優(yōu)效果)的記錄,是第一個在MMLU(大規(guī)模多任務(wù)語言理解)測評上超過人類專家的模型。Gemini在此項取得的成績是90.0%,作為對比,人類專家的成績?yōu)?9.8%,GPT-4為86.4%。
Gemini共有三個版本:
- Gemini Ultra:適用于高度復(fù)雜的任務(wù);
- Gemini Pro:適用于擴展至各種任務(wù)的Gemini模型;
- Gemini Nano:體量較小,適用于特定任務(wù)和移動設(shè)備。
Gemini的三個版本,圖片來源:谷歌
“Gemini的多樣性讓它能夠在從移動設(shè)備到大型數(shù)據(jù)中心的所有設(shè)備上運行?!惫雀鐳eepMind產(chǎn)品副總裁Eli Collins說,“我們離新一代人工智能模型的愿景越來越近了?!?/strong>
“有了人工智能,我們將有機會以更大規(guī)模做一些重要的事情?!惫雀鐲EO Sundar Pichai在谷歌成立25周年公開信中就特意提到了人工智能。面對強勢的OpenAI,優(yōu)等生谷歌需要一款現(xiàn)象級產(chǎn)品,證明自己在人工智能領(lǐng)域的實力。
Gemini就是谷歌交出的答卷。
一、“打的就是精銳”
谷歌的Gemini模型的核心優(yōu)勢在于其原生多模態(tài)(natively multimodal)的特性。
以往的多模態(tài)大模型往往是通過分別針對不同模態(tài)訓練單獨的組件,再將這些組件組合起來以模擬多模態(tài)功能的方法構(gòu)建的。雖然在某些任務(wù)(比如圖像描述)上表現(xiàn)良好,但在處理需要更深層次概念理解和復(fù)雜推理的任務(wù)時,它們的表現(xiàn)往往不盡人意。
而谷歌的Gemini模型從一開始就在不同模態(tài)上進行預(yù)訓練,再通過使用額外的多模態(tài)數(shù)據(jù)進行微調(diào),進一步提升了模型的有效性。這種原生的多模態(tài)訓練方法使得Gemini在處理多種類型的數(shù)據(jù)和復(fù)雜任務(wù)時更為高效和精準,從而在多模態(tài)人工智能領(lǐng)域樹立了新的標準。
并且,Gemini的推出主要是“瞄準OpenAI的GPT-4”而來。用《亮劍》里李云龍的話來說就是——“打的就是精銳”。
在運算效能方面,Gemini幾乎“全面吊打”GPT-4。Gemini Ultra在大模型研發(fā)被廣泛使用的32個學術(shù)基準測試集中,在其中30個測試集的性能超過此前SOTA結(jié)果。其中,在多選問題、數(shù)學問題、Python代碼任務(wù)、閱讀等方面,Gemini的性能都超過了此前最先進的水平。
谷歌稱,他們對MMLU采用了新的基準方法,使Gemini能夠利用推理能力在回答難題之前進行更仔細的思考,相比僅僅根據(jù)問題的第一印象作答,Gemini的表現(xiàn)有顯著改進。
Gemini Ultra在多個編碼基準測試中表現(xiàn)出色,包括HumanEval和Natural2Code。其中僅Gemini僅在HellaSWAG數(shù)據(jù)集上的測試遜色于GPT-4。
HellaSWAG數(shù)據(jù)集主要用于研究扎根的常識推理能力,但是一位NLP領(lǐng)域的研究專家向「甲子光年」表示:”這并不能說明GPT4的常識推理性能更好,因為不能排除ChatGPT的模型在HellaSWAG數(shù)據(jù)集上訓練過。”
Gemini模型與GPT-4部分測試評分對比,圖片來源:谷歌
此外,在多模態(tài)方面,Gemini Ultra在新的MMMU基準測試中取得了59.4%的最先進得分,突顯了其多模態(tài)性和復(fù)雜推理能力。
在圖像基準方面的測試中,Gemini Ultra不需要從圖像中提取文本就能進行OCR處理,表現(xiàn)優(yōu)于之前最先進的模型。
Gemini模型在多模態(tài)方面的與GPT-4V的測試對比,圖片來源:谷歌
Gemini 1.0被訓練用于同時識別和理解文本、圖像、音頻等,因此它能更好地理解具有細微差別的信息,回答與復(fù)雜主題相關(guān)的問題,尤其擅長解釋數(shù)學和物理等復(fù)雜科目中的推理。
“推理缺陷”也是GPT系列存在的問題。著名語言模型批評者Gary Marcus博士曾銳評道:“大語言模型沒法做一些有嚴格定義的工作:遵守國際象棋規(guī)則、五位數(shù)字相乘、在家譜中進行可靠的推理、比較不同物體的重量等等?!?/p>
Gemini解答物理題演示案例,圖片來源:谷歌
盡管技術(shù)進步顯著,但AI生成的虛假或捏造信息的問題依然存在。Eli Collins指出,這仍是一個未被完全解決的研究難題。
但他同時也強調(diào),Gemini接受了谷歌迄今最為全面的安全評估,以確保其可靠性和安全性。谷歌對Gemini進行了一系列對抗性測試,模擬惡意用戶使用模型,并輸入各種提示詞,以檢測模型是否會產(chǎn)生仇恨言論或表現(xiàn)出政治偏見。這些測試包括了“真實毒性提示詞”,由網(wǎng)絡(luò)收集的超過10萬個提示詞組成,用以全面檢驗?zāi)P偷姆磻?yīng)。
值得注意的是,Gemini是在谷歌自研的云芯片Tensor Processing Units(TPU)上完成訓練的。特別是TPU v5p版本,在性能上有了顯著提升,使得模型訓練速度相比前一代提高了2.8倍。據(jù)悉,TPU v5p芯片是專為數(shù)據(jù)中心訓練及大型模型運行而設(shè)計。
從12月13日起,開發(fā)人員和企業(yè)客戶可以通過Google AI Studio或Google Cloud Vertex AI來訪問Gemini Pro模型。Google AI Studio是一個基于網(wǎng)絡(luò)的免費開發(fā)工具,為開發(fā)人員提供API密鑰,從而快速創(chuàng)建原型并啟動應(yīng)用程序。Vertex AI提供了定制化的Gemini以提供更為全面和管理的人工智能平臺,并具有完整的數(shù)據(jù)控制功能,能利用谷歌云的額外功能,包括企業(yè)級的安全性、隱私保護以及數(shù)據(jù)治理和合規(guī)性。
此外,從Pixel 8 Pro設(shè)備開始,Android開發(fā)人員還可以通過Android 14中的新系統(tǒng)功能AICore來使用Gemini Nano。Gemini Nano是專為設(shè)備端任務(wù)設(shè)計的高效模型,通過注冊AICore的早期預(yù)覽版,開發(fā)人員可以深入探索其潛力,更便捷地利用Gemini的先進技術(shù),并在Android生態(tài)系統(tǒng)的應(yīng)用開發(fā)中迸發(fā)更多可能性。
到2024年,谷歌計劃推出Bard Advanced,它與AI agent的初級形態(tài)十分相似。Bard Advanced將借助Gemini Ultra提供支持,可以迅速理解多模態(tài)輸入,包括文本、圖像、音頻和視頻,并作出相應(yīng)的響應(yīng)。
二、谷歌 VS OpenAI
在OpenAI的GPTs大放異彩時,谷歌似乎過于沉寂了。
今年2月,谷歌在巴黎舉行活動時,因其聊天機器人Bard的一處失誤,市值蒸發(fā)了1000億美元,也引發(fā)了外界對于Bard準確性的擔憂。
隨著OpenAI推出了ChatGPT,尤其是在必應(yīng)搜索中整合了GPT技術(shù),并首次在應(yīng)用程序下載量上超越了谷歌后,人們開始思考谷歌是否在已人工智能領(lǐng)域落后于競爭對手。
事實上,谷歌才是在2017年提出的Transformer模型、為今天這場游戲制定規(guī)則的先行者。
谷歌對大模型”高地”的競爭意識并不比OpenAI晚。2021年,谷歌便推出了1.6萬億參數(shù)的Switch Transformer,強調(diào)稀疏多模態(tài)結(jié)構(gòu)的潛力。同時,谷歌還提出了Flan-T5模型,通過更多監(jiān)督數(shù)據(jù)降低了模型規(guī)模,比GPT-3模型參數(shù)更少但性能更佳。
對于技術(shù)上的評估,《經(jīng)濟學人》在今年1月曾進行了一項比較測試,向ChatGPT和谷歌基于Lamda的機器人Bard提出了數(shù)學、閱讀和約會建議等問題。
測試結(jié)果顯示,谷歌AI在數(shù)學問題上表現(xiàn)更佳,但ChatGPT在常識問題上更準確。幾天后OpenAI升級了ChatGPT,再次測試中在數(shù)學問題上與谷歌AI持平。盡管ChatGPT作為一個大型語言模型訓練成本高、迭代難,但也顯示了它持續(xù)進化的巨大潛力。值得注意的是,谷歌的語言模型與ChatGPT在性能上是旗鼓相當?shù)摹?/strong>
在這場對決中,谷歌和微軟都需要成本效益更高的解決方案。谷歌在AI領(lǐng)域取得了不少研究進展,但尚未將這些成果部署和變現(xiàn),類似于微軟在過去的某些時期。這可能是因為谷歌低估了微軟和OpenAI的競爭實力,或者過于自信于自己在搜索引擎領(lǐng)域的主導(dǎo)地位。
「甲子光年」綜合多方觀點分析得出,谷歌在技術(shù)前瞻性上領(lǐng)先,OpenAI更專注于產(chǎn)品的打磨。
在Sam Altman領(lǐng)導(dǎo)下的OpenAI專注于產(chǎn)品為導(dǎo)向的工作,致力于擴展和優(yōu)化模型,主要關(guān)注細節(jié)精調(diào)方法。
谷歌則在技術(shù)發(fā)展的方向上始終保持著積極和前瞻的態(tài)度,不過在整體戰(zhàn)略規(guī)劃上卻屢次調(diào)整。
谷歌在稀疏模型架構(gòu)上進行了深入探索。只是兩年后的,萬億級別的Switch Transformer幾乎沒產(chǎn)生任何水花,而千億參數(shù)級別的GPTs系列卻風生水起。同樣,被反復(fù)改進的Flan-T5模型雖然在性能上超越了GPT-3,但其優(yōu)化進展相對緩慢。
在谷歌“選擇困難癥”期間,OpenAI已經(jīng)完成了對ChatGPT的訓練。
在2022年9月,谷歌旗下的DeepMind推出了麻雀(Sparrow)模型,和ChatGPT一樣,采取了基于人類反饋的強化學習(RL)框架。該模型采用了小型參數(shù)設(shè)置,與谷歌看重的LaMDA和PaLM模型的思路有明顯不同。只是谷歌并未能迅速確定麻雀模型是否是最優(yōu)選擇,這也導(dǎo)致了麻雀模型的產(chǎn)品化滯緩,最終未能“飛上枝頭變鳳凰”。
“猶豫不決”似乎一直是谷歌的宿疾。“但遲到總比不做好!終于有了OpenAI王座的有力競爭者?!痹贕oogle公布消息后,英偉達AI科學家Jim Fan評論道。
今年4月,谷歌將Google Brain和DeepMind團隊合并,成立 Google DeepMind。有人將這一團隊戲稱為“AI復(fù)仇者聯(lián)盟”。原Google AI產(chǎn)品負責人Eli Collins被委以重任,擔任新團隊的產(chǎn)品副總裁。
目前,Gemini Pro和Gemini Nano已在聊天機器人Bard和智能手機Pixel 8 Pro上集成,實現(xiàn)了更為高級的推理、規(guī)劃、理解等能力。而更為強大的Gemini Ultra將在明年發(fā)布。
不知OpenAI會如何“應(yīng)戰(zhàn)”呢?或許我們很快便可以等到GPT-5的發(fā)布了。
不過,優(yōu)等生谷歌并不完全在意這一時之戰(zhàn),而是在著眼未來。
“我們對答案的探索將在未來25年推動非凡的技術(shù)進步。到2048年時,如果有一位青少年在世界上的某個地方,看著我們用人工智能建造的一切聳聳肩,我們就知道我們成功了。然后,我們就回去工作?!?/p>
谷歌CEO Sundar Pichai在谷歌成立25周年公開信中如是說。
*參考資料:
《Introducing Gemini: our largest and most capable AI model》,谷歌
《ChatGPT大熱,谷歌為何在自己的地盤輸給OpenAI?》,界面新聞
作者:蘇霍伊;編輯:王博
原文標題:優(yōu)等生歸來,谷歌最強大模型Gemini能否打敗GPT4?|甲子光年
來源公眾號:甲子光年(ID:jazzyear),立足中國科技創(chuàng)新前沿陣地,動態(tài)跟蹤頭部科技企業(yè)發(fā)展和傳統(tǒng)產(chǎn)業(yè)技術(shù)升級案例。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @甲子光年 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!