"沉寂"已久的谷歌終于放大招了。
美國當?shù)貢r間12月6日,谷歌發(fā)布多模態(tài)大模型Gemini。谷歌DeepMind直接宣布,Gemini是“谷歌*、最強的人工智能模型”。
Gemini谷歌是從頭開始構建的多模態(tài)模型,這也是更接近人類認識世界的方式。
作為谷歌用來應對GPT-4的“殺手锏”。Gemini在32個多模態(tài)基準測試中取得了30個SOTA(State Of The Art,即當前*效果)的記錄,是*個在MMLU(大規(guī)模多任務語言理解)測評上超過人類專家的模型。Gemini在此項取得的成績是90.0%,作為對比,人類專家的成績?yōu)?9.8%,GPT-4為86.4%。
Gemini共有三個版本:
Gemini Ultra:適用于高度復雜的任務;
Gemini Pro:適用于擴展至各種任務的Gemini模型;
Gemini Nano:體量較小,適用于特定任務和移動設備。
"Gemini的多樣性讓它能夠在從移動設備到大型數(shù)據(jù)中心的所有設備上運行。"谷歌DeepMind產(chǎn)品副總裁Eli Collins說,“我們離新一代人工智能模型的愿景越來越近了。”
“有了人工智能,我們將有機會以更大規(guī)模做一些重要的事情。”谷歌CEO Sundar Pichai在谷歌成立25周年公開信中就特意提到了人工智能。面對強勢的OpenAI,優(yōu)等生谷歌需要一款現(xiàn)象級產(chǎn)品,證明自己在人工智能領域的實力。
Gemini就是谷歌交出的答卷。
1、“打的就是精銳”
谷歌的Gemini模型的核心優(yōu)勢在于其原生多模態(tài)(natively multimodal)的特性。
以往的多模態(tài)大模型往往是通過分別針對不同模態(tài)訓練單獨的組件,再將這些組件組合起來以模擬多模態(tài)功能的方法構建的。雖然在某些任務(比如圖像描述)上表現(xiàn)良好,但在處理需要更深層次概念理解和復雜推理的任務時,它們的表現(xiàn)往往不盡人意。
而谷歌的Gemini模型從一開始就在不同模態(tài)上進行預訓練,再通過使用額外的多模態(tài)數(shù)據(jù)進行微調,進一步提升了模型的有效性。這種原生的多模態(tài)訓練方法使得Gemini在處理多種類型的數(shù)據(jù)和復雜任務時更為高效和精準,從而在多模態(tài)人工智能領域樹立了新的標準。
并且,Gemini的推出主要是"瞄準OpenAI的GPT-4"而來。用《亮劍》里李云龍的話來說就是——“打的就是精銳”。
在運算效能方面,Gemini幾乎“全面吊打”GPT-4。Gemini Ultra在大模型研發(fā)被廣泛使用的32個學術基準測試集中,在其中30個測試集的性能超過此前SOTA結果。其中,在多選問題、數(shù)學問題、Python代碼任務、閱讀等方面,Gemini的性能都超過了此前*進的水平。
谷歌稱,他們對MMLU采用了新的基準方法,使Gemini能夠利用推理能力在回答難題之前進行更仔細的思考,相比僅僅根據(jù)問題的*印象作答,Gemini的表現(xiàn)有顯著改進。
Gemini Ultra在多個編碼基準測試中表現(xiàn)出色,包括HumanEval和Natural2Code。其中僅Gemini僅在HellaSWAG數(shù)據(jù)集上的測試遜色于GPT-4。
HellaSWAG數(shù)據(jù)集主要用于研究扎根的常識推理能力,但是一位NLP領域的研究專家向「甲子光年」表示:"這并不能說明GPT4的常識推理性能更好,因為不能排除ChatGPT的模型在HellaSWAG數(shù)據(jù)集上訓練過。"
此外,在多模態(tài)方面,Gemini Ultra在新的MMMU基準測試中取得了59.4%的*進得分,突顯了其多模態(tài)性和復雜推理能力。
在圖像基準方面的測試中,Gemini Ultra不需要從圖像中提取文本就能進行OCR處理,表現(xiàn)優(yōu)于之前*進的模型。
Gemini 1.0被訓練用于同時識別和理解文本、圖像、音頻等,因此它能更好地理解具有細微差別的信息,回答與復雜主題相關的問題,尤其擅長解釋數(shù)學和物理等復雜科目中的推理。
“推理缺陷”也是GPT系列存在的問題。著名語言模型批評者Gary Marcus博士曾銳評道:“大語言模型沒法做一些有嚴格定義的工作:遵守國際象棋規(guī)則、五位數(shù)字相乘、在家譜中進行可靠的推理、比較不同物體的重量等等。”
盡管技術進步顯著,但AI生成的虛假或捏造信息的問題依然存在。Eli Collins指出,這仍是一個未被完全解決的研究難題。
但他同時也強調,Gemini接受了谷歌迄今最為全面的安全評估,以確保其可靠性和安全性。谷歌對Gemini進行了一系列對抗性測試,模擬惡意用戶使用模型,并輸入各種提示詞,以檢測模型是否會產(chǎn)生仇恨言論或表現(xiàn)出政治偏見。這些測試包括了“真實毒性提示詞”,由網(wǎng)絡收集的超過10萬個提示詞組成,用以全面檢驗模型的反應。
值得注意的是,Gemini是在谷歌自研的云芯片Tensor Processing Units(TPU)上完成訓練的。特別是TPU v5p版本,在性能上有了顯著提升,使得模型訓練速度相比前一代提高了2.8倍。據(jù)悉,TPU v5p芯片是專為數(shù)據(jù)中心訓練及大型模型運行而設計。
從12月13日起,開發(fā)人員和企業(yè)客戶可以通過Google AI Studio或Google Cloud Vertex AI來訪問Gemini Pro模型。Google AI Studio是一個基于網(wǎng)絡的免費開發(fā)工具,為開發(fā)人員提供API密鑰,從而快速創(chuàng)建原型并啟動應用程序。Vertex AI提供了定制化的Gemini以提供更為全面和管理的人工智能平臺,并具有完整的數(shù)據(jù)控制功能,能利用谷歌云的額外功能,包括企業(yè)級的安全性、隱私保護以及數(shù)據(jù)治理和合規(guī)性。
此外,從Pixel 8 Pro設備開始,Android開發(fā)人員還可以通過Android 14中的新系統(tǒng)功能AICore來使用Gemini Nano。Gemini Nano是專為設備端任務設計的高效模型,通過注冊AICore的早期預覽版,開發(fā)人員可以深入探索其潛力,更便捷地利用Gemini的先進技術,并在Android生態(tài)系統(tǒng)的應用開發(fā)中迸發(fā)更多可能性。
到2024年,谷歌計劃推出Bard Advanced,它與AI agent的初級形態(tài)十分相似。Bard Advanced將借助Gemini Ultra提供支持,可以迅速理解多模態(tài)輸入,包括文本、圖像、音頻和視頻,并作出相應的響應。
2、谷歌 VS OpenAI
在OpenAI的GPTs大放異彩時,谷歌似乎過于沉寂了。
今年2月,谷歌在巴黎舉行活動時,因其聊天機器人Bard的一處失誤,市值蒸發(fā)了1000億美元,也引發(fā)了外界對于Bard準確性的擔憂。
隨著OpenAI推出了ChatGPT,尤其是在必應搜索中整合了GPT技術,并首次在應用程序下載量上超越了谷歌后,人們開始思考谷歌是否在已人工智能領域落后于競爭對手。
事實上,谷歌才是在2017年提出的Transformer模型、為今天這場游戲制定規(guī)則的先行者。
谷歌對大模型"高地"的競爭意識并不比OpenAI晚。2021年,谷歌便推出了1.6萬億參數(shù)的Switch Transformer,強調稀疏多模態(tài)結構的潛力。同時,谷歌還提出了Flan-T5模型,通過更多監(jiān)督數(shù)據(jù)降低了模型規(guī)模,比GPT-3模型參數(shù)更少但性能更佳。
對于技術上的評估,《經(jīng)濟學人》在今年1月曾進行了一項比較測試,向ChatGPT和谷歌基于Lamda的機器人Bard提出了數(shù)學、閱讀和約會建議等問題。
測試結果顯示,谷歌AI在數(shù)學問題上表現(xiàn)更佳,但ChatGPT在常識問題上更準確。幾天后OpenAI升級了ChatGPT,再次測試中在數(shù)學問題上與谷歌AI持平。盡管ChatGPT作為一個大型語言模型訓練成本高、迭代難,但也顯示了它持續(xù)進化的巨大潛力。值得注意的是,谷歌的語言模型與ChatGPT在性能上是旗鼓相當?shù)摹?/strong>
在這場對決中,谷歌和微軟都需要成本效益更高的解決方案。谷歌在AI領域取得了不少研究進展,但尚未將這些成果部署和變現(xiàn),類似于微軟在過去的某些時期。這可能是因為谷歌低估了微軟和OpenAI的競爭實力,或者過于自信于自己在搜索引擎領域的主導地位。
「甲子光年」綜合多方觀點分析得出,谷歌在技術前瞻性上*,OpenAI更專注于產(chǎn)品的打磨。
在Sam Altman領導下的OpenAI專注于產(chǎn)品為導向的工作,致力于擴展和優(yōu)化模型,主要關注細節(jié)精調方法。
谷歌則在技術發(fā)展的方向上始終保持著積極和前瞻的態(tài)度,不過在整體戰(zhàn)略規(guī)劃上卻屢次調整。
谷歌在稀疏模型架構上進行了深入探索。只是兩年后的,萬億級別的Switch Transformer幾乎沒產(chǎn)生任何水花,而千億參數(shù)級別的GPTs系列卻風生水起。同樣,被反復改進的Flan-T5模型雖然在性能上超越了GPT-3,但其優(yōu)化進展相對緩慢。
在谷歌"選擇困難癥"期間,OpenAI已經(jīng)完成了對ChatGPT的訓練。
在2022年9月,谷歌旗下的DeepMind推出了麻雀(Sparrow)模型,和ChatGPT一樣,采取了基于人類反饋的強化學習(RL)框架。該模型采用了小型參數(shù)設置,與谷歌看重的LaMDA和PaLM模型的思路有明顯不同。只是谷歌并未能迅速確定麻雀模型是否是*選擇,這也導致了麻雀模型的產(chǎn)品化滯緩,最終未能"飛上枝頭變鳳凰"。
"猶豫不決"似乎一直是谷歌的宿疾。“但遲到總比不做好!終于有了OpenAI王座的有力競爭者。”在Google公布消息后,英偉達AI科學家Jim Fan評論道。
今年4月,谷歌將Google Brain和DeepMind團隊合并,成立 Google DeepMind。有人將這一團隊戲稱為“AI復仇者聯(lián)盟”。原Google AI產(chǎn)品負責人Eli Collins被委以重任,擔任新團隊的產(chǎn)品副總裁。
目前,Gemini Pro和Gemini Nano已在聊天機器人Bard和智能手機Pixel 8 Pro上集成,實現(xiàn)了更為高級的推理、規(guī)劃、理解等能力。而更為強大的Gemini Ultra將在明年發(fā)布。
不知OpenAI會如何"應戰(zhàn)"呢?或許我們很快便可以等到GPT-5的發(fā)布了。
不過,優(yōu)等生谷歌并不完全在意這一時之戰(zhàn),而是在著眼未來。
“我們對答案的探索將在未來25年推動非凡的技術進步。到2048年時,如果有一位青少年在世界上的某個地方,看著我們用人工智能建造的一切聳聳肩,我們就知道我們成功了。然后,我們就回去工作。”谷歌CEO Sundar Pichai在谷歌成立25周年公開信中如是說。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...