訂閱
糾錯
加入自媒體

谷歌AI往事:隱秘的二十年,與狂奔的365天

一年前,谷歌在硅谷的敘述中還是一個充滿了“中年危機”色彩的角色。

但短短一年后,故事發(fā)生了翻天覆地的變化。

Gemini 3橫掃各大榜單,「香蕉」模型Nano Banana Pro更是將AI生圖的精度與想象力提升到了一個新的高度。

財報數(shù)字成為了這一輪反擊最直接的注腳:截至三季度,Gemini應用的月活躍用戶突破6.5億,相比上一季度公布的4.5億大幅提升。

這不禁讓人好奇:谷歌最近怎么突然這么猛了?

其實,這并非一次突然的爆發(fā),而是一場“大象轉(zhuǎn)身”,正以前所未有的決心和效率,將自己數(shù)十年積累的 AI 技術(shù)儲備,轉(zhuǎn)化為產(chǎn)品力。

如果把時間軸拉得更長,你會看到一條更驚人的暗線:

從拉里·佩奇早年對“終極搜索引擎”的想象,到“貓論文”,再到DeepMind、TPU,谷歌二十多年間的AI投資幾乎貫穿了現(xiàn)代深度學習的絕大部分關(guān)鍵節(jié)點。

在 Transformer 論文發(fā)表前的十年前,世界上幾乎所有知名的 AI 人才,都曾在谷歌工作過。

這種全棧的技術(shù)沉淀與人才密度,為谷歌構(gòu)筑了一條遠超想象的護城河。

草蛇灰線,伏脈千里。谷歌今天的絕對反擊,其實已經(jīng)深入藏在了它二十年來的投資拼圖中。今年,我們就來復盤一下谷歌在AI戰(zhàn)場上的那些關(guān)鍵落子,看看它們是如何在二十年來,左右了整個AI產(chǎn)業(yè)的走向。

/ 01 /

谷歌AI起源:當壓縮等于理解

谷歌的AI,始于拉里·佩奇。

拉里·佩奇的父親是多倫多大學的計算機科學教授,研究方向正是機器學習和人工智能。

在當時,AI是一個被主流學界認為“有點浪費生命”的冷門方向,因為在此之前30年的許多重要理論當時都被推翻了,或者至少人們認為它們已經(jīng)被推翻了。

但拉里卻受這套影響很深,他后來回顧谷歌早期時說過一句話:

“人工智能會是谷歌的終極版本。終極搜索引擎應該能理解整個互聯(lián)網(wǎng),也能精準理解你要什么,然后給你正確的答案。”

那是2000年,也就是谷歌成立兩年后。那時沒人知道LLM是什么,更沒有ChatGPT。

而谷歌第一次真正意義上的“語言模型實驗”,是從一個非常谷歌式的故事開始的。

2000 年左右,谷歌的早期員工 George Hinton 和天才工程師諾姆(Transformer 論文主要作者之一)在閑聊時提出了一個論斷:

“如果你能把一段數(shù)據(jù)壓縮,再無損還原,那從技術(shù)上講,你必須真的‘理解’了它。”

這句話一下戳中了諾姆。他意識到,如果壓縮=理解,那搜索里的語言建模、概率預測就可以反過來當“理解機器”的基礎(chǔ)。

于是,兩人干脆停掉手頭工作,一頭扎進語言模型和數(shù)據(jù)壓縮。后來,他們搞出了谷歌第一個真正意義上的“模型”產(chǎn)品—— “你不是要找:xxx”(拼寫糾錯)。

這是一個非常小的應用場景,系統(tǒng)會自動糾正用戶的錯誤輸入,既改善了用戶體驗,也節(jié)約了谷歌巨大的基礎(chǔ)設(shè)施成本(少跑一堆無意義查詢)。這是谷歌第一次把“概率語言模型”實打?qū)嵉胤胚M了搜索產(chǎn)品里。

這個項目后來進化成一個被內(nèi)部昵稱為 PHIL(Probabilistic Hierarchical Inferential Learner) 的“龐大”語言模型。

從表面上看,谷歌只不過做了一個更聰明的輸入框。但從這時開始,搜索背后已經(jīng)在悄悄變成一臺建模世界與人類語言的機器。

/ 02 /

大煉模型:貓、YouTube 與千億美元

真正讓谷歌拿到通往AI船票的是,Google Brain(谷歌大腦)的成立。

2011年,吳恩達剛剛從斯坦福人工智能實驗室 SAIL 到谷歌兼職。當時,吳恩達正與團隊探索一種無監(jiān)督大規(guī)模神經(jīng)網(wǎng)絡(luò)訓練方法,目標是讓系統(tǒng)從未經(jīng)標記的圖像中自動學習結(jié)構(gòu)特征。

這個判斷在當時是少見的,因為深度學習仍被懷疑,主流研究者認為“神經(jīng)網(wǎng)絡(luò)太慢、太不穩(wěn)定”。

但這種想法卻深深吸引了當時谷歌最頂級的系統(tǒng)工程師杰夫·迪恩。

在此之前,谷歌曾經(jīng)嘗試過兩次構(gòu)建大規(guī)模的深度神經(jīng)網(wǎng)絡(luò),但兩個項目都不太成功。所以,谷歌的研究團隊心里一直有個疑問:大規(guī)模神經(jīng)網(wǎng)絡(luò)真的能在谷歌的基礎(chǔ)設(shè)施上運行嗎?

于是,兩人一拍即合,并拉上了神經(jīng)科學博士 Greg Corrado,開始著手構(gòu)建一個非常龐大的深度神經(jīng)網(wǎng)絡(luò)模型,這個項目就是“谷歌大腦”。

要構(gòu)建大規(guī)模的深度神經(jīng)網(wǎng)絡(luò),就需要一個系統(tǒng)來運行它。當時的主流觀點認為,大模型必須在同一臺機器上同步訓練。但杰夫·迪恩卻選擇了反直覺的路線:把網(wǎng)絡(luò)拆到幾千臺CPU上,跨數(shù)據(jù)中心異步訓練,用“過時參數(shù)”繼續(xù)訓練。

理論上,這聽起來像是一場災難;實踐中,它卻跑通了。這就是著名的“DistBelief”系統(tǒng)。

于是,2012 年,那篇名為《使用大規(guī)模無監(jiān)督學習構(gòu)建高級特征》的論文出現(xiàn)了,它還有一個更出名的名字:“貓論文”。

具體來說,他們使用一千臺不同機器上的16000個CPU核心,訓練了一個大型九層神經(jīng)網(wǎng)絡(luò),通過無監(jiān)督學習識別 YouTube 視頻中的貓。

在那之前,AI識別物體需要人類先打標簽。但谷歌的這個九層神經(jīng)網(wǎng)絡(luò),在看了無數(shù)個小時的 YouTube 視頻后,自己學會認識“貓”。它證明了無監(jiān)督學習的可行性:機器可以自己從數(shù)據(jù)中提煉規(guī)律。

比起貓論文對AI行業(yè)的影響,更顯著的是其所帶來的商業(yè)價值。因為它催生了一種新的分發(fā)機制:推薦系統(tǒng)機制。

當時,YouTube正努力轉(zhuǎn)型為更全面的網(wǎng)站,試圖吸引用戶觀看更多視頻,構(gòu)建信息流,延長用戶停留時間等等。要做到這一點,推薦系統(tǒng)需要根據(jù)用戶自己撰寫的視頻標題和描述來確定推送內(nèi)容。

但問題在于,絕大部分用戶很難精準描述他們上傳的視頻內(nèi)容,這就導致系統(tǒng)無法實現(xiàn)精準推薦。

而“貓論文”第一次證明:基于 DistBelief 的深度神經(jīng)網(wǎng)絡(luò),可以直接從視頻本身學出內(nèi)容,自動理解畫面和主題,然后利用這些數(shù)據(jù)來確定應該向用戶推送哪些視頻。

于是,谷歌迅速將這套技術(shù)評估YouTube的推薦算法,也奠定了其作為全球最大視頻平臺的基礎(chǔ),

后來,F(xiàn)acebook 、Instagram和字節(jié)跳動紛紛開始效仿這一機制,并在后面10年成為全世界最主流的休閑娛樂方式。

也就是說,在世人都知道 ChatGPT 之前,AI已經(jīng)將開始塑造我們所有人的人類生活,并創(chuàng)造數(shù)千億美元的收入。

而這一切就始于谷歌。

/ 03 /

收購DeepMind:是巔峰,也是拐點

谷歌始終沒有放緩招募頂級AI人才的腳步。

2012年,谷歌在與百度的競爭中勝出,以4400萬美元的價格收購了一家名為 DNN(深度神經(jīng)網(wǎng)絡(luò))研究公司,這家公司是由杰夫·辛頓、亞歷克斯·克里熱夫斯基和伊利亞·蘇茨克維爾創(chuàng)建的。

當然,真正讓谷歌在AI產(chǎn)業(yè)確立統(tǒng)治力的,是對于DeepMind的收購。

2010 年,神經(jīng)科學博士德米斯·哈薩比斯、博士后謝恩·萊格和兒時好友穆斯塔法·蘇萊曼創(chuàng)立了DeepMind。其創(chuàng)立目標非常宏大,即“解決智能,并利用它來解決所有其他問題”(solve intelligence and use it to solve everything else)

到了2013年底至2014年初,DeepMind 接到了多家公司的收購要約,其中也包括了扎克伯格和馬斯克。

在這場競爭里,谷歌最終勝出了。原因是,DeepMind 的創(chuàng)始團隊與 Facebook、特斯拉在理念上始終存在分歧。

哈薩比斯堅持,DeepMind 必須保持獨立性,并設(shè)立一個擁有否決權(quán)的獨立監(jiān)管委員會,以確保公司的長期使命不會被短期商業(yè)目標稀釋。但扎克伯格并不同意讓哈薩比斯繼續(xù)掌握 DeepMind 的控制權(quán)

相比之下,拉里·佩奇的態(tài)度截然不同。他一直把谷歌視作一家以人工智能為核心的公司,對 DeepMind的使命高度認同,也愿意給團隊足夠的自主權(quán)。

谷歌向 DeepMind 承諾,DeepMind可以繼續(xù)留在倫敦,專注于純粹的“智能”研究,而無需為谷歌內(nèi)部的產(chǎn)品服務工作,因為谷歌已經(jīng)有Google Brain團隊在負責產(chǎn)品落地。

同時,谷歌還擁有 DeepMind 研究所需的全部計算基礎(chǔ)設(shè)施。

最終,谷歌在2014年1月收購了 DeepMind,交易價格為 5.5 億美元。

這筆收購讓谷歌擁有了當時最豪華的AI研究團隊,幾乎統(tǒng)治了AI領(lǐng)域。

但讓人完全沒有想到的是,這次收購就像蝴蝶扇動翅膀一樣,引發(fā)了一連串連谷歌自己都無法預料的連鎖反應。

甚至可以說,從 OpenAI 的創(chuàng)立,到ChatGPT的誕生,再到 Anthropic、xAI 等公司的相繼出現(xiàn),今日AI產(chǎn)業(yè)的幾乎每一條重要支線,都可以追溯到那場收購。

在當時看來,此次收購產(chǎn)生了兩個直接的后果:

一方面,它直接激怒了馬斯克。DeepMind 被谷歌買走,谷歌又在全球瘋狂招募頂尖AI研究員,這讓馬斯克意識到:如果再不做點什么,未來人類對AI的控制權(quán)可能會高度集中在少數(shù)公司手里。

2015 年夏天,馬斯克和奧特曼在 Rosewood 酒店組織了一場晚宴。這次晚宴的目的是向被谷歌和 Facebook 招募的 AI 研究人員發(fā)出邀請,詢問他們離開的條件。

他們向這些研究人員提出的方案是:成立一個新的非營利性人工智能研究實驗室,不受谷歌或Facebook等資本主義機構(gòu)的控制,致力于“以最有可能造福全人類的方式推進數(shù)字智能”。

盡管大多數(shù)研究人員拒絕了邀請,但AlexNet的主要貢獻者、Google Brain團隊的 Ilya Sutskever 對此提議表示了興趣。

除了Ilya之外,還有大約七位研究人員離開了谷歌,加入了馬斯克和奧特曼的團隊,共同創(chuàng)建了OpenAI。

另一方面,這筆收購也激化了AI領(lǐng)域的巨頭競爭,并加速了 Anthropic和xAI 等公司的誕生

谷歌收購 DeepMind 及其后谷歌 AI 人才流失至 OpenAI,導致了 OpenAI 內(nèi)部的“夢之隊”不斷組建和變化。Dario Amodei 在 OpenAI 取得了重大進展后,最終也離開了 OpenAI,創(chuàng)辦了 Anthropic。

在這筆收購收購后,馬斯克也開始意識到,特斯拉必須在 AI 上建立自己的技術(shù)路徑,不能把未來押在外部團隊上。在從OpenAI 撤資后,馬斯克創(chuàng)建了xA 。

隨著 OpenAI 的壯大,DeepMind 收購的附帶影響將谷歌最大的敵人 Microsoft 重新帶回了舞臺中心。Microsoft 最終通過向 OpenAI 投資數(shù)十億美元,獲得了對其技術(shù)的獨家授權(quán),從而對谷歌的核心搜索業(yè)務構(gòu)成了“生存威脅”。

谷歌唯一值得慶幸的是,也正是這些團隊的出走,最終讓其免于因壟斷而被迫處罰或者拆分。

/ 04 /

被英偉達逼出來的TPU

在整合AI領(lǐng)域最頂級研究資源的同時,谷歌還干了一件很牛逼的事情:搞TPU。

2013年,當 AlexNet 的主要貢獻者之一 Alex Krizhevsky 加入谷歌時,他震驚地發(fā)現(xiàn)他們現(xiàn)有的所有機器學習模型都運行在CPU上。

此前,人們曾多次要求使用GPU,因為機器學習工作負載非常適合并行運行,但谷歌的基礎(chǔ)設(shè)施團隊卻拒絕了,他們認為擴展和多樣化GPU集群會增加復雜性,所以還是保持簡單為好。“這對我們來說似乎并不重要。”

于是,Alex Krizhevsky自己去當?shù)氐碾娮由痰曩徺I了一臺GPU機器,將其插到網(wǎng)絡(luò)上,開始用這臺單獨的硬件訓練他的神經(jīng)網(wǎng)絡(luò)模型。

直到2014年,谷歌工程主管 杰夫·迪恩(Jeff Dean) 和 Google Brain 負責人 約翰·吉安南德里亞(John Giannandrea)才決定,正式將GPU納入谷歌的數(shù)據(jù)中心。

最終,他們決定向英偉達訂購4萬塊GPU,這筆訂單價值1.3億美元。這筆訂單的預算之高,使得采購請求被提交給 Larry Page 親自審批。

盡管財務部門曾試圖否決這筆交易,但 Larry Page 親自批準了這筆交易,因為他認為深度學習是谷歌的未來。

按當時英偉達的體量,這幾乎是改變命運級別的訂單。這筆訂單也為英偉達提供了信心,使其相信 AI 將在未來成為一項巨大的業(yè)務。

隨著神經(jīng)網(wǎng)絡(luò)技術(shù)被集成到 Google Photos、Gmail 建議和 AdWords 等產(chǎn)品中,谷歌很快發(fā)現(xiàn)這些AI應用能夠帶來可觀的收入回報。因此,谷歌在 1.3 億美元的基礎(chǔ)上,又花費了數(shù)億美元繼續(xù)購買 GPU。

在大規(guī)模購買GPU的同時,谷歌也發(fā)現(xiàn)了兩個問題:

第一,太燒錢。像谷歌這樣規(guī)模的公司,一旦神經(jīng)網(wǎng)絡(luò)開始運作,需要進行大量的矩陣乘法運算。谷歌發(fā)現(xiàn)自己每年將需要“向英偉達輸送數(shù)億,很快就是數(shù)十億美元”。

第二,GPU不夠用了。當谷歌推出語音識別功能(利用神經(jīng)網(wǎng)絡(luò)實現(xiàn)),并很快在 Nexus 手機上取得了成功。

Jeff Dean 算了一筆賬,發(fā)現(xiàn)如果人們每天使用一項AI功能三分鐘,而谷歌將其推廣到所有十億部安卓手機上,那么需要比目前整個谷歌擁有的數(shù)據(jù)中心數(shù)量多一倍的數(shù)據(jù)中心才能處理它。

解決辦法只有兩個:要么把基礎(chǔ)設(shè)施規(guī)模再翻一倍,要么自己構(gòu)建一種新的定制芯片,專門針對谷歌的特定用例進行優(yōu)化(即張量乘法)。

這就是后來 TPU 出現(xiàn)的背景。

TPU 被設(shè)計成一種應用特定的集成電路(ASIC),它雖然不能用于圖形處理,但專門用于神經(jīng)網(wǎng)絡(luò)的矩陣乘法,效率遠高于當時的 GPU。

TPU 的核心目標是讓谷歌能夠在不將其整個基礎(chǔ)設(shè)施規(guī)模翻倍的情況下,擴展其數(shù)據(jù)中心的能力。

TPU的原理很簡單,就是降低計算精度,提高計算效率。舉個例子,它會將4586.8272這樣的數(shù)字四舍五入到4586.8,甚至可能直接四舍五入到4586,小數(shù)點后為空。

這樣一來,就可以在芯片上使用相同的功耗、內(nèi)存和晶體管數(shù)量,每秒執(zhí)行更多的計算,更快地輸出結(jié)果。

如今,TPU已經(jīng)成為谷歌 AI 戰(zhàn)略的核心基礎(chǔ)設(shè)施。谷歌內(nèi)部也已經(jīng)建立了一個規(guī)模幾乎與英偉達相當?shù)男酒邪l(fā)體系,不僅服務于谷歌自身,也服務于谷歌云客戶。

在商業(yè)上,TPU 還有另外一層意義:避免了被英偉達收“稅”

目前,英偉達的 GPU 系統(tǒng)毛利率高達 75% 至 80%,這意味著芯片成本可能有約5倍的加價。而谷歌通過自研,避免了支付這種巨大的溢價。這種縱向一體化的能力,已經(jīng)反過來變成了模型競爭力的一部分。

/ 05 /

Transformer的錯判和紅色警報

在Transformer出現(xiàn)之前,谷歌團隊已經(jīng)用循環(huán)神經(jīng)網(wǎng)絡(luò)重寫了谷歌翻譯。

但一些局限性也逐漸顯現(xiàn)。其中一個主要問題是,模型“遺忘”信息的速度太快。用現(xiàn)在的話說,就是上下文窗口很短。

谷歌改進算法的方法之一,是使用一種叫做長短期記憶網(wǎng)絡(luò)(LSTM)的技術(shù)。LSTM 的基本原理是為模型創(chuàng)建一個持久的或長短期記憶,這里需要稍微動動腦,以便模型在執(zhí)行一系列步驟時能夠記住上下文。

2016年,谷歌翻譯就采用了LSTM。這使得錯誤率降低了60%。這是一個巨大的飛躍。當時,大家都認為LSTM 將會把語言模型和大型語言模型推向主流。

然而,LSTM也有弊端。雖然它們有效,但計算量非常大,而且并行化效果不佳。

于是,谷歌大腦內(nèi)部的一個團隊開始尋找一種更好的架構(gòu),它既要具備LSTM的優(yōu)點,又不能過快遺忘上下文信息,同時還要能夠更好地并行化和擴展。

一位名叫雅各布·烏什科雷特的研究員一直在嘗試拓展語言處理中“注意力”的范圍。

如果模型不再關(guān)注眼前的詞語,而是關(guān)注整個文本語料庫,預測下一個翻譯詞應該是什么,會怎么樣呢?

如果要這樣做,該模型需要大量的計算能力才能完成這項工作,但它具有極強的并行化能力。

雅各布開始與大腦團隊的其他幾位成員合作,他們決定把這個項新技術(shù)目命名為“Transformer”。

一開始,他們雖然已經(jīng)實現(xiàn)了 Transformer 模型,但實際上它的表現(xiàn)并不比 LSTM 好多少。直到諾姆加入團隊,他從頭開始重寫了整個代碼庫。

完工后,Transformer 模型徹底碾壓了基于 LSTM 的谷歌翻譯方案,也證明了一件事:模型規(guī)模越大,效果就越好。

在Transformer 論文發(fā)布一年后,谷歌又開發(fā)出了大型語言模型 BERT。

很多人認為谷歌在論文發(fā)表后就對Transformer架構(gòu)無所作為,事實并非如此。他們用基于Transformer的大型語言模型做了很多工作。但在當時,谷歌確實沒有將其視為一次全面的技術(shù)平臺變革。

事實上,在 ChatGPT 之前,谷歌已經(jīng)有了一個聊天機器人。當時,諾姆已經(jīng)看到了Transformer模型的價值,并向高層游說,公司應該全力以赴轉(zhuǎn)型做一個巨大的Transformer模型

為此,諾姆還構(gòu)建了一個聊天機器人,叫 Mina。

Mina與ChatGPT 很接近,但沒有ChatGPT 那樣具備訓練后的安全機制,所以很容易失控。比如,你只要問它誰該死,它就會列出一些應該死的人的名字。也正因為如此,谷歌始終沒有發(fā)布它。

除了失控風險外,谷歌沒有發(fā)布Mina的原因還有兩個:

第一,如果把谷歌搜索頁面變成一個聊天機器人,那么用戶將直接得到答案,而不是網(wǎng)站鏈接,這將直接影響谷歌的收入。盡管谷歌現(xiàn)在在考慮這個問題,但在2021年之前,提出這樣的建議是絕對行不通的。

第二,直接給出答案,存在法律風險。當時,有相當多的輿論認為谷歌正在剝奪出版商與讀者之間的直接聯(lián)系,為此谷歌已經(jīng)花了數(shù)十年時間來對抗公眾輿論和法院判決。

出于這些考慮,即使諾姆和谷歌內(nèi)部都認為基于 Transformer 構(gòu)建 LLM,并為其添加聊天機器人界面,可能是一個極具吸引力的產(chǎn)品,但在當時并沒有迫切的理由去做這件事。

2021年,諾姆離開了谷歌,創(chuàng)立了聊天機器人公司 Character AI。

谷歌的誤判,卻給了OpenAI打開了一個成功的契機。

2018年6月,OpenAI 發(fā)布了一篇論文,描述了他們?nèi)绾卫肨ransformer模型,并開發(fā)了一種新的方法,即先在互聯(lián)網(wǎng)上大量通用文本上對其進行預訓練,然后將這種通用預訓練微調(diào)到特定的用例。

他們還宣布,他們已經(jīng)訓練并運行了該方法的第一個概念驗證模型,他們稱之為 GPT-1(生成式預訓練 Transformer 版本 1)。這與 BERT 的出現(xiàn)時間大致相同。

2022年底,ChatGPT出現(xiàn)了。

ChatGPT的成功,徹底顛覆了谷歌對于AI的判斷:

在此前相當長時間里,谷歌、皮猜、拉里以及所有人都把AI視為持續(xù)性創(chuàng)新,谷歌可以利用AI持續(xù)鞏固我們在所有領(lǐng)先產(chǎn)品中的領(lǐng)先地位。在ChatGPT 問世后,一夜之間,AI就會從一種持續(xù)性創(chuàng)新轉(zhuǎn)變?yōu)轭嵏残詣?chuàng)新。

甚至說,這種變化對谷歌構(gòu)成了一種生存威脅。這意味著,谷歌過去10 -20年在人工智能領(lǐng)域積累的許多優(yōu)勢,都變成了劣勢。

/ 06 /

重回牌桌中央

在ChatGPT發(fā)布后,桑達爾在公司內(nèi)部發(fā)布了紅色警報。

這是谷歌的最高級別危機模式,這意味著公司需要立即采取“全體總動員”(all-hands-on-deck)的應對措施。

為了挽回危局,谷歌做了兩件事:

第一,組織架構(gòu)的徹底重組。皮猜認為,谷歌不能再有兩支AI團隊,因此他做出了重大的組織決策:將Google Brain和DeepMind 合并為一個實體,即 Google DeepMind。

同時,他任命 DeepMind 聯(lián)合創(chuàng)始人哈薩比斯為合并后的 Google DeepMind 首席執(zhí)行官,主導整個谷歌 AI 部門的發(fā)展方向。

盡管,這一決定違反了最初收購 DeepMind 時承諾其獨立性的條款,體現(xiàn)了公司對AI緊迫性的最高重視。

同時,谷歌決定重新召回頂級人才。谷歌聯(lián)合創(chuàng)始人謝爾蓋·布林重新作為員工回歸,參與 Gemini 項目的工作。

他們斥巨資與 Character.AI 達成許可協(xié)議,將諾姆帶回谷歌,讓他與杰夫·迪恩一起擔任 Gemini 的聯(lián)席技術(shù)負責人,其他Google Brain核心成員也加入 DeepMind 團隊,共同開發(fā) Gemini。

第二,產(chǎn)品和技術(shù)上的集中火力。谷歌決定結(jié)束多模型、多團隊并存的局面,集中資源打造一款旗艦模型。皮猜決定谷歌將標準化并只使用一個模型,即 Gemini。該模型將用于谷歌內(nèi)部的所有 AI 產(chǎn)品和外部服務。

同時,谷歌也在內(nèi)部積極推廣Gemini,他們會聯(lián)系每個團隊,告訴他們Gemini代表著公司的未來,你們需要開始尋找將 Gemini 集成到產(chǎn)品中的方法。

Gemini 被設(shè)計為多模態(tài)(multimodal)模型,能夠處理文本、圖像、視頻和音頻。谷歌以極快的速度構(gòu)建和訓練 Gemini,在 2023年5月宣布計劃后,于 2023年12月就發(fā)布了早期的公共測試版本,速度之快在谷歌歷史上罕見。

自那之后,谷歌進入了一個罕見的產(chǎn)品加速期:

Gemini 2.5 Pro 橫掃各大榜單,到「香蕉」模型 Nano Banana 的爆火,視頻模型 Veo 3 展示了物理世界的理解力;Genie 3 甚至能一句話生成一個虛擬世界。

進去今年11月,谷歌接連發(fā)布了Gemini 3和Nano Banana Pro,尤其是 Gemini 3 在各類主流基準上展現(xiàn)了統(tǒng)治級的表現(xiàn)。

谷歌用一連串“王炸”產(chǎn)品,重新站回了牌桌中央。

/ 07 /

總結(jié)

谷歌在AI上的這二十年里,絕對是一部充滿戲劇性的啟示錄。

它始于拉里·佩奇對“理解互聯(lián)網(wǎng)”的天才構(gòu)想,中間迷失于“創(chuàng)新者的困境”和壟斷帶來的舒適區(qū),最終在生存危機的緊迫下,完成了一次驚心動魄的轉(zhuǎn)折。

這很大程度要歸功于OpenAI的突襲,因為它給了谷歌最需要的東西:恐懼。

當桑達爾·皮查伊打破分區(qū)墻,當謝爾蓋·布林重回業(yè)務一線,當那些分散在Google Brain和DeepMind的天才們終于坐在同一張辦公桌前,谷歌展現(xiàn)出了“體系化的AI力量”。

再把視角拉回到 2000 年的那個下午。拉里·佩奇曾說:“人工智能是谷歌的終極版本。”

二十五年過去了,宿命完成了閉環(huán)。谷歌從來就不是一家搜索公司。從一開始,它就是一家試圖用數(shù)學和算力窮盡人類知識邊界的AI公司。

如今,那個大家熟悉的、令人害怕的谷歌,終于回來了。

文/林白

       原文標題 : 谷歌AI往事:隱秘的二十年,與狂奔的365天

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號