
![]()
英偉達怒花 200 億美元,買下了一家和自個路線完全相反的達史公司?
事情是這樣的,上周,上最加拿大蛋蛋28app官网下载領投 Groq 的次收次 Disruptive CEO 放出了消息,老黃準備吞掉自己的購也潛在競爭對手,同為芯片制造商的最招 Groq。
而這個英偉達史上最大收購案,英偉立刻在科技圈掀起了不小的達史波瀾。
![]()
大伙兒有說英偉達加強壟斷的,有分析 Groq 技術優勢的次收次,不過討論最多的購也,還是最招老黃真被前一陣子谷歌的 TPU 給刺激到了。。英偉。達史
雖然說起 Groq,上最各位差友應該都比較陌生。如果你覺得聽說過,那大概率是加拿大蛋蛋28app官网下载跟馬斯克家的 grok 搞混了。
但這家 2016 年創立的公司,來頭可不小。它今年的估值已經達到了 70 億美元以上,創始人正是谷歌第一代 TPU 的設計師 Jonathan Ross。
![]()
Groq 的核心產品也很有意思,是一種叫 LPU( Language Processing Unit,語言處理單元 )的新型專用芯片,和 谷歌搞 AI 計算的專用芯片 TPU 放一塊兒,確實有點宛宛類卿那意思。
LPU 同樣拋棄了 GPU 的通用性,專門為加速 AI 計算而生。
![]()
從名字上也看得出來,它甚至還要更專精一點,純純是針對語言模型設計的。
![]()
然而,它又是個大大的異類。因為 LPU 沒有 HBM,也就是沒有大伙兒常說的顯存。
一般來講,模型訓練和推理,怎么也得來一個顯存。比如咱們要玩個啥模型,看見說明書里寫著,最低配置 3090,潛臺詞就是顯存沒到 24G,模型跑不起來。
![]()
畢竟大模型每計算一步,都得從存儲容器里把參數取到計算核心,算完了再放回去。而顯存是模型參數最理想的集散中心,它離計算核心近,容量較大,參數來來回回搬運非常快。
要是沒有顯存,參數存到硬盤里,咱就等吧,模型立刻開爬,算一個字兒都得憋半天。
即使是 TPU,后來為了兼備模型訓練,也乖乖添加了顯存模塊。
![]()
但 Jonathan Ross 不忘初心,LPU 承接第一代 TPU 的概念,只搞模型推理,完全不加顯存。
可沒有顯存,模型的參數能存放在哪呢?
LPU 盯上了一個離計算核心更近的存儲單元 —— SRAM。問題是,受到晶體管的物理體積限制,它的存儲容量極小,每張卡只有幾十到幾百 MB,根本裝不下模型所有參數。
所以,Groq 直接暴力組裝千卡萬卡集群,每張卡上只存模型的一小部分,也只算這一小部分,最后合體輸出。

通過這種方式,LPU 的數據存取速度能達到 GPU 的 20 倍以上,模型推理快到飛起。
靠著奇特但有效的技術路線,Groq 迅速圈了一波粉。在他們擺在首頁中央的一張統計圖上,模型推理業務已經壓了亞馬遜一頭,僅次于微軟了。
![]()
其實早在一年前,就有不少人覺得 Groq LPU 要對英偉達 GPU 來個大沖擊,把 LPU 和 GPU 拎出來反復摩擦做比較。
畢竟在當時英偉達 GPU 一家獨大的時候,Groq 能比行業龍頭推理速度再快 10 倍,簡直像天神下凡。
![]()
當然,有人看好,就有人看衰。
像是前阿里副總裁賈揚清就做過一個粗略的測算,用 LPU 運營三年,它的采購成本是英偉達 H100 的 38 倍,運營成本則達到 10 倍,意思是 LPU 想替代 GPU,還差得遠呢。
![]()
現在好嘛,不用比了。英偉達:我全都要。
但英偉達的 “ 收購 ”,可不是拋出 200 億美元,Groq 就歸我了。作為一個已經不可能悶聲發大財的巨頭,壟斷變成了懸在英偉達脖子上的一把大刀。
他們用了一種這幾年在硅谷屢見不鮮的剝殼式收購,把 Groq 直接挖空了。
像是微軟合并 Inflection AI,亞馬遜高走 Adept 等等,都是把技術挖走了,核心人才挖沒了,留下個空殼公司,普通員工一點湯也喝不著。
![]()
因此,剝殼式收購當屬最招罵的一種,沒有之一。
所以明面上,英偉達并沒有承認收購 Groq,而是和他們簽署了一份非獨家許可協議,授權 NVIDIA 使用 Groq 的推理技術。
![]()
意思就是,這技術你也能用,我也能用,賣藝不賣身嗷。
實際呢,Groq 的核心技術給英偉達了,Groq 的首席執行官 Jonathan Ross、總裁 Sunny Madra、以及幾位專注于超高效 AI 推理芯片的核心工程師,也都被英偉達以雇傭的形式搞到手了。
但說到底,英偉達這次寧可背著罵名,冒著壟斷調查的風險,也要把 Groq 打包帶走,其實預示了 AI 行業的一個大趨勢:大煉模型的時代還在延續,但模型推理部署的長尾效應,讓模型推理的需求會逐漸超過模型訓練。
![]()
彭博社今年四月發表的一篇報道就表示,目前,訓練成本占大型云計算公司數據中心支出的 60% 之多,但分析師預計,到 2032 年,這一比例將降至 20% 左右。
以前大伙兒不計成本買 H100 是為了把模型訓出來,但現在,像 Groq 這樣主打又快又省的推理芯片,可能才是大廠們以后爭搶的核心。
可以說,英偉達通過這次曲線收購,補齊了自己在非 HBM 架構上的最后一塊短板。
這不僅是老黃對谷歌 TPU 路線的一次遲到致敬,也是在表明,無論是模型的訓練,還是模型的推理,所有的算力稅,大胃袋的英偉達,還是一分都不想放過。
撰文:莫莫莫甜甜
編輯:江江 & 面線
美編:萱萱
圖片、資料來源:
Groq 官網、NVIDIA 官網
CNBC、DEV、Techspot、Bloomberg、X、Reddit、Github
![]()