午夜伦伦_国产成人精品在线播放_人民的名义第二部_91大奶子_男人天堂tv_92午夜视频

關(guān)于ZAKER 合作
全天候科技 16小時(shí)前

Semianalysis:智能體火爆,CPU 成為新的“ AI 瓶頸”

隨著 AI 智能體和強(qiáng)化學(xué)習(xí)(RL)的爆發(fā)式增長(zhǎng),原本在 AI 浪潮初期被邊緣化的通用處理器(CPU),正遭遇前所未有的算力擠兌,成為繼 GPU 之后新的基礎(chǔ)設(shè)施瓶頸。

近期,隨著各大科技巨頭財(cái)報(bào)陸續(xù)落地,市場(chǎng)對(duì) AI 基礎(chǔ)設(shè)施的關(guān)注點(diǎn)正在發(fā)生微妙轉(zhuǎn)移。投資者不僅緊盯 GPU 的訂單與交付,更開始尋找 AI 應(yīng)用落地帶來(lái)的新增長(zhǎng)極。

4 月 8 日,知名半導(dǎo)體分析機(jī)構(gòu) SemiAnalysis 首席分析師 Dylan Patel 在一次深度訪談中指出,由于 AI 工作負(fù)載的范式正在從簡(jiǎn)單的文本生成向復(fù)雜的 " 智能體(Agents)" 和 " 強(qiáng)化學(xué)習(xí)(RL)" 演進(jìn),CPU 正面臨極其嚴(yán)重的產(chǎn)能短缺。

在 AI 發(fā)展的頭幾年,核心算力需求幾乎全被 GPU 占據(jù)。正如 Dylan Patel 所言:" 在 AI 的頭幾年,CPU 確實(shí)嚴(yán)重滯后……負(fù)載很輕。你發(fā)一個(gè)字符串,它回一個(gè)字符串,簡(jiǎn)單的推理,對(duì) CPU 需求不大。"

然而,這一局面在過去幾個(gè)月里發(fā)生了顛覆性的變化,核心驅(qū)動(dòng)力正是以 OpenAI o1 為代表的具備邏輯推理和智能體屬性的新一代模型。

智能體與強(qiáng)化學(xué)習(xí)推升 CPU 需求

模型不再僅僅是 " 生成文本 ",而是開始自主執(zhí)行任務(wù)、調(diào)用數(shù)據(jù)庫(kù)并自我驗(yàn)證,這讓 CPU 的工作量呈指數(shù)級(jí)上升。

Dylan Patel 給出了一個(gè)極具沖擊力的數(shù)據(jù):

" 就在最近六個(gè)月吧,代碼智能體的收入在很短的時(shí)間內(nèi)從幾十億美金漲到了超過 100 億美金。這些智能體的任務(wù)時(shí)長(zhǎng)也大幅增加:比如 Claude Code 可以連續(xù)工作六七個(gè)甚至七八個(gè)小時(shí)……它可以自己去 ping、去抓取、以智能體方式自主工作。這也需要大量的 CPU。"

與此同時(shí),強(qiáng)化學(xué)習(xí)的訓(xùn)練循環(huán)變得越來(lái)越緊密。未來(lái)的 AI 不僅要做數(shù)學(xué)題,還要在物理模擬器中導(dǎo)航,這要求生成器(模型)生成的每一步都需要在 CPU 集群上進(jìn)行高頻驗(yàn)證。

" 這個(gè)循環(huán)在過去幾年變得越來(lái)越緊……在過去六個(gè)月里,我們看到整個(gè)云市場(chǎng)的 CPU 都跑光了。"

云廠商瘋狂擴(kuò)容,微軟 " 賣空 "CPU 已致 GitHub 不穩(wěn)

市場(chǎng)需求的驟增直接導(dǎo)致了云端算力的枯竭。為了滿足頭部 AI 實(shí)驗(yàn)室的需求,大型云廠商甚至犧牲了其他業(yè)務(wù)的穩(wěn)定性。Dylan Patel 直言:

" 我不知道你們最近有沒有經(jīng)常和 GitHub 打交道,它真的很不穩(wěn)定……那是因?yàn)槲④洶阉麄兯虚e置的 CPU 都賣給了別人。"

這種短缺正在逼迫企業(yè)進(jìn)行極端的工程遷移。據(jù)透露,OpenAI 此前幾乎只在 x86 CPU 上運(yùn)行,但為了獲得算力,他們直接向亞馬遜要存量處理器。

" 亞馬遜有大量的 ARM CPU,于是他們把整個(gè)棧都移植了過去——只要能拿到 CPU,到哪里我都愿意移植我的代碼庫(kù)。"

關(guān)于 CPU 的市場(chǎng)價(jià)格,Dylan Patel 說道:

"CPU 的利潤(rùn)率沒那么高,但正在攀升,因?yàn)?Intel 和 AMD 在漲價(jià)而且供應(yīng)緊張。"

從數(shù)據(jù)來(lái)看,擴(kuò)容正在全行業(yè)上演。" 亞馬遜安裝的 CPU 服務(wù)器數(shù)量,今年比去年同比增長(zhǎng)了 3 倍。到處都沒有容量了。"

此外,為了不讓昂貴的 GPU 閑置等待,客戶必須保持 CPU" 熱池 " 持續(xù)運(yùn)行,這種商業(yè)邏輯進(jìn)一步放大了對(duì) CPU 的需求。

硬件淘金熱蔓延:存儲(chǔ)暴漲,3nm 產(chǎn)能全線告急

算力的短缺已經(jīng)沿著產(chǎn)業(yè)鏈迅速向上傳導(dǎo),不僅英特爾和 AMD 發(fā)出了漲價(jià)通知,甚至連面向 C 端的 PC 市場(chǎng)也受到波及(如蘋果 Mac mini 脫銷)。

Dylan Patel 用一句極其生動(dòng)的話形容當(dāng)下的硬件市場(chǎng):

" 通常,出現(xiàn)淘金熱的時(shí)候,連拿著壞鎬頭的人也能賣掉他的鎬頭。"

他補(bǔ)充了市場(chǎng)高度關(guān)注的存儲(chǔ)和芯片制造環(huán)節(jié)的漲價(jià)數(shù)據(jù):

" 內(nèi)存價(jià)格在過去一年漲了 4 倍,而且還會(huì)繼續(xù)漲。現(xiàn)在 SSD 價(jià)格也漲了 3-4 倍,而且至少還會(huì)再漲 60%。"

更令市場(chǎng)擔(dān)憂的是晶圓代工產(chǎn)能的擠壓。AI 芯片正在吸干臺(tái)積電的最先進(jìn)制程產(chǎn)能:

"AI 正在買走所有 3 納米和 2 納米的產(chǎn)能……現(xiàn)在所有 AI 芯片都在往 3 納米遷移:AMD 的 MI350 系列、亞馬遜和谷歌的 Trainium 3 和 TPU v7、英偉達(dá)的 Rubin ——所有這些都在 3 納米上。"

這甚至迫使蘋果、高通等移動(dòng)端巨頭向下遷移,或者讓英偉達(dá)將部分訂單轉(zhuǎn)移至三星。

以下是訪談的文字記錄:

主持人:

大家好。很高興請(qǐng)到 Dylan。我第一次看他視頻是一次采訪,他談到:雖然我們有 CPU,但我們要討論 Neo clouds 以及它們?yōu)槭裁从写嬖诘臋?quán)利。那對(duì)我來(lái)說非常有意思,因?yàn)榻裉斓闹黝}正是:當(dāng)智能體(agents)已經(jīng)到來(lái)時(shí),新的基礎(chǔ)設(shè)施基元是什么?你當(dāng)時(shí)把 Neo clouds 與超大規(guī)模云服務(wù)商的不同之處,以及它們?yōu)槭裁磻?yīng)該存在,闡述得非常清楚。能跟我們分享一下嗎?

Dylan Patel:

當(dāng)然。在 AI 時(shí)代,超大規(guī)模云服務(wù)商的動(dòng)作有點(diǎn)慢,對(duì)吧?谷歌、亞馬遜、微軟,進(jìn)入 AI 領(lǐng)域都有點(diǎn)慢。于是一批全新的公司冒了出來(lái),而且出現(xiàn)了一個(gè)新的低門檻——亞馬遜、微軟、谷歌構(gòu)建的那些復(fù)雜軟件,很多其實(shí)并不需要。事實(shí)上,那些復(fù)雜軟件反而拖慢了 AI 的發(fā)展:它們有自定義網(wǎng)絡(luò),但那些網(wǎng)絡(luò)對(duì) AI 并不太友好,更關(guān)注可靠性和存儲(chǔ)流量,而不是像在網(wǎng)絡(luò)上做 all-reduce 之類的事情。

所以這些大型云廠商、超大規(guī)模云服務(wù)商有很多東西,Neo clouds 可以直接跳過,然后構(gòu)建專注、優(yōu)化的解決方案,并提供更低的成本,因?yàn)樗鼈兊拈_銷要低得多——這些 Neo clouds 里沒有兩萬(wàn)個(gè)谷歌的項(xiàng)目經(jīng)理坐在會(huì)議室里(盡管有些 Neo clouds 已經(jīng)開始招聘谷歌的項(xiàng)目經(jīng)理,從而放慢了速度)。它們?cè)谀茉瓷闲袆?dòng)迅速,在搭建 GPU 集群上行動(dòng)迅速,所以它們能夠開辟出一塊市場(chǎng)。那是早期的那些。自那以后,出現(xiàn)了很多模仿者或追隨者——很多沒有成功,很多正在成功。這實(shí)際上就是一場(chǎng)比誰(shuí)最有能力的戰(zhàn)斗。

那么,是不是所有——我想大概有 200 家左右這樣的 Neo clouds,對(duì)嗎?——你看到它們之間有差異化嗎?是不是有些只是在復(fù)制最早那批的軟件棧?有些在做別的事情?你有沒有看到這些 Neo clouds 中哪些做法成功、哪些不太成功?

是的,有很多因素能區(qū)分它們。我們有一個(gè)叫 "Cluster Max" 的東西,給所有 Neo clouds 排名。我們會(huì)測(cè)試各種東西:可觀測(cè)性、可靠性、網(wǎng)絡(luò)、安全、管理、編排等等,這些都不一樣。比如,有人會(huì)測(cè)試他們的 GPU 在用戶空閑時(shí)是否工作正常——那是主動(dòng)健康檢查還是被動(dòng)健康檢查?風(fēng)扇轉(zhuǎn)速是否合適?功耗是否正確?節(jié)點(diǎn)是否有問題?網(wǎng)絡(luò)是否有問題?性能是否達(dá)標(biāo)?有各種各樣的檢查和測(cè)試,因?yàn)?GPU 是不可靠的。還有 GPU 之上的軟件類型:很多人一開始只做裸金屬,比如微軟與 CoreWeave 的最初合同全是裸金屬——你只需 SSH 進(jìn)去,微軟自己搭建環(huán)境。

但隨著發(fā)展,人們想要更多:有人想要安裝 Slurm,那很簡(jiǎn)單;有人想要安裝 Kubernetes,稍微難一點(diǎn),但仍然很簡(jiǎn)單;有人想要在 Kubernetes 上安裝 Slurm,因?yàn)檫@樣更容易推送作業(yè)等等。現(xiàn)在開始有人做托管 Ray 服務(wù)之類的東西,用于強(qiáng)化學(xué)習(xí)(RL)。所以有一類 Neo clouds 在構(gòu)建這些東西,而另一類 Neo clouds 則說 " 我不在乎,我只建 GPU,然后以裸金屬方式出租 "。成本上也有差異:擁有好軟件的 Neo clouds 往往收費(fèi)更高,某種程度上又回到了傳統(tǒng)模式——谷歌、微軟、亞馬遜有好軟件,收費(fèi)也高得多。而且你會(huì)看到很多這類云公司開始嘗試推出推理服務(wù)和其他東西。

類似地,順著這個(gè)思路,我就想說到 CPU 了。歷史上,我們有客戶要求像 OpenClaw 那樣的東西——有些人說 " 我需要我的沙箱或 CPU 盒子長(zhǎng)時(shí)間運(yùn)行,你能給我一個(gè) 5 美元像 Hetzner 那樣的產(chǎn)品嗎?" 我說不行,因?yàn)槟鞘锹憬饘贆C(jī)器,成本很低。但當(dāng)你提供更大的軟件產(chǎn)品時(shí),成本就會(huì)更高,所以很難與之競(jìng)爭(zhēng)。所以我猜在 Neo clouds 里也一樣,正如你提到的,裸金屬的銷售成本比那些往軟件方向走的要低。

我只是好奇它們?yōu)槭裁从写嬖诘臋?quán)利——這有點(diǎn)像我們做的事情的類比。但真正的問題是,你提到了這一點(diǎn),我們正在思考的方向是:CPU 成了新的瓶頸。以前每個(gè)投資人、每個(gè)我聊過的人都只談 GPU。現(xiàn)在你出了一份大報(bào)告講 CPU,我心里想 " 好的,沒錯(cuò),謝謝你 "。所以你報(bào)告里說今年會(huì)是瓶頸。那么請(qǐng)從 TDR 層面高屋建瓴地告訴我們:為什么 CPU 現(xiàn)在是瓶頸?你看到了什么?

是的,在 AI 的頭幾年,CPU 確實(shí)嚴(yán)重滯后。它被用于一些存儲(chǔ)、一些檢查點(diǎn)、一些數(shù)據(jù)預(yù)處理和預(yù)訓(xùn)練,但負(fù)載很輕。推理方面,模型還不夠好,無(wú)法成為智能體——你不能讓它一步步地行動(dòng)。所以當(dāng)時(shí)沒有能力讓模型去執(zhí)行動(dòng)作并把它們串起來(lái),基本上是你發(fā)一個(gè)字符串,它回一個(gè)字符串,簡(jiǎn)單的推理,對(duì) CPU 需求不大。

但過去幾年——其實(shí)不光是過去幾年,比如 Q* 開始,OpenAI 有那些風(fēng)波,然后最終 o1 預(yù)覽版發(fā)布——說實(shí)話那是 15、16 個(gè)月前的事了(感覺上久遠(yuǎn)得多)。o1 是第一個(gè)這類模型。然后涌現(xiàn)了一大批模型。以前人們會(huì)做簡(jiǎn)單的事,比如用正則表達(dá)式檢查模型輸出,看看是否正確,或者做結(jié)構(gòu)化輸出用于函數(shù)調(diào)用等等。但隨著時(shí)間的推移,對(duì)模型的檢查變得規(guī)模大得多,并且已經(jīng)完全集成到訓(xùn)練中——通過強(qiáng)化學(xué)習(xí)。

不再只是用正則表達(dá)式,而是用各種分類器;不再只是分類器,而是做代碼單元測(cè)試和編譯;再進(jìn)一步,你運(yùn)行智能體流程,它實(shí)際上去調(diào)用數(shù)據(jù)庫(kù)之類的,或者與一個(gè)對(duì) CPU 負(fù)載很重的環(huán)境(如物理模擬或生物模擬)交互。模型輸出內(nèi)容,然后檢查它——這個(gè)環(huán)境(強(qiáng)化學(xué)習(xí)環(huán)境)——然后再回去基于它進(jìn)行訓(xùn)練。這個(gè)循環(huán)在過去幾年變得越來(lái)越緊。

而最近——就說最近六個(gè)月吧——代碼智能體的收入在很短的時(shí)間內(nèi)從幾十億美金漲到了超過 100 億美金。這些智能體的任務(wù)時(shí)長(zhǎng)也大幅增加:比如 Claude Code(或類似模型)可以連續(xù)工作六七個(gè)甚至七八個(gè)小時(shí)。在這個(gè)過程中,它會(huì)調(diào)用數(shù)據(jù)庫(kù),調(diào)用各種東西(至少我們用了很多 Cron 服務(wù)器),反正什么都做——它可以自己去 ping、去抓取、以智能體方式自主工作。這也需要大量的 CPU。所以過去六個(gè)月這方面也急劇膨脹。再加上強(qiáng)化學(xué)習(xí)訓(xùn)練循環(huán)變得越來(lái)越緊。因此在過去六個(gè)月里,我們看到整個(gè)云市場(chǎng)的 CPU 都跑光了——我不知道你們最近有沒有經(jīng)常和 GitHub 打交道,它真的很不穩(wěn)定。

我想你是今天第三個(gè)提到這事的人了。

好的。我們一直在檢查 GitHub 的統(tǒng)計(jì)數(shù)據(jù):宕機(jī)多頻繁?提交失敗多頻繁?情況很糟。那是因?yàn)槲④洶阉麄兯虚e置的 CPU 都賣給了別人——要么是內(nèi)部實(shí)驗(yàn)室自己用,但更多的是外部實(shí)驗(yàn)室。他們和 Anthropic、OpenAI 簽了合同,所以自己幾乎沒有 CPU 剩下了。

我們?cè)诤芏嗥渌疽部吹搅送瑯拥那闆r。以前,每個(gè) CPU 服務(wù)器對(duì)應(yīng)很多 GPU 服務(wù)器,比如 100 兆瓦的 GPU 可能只由 1 兆瓦甚至更少的 CPU 來(lái)服務(wù)。但現(xiàn)在這個(gè)比例正在變得非常接近,無(wú)論是對(duì)于 RL 訓(xùn)練還是推理(智能體推理)。然后你就看到所有地方的 CPU 都跑光了。亞馬遜安裝的 CPU 服務(wù)器數(shù)量,今年比去年同比增長(zhǎng)了 3 倍。到處都沒有容量了。這不僅導(dǎo)致 GitHub 很不穩(wěn)定,可能其他地方也是。

我的意思是,今天我們談?wù)摿撕芏嗷A(chǔ)設(shè)施相關(guān)的事情。每天都能看到某個(gè)基礎(chǔ)設(shè)施提供商——不管是 GitHub 還是別的什么(不點(diǎn)名了)——出現(xiàn)宕機(jī),這已經(jīng)變得很常見了。這可能是 CPU 短缺的原因,也可能是工作負(fù)載規(guī)模等原因。

也可能是所有人的基礎(chǔ)設(shè)施代碼都是 "vibe coded"(憑感覺亂寫)的。

對(duì),也可能是所有人的基礎(chǔ)設(shè)施代碼都是 vibe coded。我不認(rèn)為全是,但可能有一部分是。我看到很有意思的是,運(yùn)行在我們這里的 CPU 工作負(fù)載數(shù)量—— Daytona 基本上有三個(gè)用例:代碼和命令執(zhí)行(比如類似 cloud code 的東西需要跑在 CPU 上);還有計(jì)算機(jī)使用用例,這個(gè)我們實(shí)際上看到增長(zhǎng)非常快。我們今天剛宣布了 Windows 沙箱,它也跑在 CPU 上。

如果你需要一個(gè)智能體去處理遺留軟件(比如金融、客服等領(lǐng)域,全都在那里)。另外正如你所說,強(qiáng)化學(xué)習(xí)方面,我們有很多通常用 Kubernetes 的人,現(xiàn)在開始用我們。但有趣的是,這些負(fù)載的規(guī)模和體量極其巨大,而且還在極其快速地增長(zhǎng)。而我們是世界上最小的云。所以我好奇的是:如果我們這么小的公司都有這么大的量,那么在大規(guī)模下會(huì)是什么樣子?

而且我們遇到過——我想知道你有沒有這方面的洞察——光是 RL,更不用說長(zhǎng)時(shí)間運(yùn)行的智能體了(僅就后者而言,我們看到客戶進(jìn)來(lái),其中一個(gè)客戶在昨天 6 小時(shí)內(nèi)跑了 100 萬(wàn)個(gè) BCP 工作負(fù)載。就一個(gè)客戶)。那么有多少客戶在做 RL?他們都會(huì)需要這個(gè)。我不知道你有沒有什么見解,但我很好奇。

我的意思是,有些指標(biāo)相當(dāng)驚人—— 100 萬(wàn) vCPU 聽起來(lái)很瘋狂。但有些人簽的合同和工作負(fù)載的規(guī)模甚至比這還要離譜。

我相信那是因?yàn)槲覀兇_實(shí)很小。

對(duì),是這原因。所以我想,當(dāng)你再看像 Anthropic、OpenAI 這樣的公司時(shí),他們已經(jīng)完全吃掉了多個(gè)云的全部容量。最近亞馬遜和 OpenAI 交易的一大推動(dòng)力——是的,OpenAI 想要錢,他們需要算力,但他們也直接去找亞馬遜說 " 把你的 CPU 給我們 "。

之前 OpenAI 的棧幾乎只在 x86 CPU 上運(yùn)行,但亞馬遜有大量的 ARM CPU,于是他們把整個(gè)棧都移植了過去——只要能拿到 CPU,到哪里我都愿意移植我的代碼庫(kù)。這就能看出人們?cè)敢馔度氲墓こ趟搅耍驗(yàn)橥ǔi_發(fā)者都懶得動(dòng),直接去別的地方找容量,但現(xiàn)在別的地方也沒有容量了。

是的,有意思。我們?nèi)?x86,只有這些。我們目前還沒有 ARM。但除了這兩家,還有 Nvidia 有自己的 CPU,還有其他人也在造自己的 CPU。這些 CPU 之間也有差異。它們都只是通用 CPU 嗎?你可能比我懂得多,我超級(jí)好奇。

關(guān)于 CPU 的類型。

現(xiàn)在種類太多了。以前基本上只有 x86 和 ARM。現(xiàn)在有了不同類型的 CPU。是因?yàn)榇蠹叶寂芄饬耍€是它們?cè)谀承┓矫娲_實(shí)更好?有什么特別的嗎?

通常,出現(xiàn)淘金熱的時(shí)候,連拿著壞鎬頭的人也能賣掉他的鎬頭。CPU 市場(chǎng)現(xiàn)在非常動(dòng)態(tài)。目前主要是 Intel 和 AMD ——我猜你們主要用 Intel 和 AMD 的 CPU。這兩家都說自己完全賣光了,已經(jīng)向客戶發(fā)了漲價(jià)通知。它們甚至不再互相競(jìng)爭(zhēng)了,只是想著 " 我能造多少賣多少 "。同樣,亞馬遜有 Graviton CPU,已經(jīng)發(fā)展到第五、第六代了。Nvidia 有 Grace 和 Vera CPU。

但之前沒人真正部署過 Grace 獨(dú)立 CPU 機(jī)箱—— Nvidia 為了 PR 做了一些小規(guī)模部署,但實(shí)際上獨(dú)立 CPU 部署非常少。為什么呢?只是因?yàn)樗鼈儾粔蚝谩5F(xiàn)在向前看,也許它們的 CPU 變好了,也許捆綁銷售得更好,但更重要的是因?yàn)樗鼈冇腥萘浚ㄒ驗(yàn)槠渌硕紱]容量了),所以它們能在自己的各種 CPU 上拿到更多合同,大概今年晚些時(shí)候或明年初開始部署。

所以這是一個(gè)非常動(dòng)態(tài)的市場(chǎng)。然后微軟和谷歌也開始部署自己的 CPU,而且開始上量。Arm 幾周后要發(fā)布一款 CPU,Meta 會(huì)采用,Cloudflare 等幾家公司也會(huì)采用。所以會(huì)有更多的 ARM 獨(dú)立方案,而不只是 Arm 授權(quán) IP 給別家。市場(chǎng)上會(huì)出現(xiàn)更多的多樣化——這正是在淘金熱時(shí)會(huì)發(fā)生的。然后我們會(huì)看到,當(dāng)供需缺口逐漸彌合時(shí),到底誰(shuí)的品質(zhì)最好、誰(shuí)能留下來(lái)。

但看起來(lái)需求的規(guī)模還是會(huì)增長(zhǎng)。至少我看到的:第一,RL ——似乎 RL 大部分是在做后訓(xùn)練,但現(xiàn)在已經(jīng)有供應(yīng)商和公司在推銷并創(chuàng)建實(shí)時(shí) RL 的服務(wù)。因?yàn)槟阌辛艘恍┲悄荏w,你有了一些在后臺(tái)是智能體的 SaaS,然后它會(huì)在一天結(jié)束時(shí)做 RL,基本上是為了從自己的行為中學(xué)習(xí)。

所以那在增長(zhǎng)。另外,這些長(zhǎng)時(shí)間運(yùn)行的智能體——如果它們能工作更長(zhǎng)時(shí)間、解決更多問題,你基本上可以讓它們做更多事情,它們會(huì)啟動(dòng)越來(lái)越多的這類智能體,這意味著越來(lái)越多的 CPU 盒子。那么從你的視角看,你理解市場(chǎng)動(dòng)態(tài),最終可能會(huì)收斂,但我感覺在需求縮小之前,它還會(huì)變得更寬。

是的,完全是這樣。因?yàn)樽畛跛械?RL 都是 " 來(lái)做數(shù)學(xué)證明 ",數(shù)學(xué)證明對(duì)資源需求很低。而且模型(生成器)會(huì)生成大量輸出,然后把正確答案(或它認(rèn)為的答案)發(fā)給服務(wù)器,服務(wù)器去驗(yàn)證。但隨著時(shí)間的推移,不再是那樣了:模型會(huì)多次提交,或者在它的智能體過程中多次嘗試編譯,或者多次嘗試做單元測(cè)試。這增加了生成器(也就是模型)發(fā)送給驗(yàn)證器的頻率,這個(gè)循環(huán)越來(lái)越緊。隨著我們進(jìn)入更復(fù)雜的 RL,模型實(shí)際上會(huì)不斷地驗(yàn)證自己的輸出。

比如說,想象一下未來(lái)一兩年訓(xùn)練的模型——比如一個(gè)機(jī)器人模型,在一個(gè)世界模型中驗(yàn)證:視覺語(yǔ)言模型(VLM)在世界上導(dǎo)航,試圖拿起東西、放下東西。每一步都需要被驗(yàn)證,而物理模型跑在某個(gè) CPU 集群上。那需要的 CPU 量會(huì)多得瘋狂,遠(yuǎn)比你做單元測(cè)試或跑數(shù)學(xué)證明要多。看 o1,它基本只能做數(shù)學(xué)。再看像 GPT-5.4 或 Opus 4.6 這樣的模型,它們能做智能體軟件。但當(dāng)我們進(jìn)入下一階段——不管是什么——會(huì)有能夠理解 " 我需要系鞋帶,系的時(shí)候鞋帶強(qiáng)度是多少?抗拉強(qiáng)度是多少?" 的模型。所有這些都需要計(jì)算,因?yàn)轵?yàn)證器只是在生成下一步,但每一步都需要更頻繁地被檢查,而且檢查這一步的計(jì)算強(qiáng)度也會(huì)隨時(shí)間增加。

但還有另一件事,你可能比我知道得更清楚:GPU 的強(qiáng)度決定了它們能并行處理一定數(shù)量的 CPU 盒子。隨著下一代 GPU 的出現(xiàn),我覺得它們會(huì)比現(xiàn)在能夠啟動(dòng)、管理或處理更多的 CPU,這會(huì)給 CPU 帶來(lái)另一個(gè)壓力。

是的,肯定是這樣。GPU 的功耗也在變得更高,所以一個(gè) GPU 隨時(shí)間推移會(huì)對(duì)應(yīng)越來(lái)越多的 CPU 用量。而且 GPU 每一代都變得更貴,而 vCPU 價(jià)格持平或略有下降。所以規(guī)模確實(shí)不同了:一個(gè) Blackwell 對(duì)比一個(gè) Rubin,性能提升了 X 倍,價(jià)格也提升了 X 倍。

而 CPU 呢,你買上一代還是新一代——這一代有 192 個(gè) vCPU,上一代大概是 96 個(gè),所以你有更多的 CPU,但價(jià)格上漲的幅度和你獲得的額外 vCPU 數(shù)量是成比例的。所以 vCPU 的比例會(huì)增長(zhǎng),但成本方向可能也是有利于 CPU 的,但不確定幅度多大。

是的,另一個(gè)壓力——我們?cè)谳^大客戶身上看到過:他們 GPU 有時(shí)間配額,他們不希望 GPU 閑置。所以他們寧愿付錢給一個(gè)熱池來(lái)運(yùn)行 CPU,這樣當(dāng) GPU 有任務(wù)來(lái)時(shí),CPU 是熱的(實(shí)際上在工作)。所以他們會(huì)——因?yàn)槲覀冏龅摹蠖鄶?shù) CPU 某種程度上是便宜的資源(雖然我們不覺得自己便宜),但對(duì)于這個(gè)場(chǎng)景來(lái)說是便宜的資源。這實(shí)際上會(huì)消耗更多的 GPU,因?yàn)殚e置 GPU 的成本太高了。

對(duì),這真是一個(gè)很有意思的點(diǎn)。商業(yè)模式上,沒人——當(dāng)然有按需 GPU,但比如 Lambda 有 5 萬(wàn)多塊 GPU,其中只有 4000 塊是按需的,而且總是賣光。所以實(shí)際上沒有人真正有按需 GPU。每個(gè)人都至少簽長(zhǎng)期合同(多月的),大多數(shù)情況下是多年的。而 CPU 的使用方式是可以隨時(shí)啟停——這就是為什么大家當(dāng)初都上云。但在這些工作負(fù)載下,GPU 生成器(跑在 GPU 上的模型)生成一堆東西,發(fā)給驗(yàn)證器。如果驗(yàn)證器沒有準(zhǔn)備好等著,GPU 就在空轉(zhuǎn)。你已經(jīng)為 GPU 付了錢,如果你不能在 CPU 那邊瞬時(shí)拿到資源,實(shí)際上你應(yīng)該預(yù)啟動(dòng)。你不是在加載模擬器或環(huán)境,你是在浪費(fèi)錢。所以確實(shí)如此。

不僅如此,一旦這些跑起來(lái),你又會(huì)啟動(dòng)另一個(gè)熱池,這樣每一次新的迭代都在持續(xù)增長(zhǎng)。那么總體來(lái)說這意味著什么?我們跳過了 RAM,沒談內(nèi)存。以前 GPU 是瓶頸,我們測(cè)量過,現(xiàn)在是 CPU。那么對(duì)大多數(shù)人來(lái)說更切身的是:現(xiàn)在 PC 很難買,因?yàn)槌?jí)貴。CPU 也會(huì)這樣嗎?你剛才提到它們相對(duì)便宜且價(jià)格持平。市場(chǎng)壓力會(huì)推動(dòng)它們漲價(jià)嗎?

是的,PC、筆記本電腦、組裝 PC 都很難買到。比如 Apple 的 Mac mini 基本賣光了。我們買了一大批 Mac mini,因?yàn)橐郧坝?Excel 和 Windows 的人現(xiàn)在想用 Claude Code,而 OSX 顯然開發(fā)環(huán)境更好。所以人們買了很多 Mac mini 在部署使用。我覺得整個(gè)領(lǐng)域都類似,而數(shù)據(jù)中心對(duì)資源的購(gòu)買更加缺乏彈性,這也導(dǎo)致價(jià)格上漲。GPU 一直很貴,英偉達(dá)的利潤(rùn)率一直在 70% 以上。

CPU 的利潤(rùn)率沒那么高,但正在攀升,因?yàn)?Intel 和 AMD 在漲價(jià)而且供應(yīng)緊張。內(nèi)存價(jià)格在過去一年漲了 4 倍,而且還會(huì)繼續(xù)漲。現(xiàn)在 SSD 也漲了,所有資源都在漲:SSD 價(jià)格也漲了 3-4 倍,而且至少還會(huì)再漲 60% ——沒有 DRAM 那么多,但也很多。所以綜合來(lái)看,Intel 和 AMD 的 CPU 產(chǎn)能某種程度上可以在 PC 和數(shù)據(jù)中心之間轉(zhuǎn)換,內(nèi)存和存儲(chǔ)則非常可互換。結(jié)果就變成了:去他的普通用戶——你得現(xiàn)在買 Mac mini,否則你就永遠(yuǎn)脫離不了永久底層階級(jí)了,差不多是這種思路。

最后一個(gè)問題,我們時(shí)間快到了。不是財(cái)務(wù)建議,Intel 之前處境非常糟糕,最近開始有起色。但 CPU 需求會(huì)把他們拉出困境嗎?

他們會(huì)好一些,但這并不是說公司得救了——公司估值基于未來(lái)現(xiàn)金流。而且有一種可能性是他們會(huì)得到 Apple 或其他客戶。更有意思的是,不是因?yàn)?CPU 需求高到 Intel 能從中獲得一些短期利潤(rùn)——其他人(AMD、亞馬遜等)會(huì)趕上來(lái)的,他們會(huì)補(bǔ)上自己的產(chǎn)能。更重要的是,AI 正在買走所有 3 納米和 2 納米的產(chǎn)能,幾年內(nèi)人們將不得不轉(zhuǎn)向其他方向。比如英偉達(dá)收購(gòu) Grok,人們編了各種無(wú)厘頭理由,一部分是因?yàn)樗麄兿胍獦O快的推理,但另一部分是因?yàn)?Grok 是用三星制造的——因?yàn)榕_(tái)積電那邊沒有 3 納米產(chǎn)能給他們了,他們需要?jiǎng)e處流片。

如果 AI 真的像我們相信的那樣瘋狂,需求像我們相信的那樣瘋狂,明年會(huì)更瘋狂。那么只要造出任何像樣的芯片就能賣掉——差不多是這種哲學(xué)。顯然他們?cè)诩軜?gòu)等方面做了更多事情,但同樣的情況也適用于 Apple:臺(tái)積電告訴 Apple," 嘿,從 3 納米下來(lái)吧,快點(diǎn)遷移到 2 納米,我能做。" 因?yàn)樗?AI 芯片都在 3 納米上,這需要時(shí)間。小型移動(dòng)芯片比大 AI 芯片容易制造。現(xiàn)在所有 AI 芯片都在往 3 納米遷移:AMD 的 MI350 系列、亞馬遜和谷歌的 Trainium 3 和 TPU v7、英偉達(dá)下周要發(fā) Rubin ——所有這些都在 3 納米上。臺(tái)積電讓 Apple 下來(lái),讓高通和聯(lián)發(fā)科下來(lái)。這三家公司可能會(huì)想 " 也許我們?cè)撚?Intel,因?yàn)?Intel 沒有讓我們下來(lái) " ——但 Intel 做不了啊。所以大家都很難。

我還有很多問題想問,但我們只剩下 20 秒了。我下一個(gè)問題肯定會(huì)超時(shí)。那就先到這里,非常感謝你來(lái)和我們交流。謝謝!

相關(guān)標(biāo)簽

最新評(píng)論

沒有更多評(píng)論了
全天候科技

全天候科技

提供專業(yè)快速完整的科技商業(yè)資訊

訂閱

覺得文章不錯(cuò),微信掃描分享好友

掃碼分享

熱門推薦

查看更多內(nèi)容

企業(yè)資訊

查看更多內(nèi)容
主站蜘蛛池模板: 亚洲影院在线 | 日本欧美一级 | 亚洲成熟少妇视频在线观看 | 精品国产制服丝袜高跟 | 99热免费在线观看 | 热久久国产精品 | 狠狠久久 | 国产在线观看第一页 | 91婷婷| 成人精品毛片 | 国产精品久久久久久久天堂第1集 | 国产高潮流白浆 | 精品国产成人 | 成年人免费看片 | 偷拍亚洲精品 | 91精品国产91 | 91狠狠综合 | 成人做爰www免费看视频网站 | 牛人盗摄一区二区三区视频 | 亚洲国产成人在线观看 | 国产精选第一页 | 人人干人人干 | 中文字幕――色哟哟 | 日韩中文字幕在线视频 | 久草免费在线视频观看 | 伊人情人综合 | 亚洲欧美日韩色 | 国产做a视频 | 国产原创麻豆 | 黄色大片免费网站 | 亚洲欧美乱综合图片区小说区 | 四虎永久免费在线观看 | 91精品国自产 | 在线成人免费 | 国产做受入口竹菊 | 久久久看片| 亚洲视频一二三 | 欧美日韩综合一区 | 国产精品久久久久av | 久久久久色 | 成人在线观看高清 |