找回密码
 立即注册
金木棉
瑞丰国际
通宝
HH
迪拜皇宫
优博
澳门银河
金沙
亚洲
U18
搜索
查看: 113|回复: 4

[虚拟币资讯] 两个200亿美元:OpenAI和英伟达在打一场“推理之战”

[复制链接]

478

主题

1万

回帖

3万

活跃

论坛元老

积分
45276
发表于 2026-4-18 12:31 | 显示全部楼层 |阅读模式
2025年12月,英伟达悄悄花了200亿美元买下了一家叫Groq的AI芯片公司。

2026年4月17日,OpenAI宣布将向另一家AI芯片公司Cerebras采购超过200亿美元的芯片。同一天,Cerebras正式向纳斯达克递交IPO文件,目标估值350亿美元。

两笔钱,金额几乎完全相同。一笔是收购,一笔是采购。一笔来自全球最大的AI芯片卖家,一笔来自全球最大的AI买家。

这不是两件独立的事,这是同一场战争里的两个对称动作。战场的名字叫:AI推理。

绝大多数人没注意到这场战争。因为它没有爆炸声,只有一行行财务公告,和硅谷工程师圈子里流传的技术讨论。但它的影响可能比过去两年任何一次AI发布会都要深远——因为它在重新分配一个几乎确定会成为史上最大科技市场的控制权。

推理是什么,为什么2026年的关键词不再是"训练"
在讲两个200亿之前,需要先理解一个背景:AI芯片的战场,正在发生一次重心迁移。

训练和推理,是AI算力消耗的两个阶段。训练是造模型——把海量数据喂给神经网络,让它学会某种能力。这个过程通常只发生一次,或者定期更新。推理是用模型——每次用户发出一个问题,ChatGPT给出一个回答,背后就是一次推理请求。

2023年,全球AI算力支出的大头在训练,推理是配角。

但这个比例正在快速倒置。

根据德勤和CES 2026的市场研究数据,2025年推理已经占到全部AI算力支出的50%;2026年,这个比例将跳到2/3。联想CEO杨元庆在CES上说得更直白:AI支出的结构,将从"80%训练+20%推理",完全翻转为"20%训练+80%推理"。

逻辑并不复杂。训练是一次性成本,推理是持续性成本。GPT-4训了一次,但每天要回答亿级用户的问题,每一次对话都是一次推理请求。规模化部署之后,推理的累积消耗远超训练。

这意味着什么?意味着AI产业最赚钱的那块蛋糕,正在从"训练芯片"移向"推理芯片"。而这两种芯片,需要截然不同的架构设计。

英伟达的问题:为训练设计的芯片,天生不擅长推理
英伟达的H100、H200,是为训练设计的怪兽。它们的核心优势是极高的计算吞吐量——训练需要对海量矩阵做大量乘法运算,GPU擅长这种"多核并行计算"。

但推理的瓶颈不是计算,是内存带宽。

当用户发出问题,芯片需要把整个模型的权重从内存里"搬"到计算单元里,然后才能生成回答。这个"搬"的过程,才是推理延迟的真正来源。英伟达的GPU用的是外接高带宽内存(HBM),搬运这一步不可避免地引入延迟——对于每秒要处理几千万次请求的ChatGPT来说,这个延迟在乘以规模之后,变成了真实的性能瓶颈。

OpenAI内部工程师注意到这个问题时,他们在给Codex(代码生成工具)做优化,发现无论怎么调参,响应速度都受制于英伟达GPU的架构上限。

换句话说,英伟达在推理端的劣势,不是努力程度的问题,是架构的问题。

Cerebras的WSE-3芯片走了完全不同的路线。这块芯片大到需要用晶圆级封装——面积46,255平方毫米,比人的手掌还大——把90万个AI核心和44GB超高速SRAM内存集成在同一块硅片上。内存直接贴在计算核心旁边,"搬运"的距离从厘米级缩短到微米级。结果:推理速度比英伟达H100快15到20倍。

需要补充的是:英伟达并没有坐以待毙。其最新的Blackwell(B200)架构在推理性能上比H100提升了4倍,正在大规模部署。但Blackwell追的是一个移动的靶——Cerebras同期也在迭代,而整个芯片市场涌现出的竞争对手,已经不只是Cerebras一家。

英伟达的200亿:历史最大并购背后的一张承认书
2025年12月24日,英伟达宣布了它历史上最大的一笔收购。

目标是Groq。

Groq是Cerebras的同类竞争对手,主打的也是为推理优化的SRAM架构芯片——它叫LPU(语言处理单元),当时在公开测评中是全球推理速度最快的芯片服务。英伟达花了200亿美元,把Groq的核心技术和创始团队全部买走,包括创始人Jonathan Ross和多位谷歌TPU团队出身的顶级芯片工程师。

这是英伟达2019年70亿美元收购Mellanox之后,规模最大的一次并购,整整翻了三倍。

在许多分析师看来,这笔钱背后传递的信息,远比金额更重要:英伟达认为自己在推理端有结构性缺口,而且这个缺口大到值得花200亿去堵。

如果英伟达真的相信自己的GPU在推理端无敌,它根本不需要收购Groq。这笔钱本质上是一张价值200亿美元的技术采购单——承认SRAM嵌入式架构在推理场景里有真实的技术优势,承认英伟达靠现有产品线无法自然覆盖这个优势,用最贵的价格买下了一个它自己填不上的技术缺口。

当然,英伟达收购后的官方叙事是另一套——"与Groq深度整合,提供更完整的推理解决方案。" 技术语言的翻译版本是:我们意识到自己的东西不够用,所以买了别人的。

OpenAI的200亿:买芯片只是表面,入股才是关键
现在回到OpenAI这边。

2026年1月,OpenAI和Cerebras签了一份100亿美元的三年算力采购协议——当时媒体报道的重点是"OpenAI正在多元化芯片供应商",语气轻描淡写。

但4月17日最新曝光的细节,让这件事的性质发生了根本变化:

第一,采购金额从100亿变成了200亿,翻了一倍。

第二,OpenAI将获得Cerebras的认股权证,随着采购规模增加,持股比例最高可达Cerebras总股本的10%。

第三,OpenAI还将向Cerebras提供10亿美元的数据中心建设资金——换句话说,OpenAI在帮Cerebras盖厂。

这三个细节放在一起,画出来的图景完全不同:OpenAI不只是在买芯片,OpenAI是在孵化一个供应商。

这个逻辑在科技史上有清晰的先例。2006年苹果开始与三星合作定制A系列芯片,最初也是大宗采购协议,但随着苹果不断加深参与、最终自研M系列芯片,供应链的控制权彻底从英特尔和三星那里转移到苹果自己手上。OpenAI在做的,有几分类似——但有一个重要边界:苹果从一开始就掌握芯片设计权,OpenAI目前仍然是采购者,Cerebras上市后也将独立发展、服务更多客户。这条路的终点未必是OpenAI完全掌控Cerebras,更可能是双方建立深度互依的生态共同体。

一方面用200亿和入股绑定Cerebras,确保非英伟达的推理算力持续供应;另一方面,OpenAI正在与博通合作研发自有ASIC芯片,预计2026年底量产。两条腿同时走,终点是算力自主。

1939

主题

1万

回帖

9303

活跃

论坛元老

积分
51906

活跃会员热心会员推广达人

发表于 2026-4-18 16:35 | 显示全部楼层
币圈风向早知道,分享太及时啦   

456

主题

1万

回帖

4万

活跃

论坛元老

积分
42596
发表于 2026-4-18 17:20 | 显示全部楼层
还是要每天都过来看看虚拟币资讯的

456

主题

1万

回帖

4万

活跃

论坛元老

积分
42596
发表于 2026-4-18 17:21 | 显示全部楼层
世界杯 发表于 2026-4-18 16:35
币圈风向早知道,分享太及时啦

这样的分享确实是非常及时的了
发表于 2026-4-19 10:31 | 显示全部楼层
OpenAI和英伟达在打一场“推理之战”
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|多博社区

GMT+8, 2026-4-24 01:56 , Processed in 0.039158 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.