卷起来!科技巨头齐发AI芯片,买GPU不如自研香

今日头条
Toutiao
最新回复:2024年4月12日 9点38分 PT
  返回列表
85368 阅读
16 评论
镁客网

让英伟达躺着赚钱?其他科技巨头们不干了!

这几天,谷歌、英特尔、Meta等科技巨头集体官宣新款AI芯片。其中既有英特尔Gaudi 3这样直接硬刚英伟达H200的“性能怪兽”,也有谷歌Axion这种主打高效全能的“性能钢炮”。

而这些芯片都有同一个特性,都是为了AI模型服务。

在此之前,微软、亚马逊都陆续推出了自研处理器的计划。

这场AI军备竞赛,最终还是卷向了硬件。

主打性价比,英特尔硬刚英伟达

当地时间4月9日,在Intel Vision 2024会议上,英特尔CEO帕特·基辛格(Pat Gelsinger)推出了最新AI芯片Gaudi3,并现场与DJ来了一场蹦迪。

为什么基辛格如此高兴?让我们看看这款芯片的参数——芯片模型训练层面,Gaudi3比英伟达H100快40%;推理层面Gaudi 3比英伟达H100快50%。

与现在最强的英伟达H200相比,Gaudi 3的推理速度依然保持优势。虽然基辛格没有在现场给出直接的数据,但他表示Gaudi 3在某些领域的性能甚至会更好。

英伟达H200的性能毋庸置疑,它具备460万亿次的浮点运算能力,并且有丰富的CUDA生态。相比之下,Gaudi 3其实并没有太大优势,更别说对标B200这种最强大的芯片。

但Gaudi 3的特点就是“又好用又便宜”。

目前,H100的售价约在每台2.5万至4万美元之间。那么作为升级款的H200,其上市后必然不会低于这个价格。

同理,英伟达的Backwell芯片预计售价为3-4万美元,也符合英伟达目前的“身价”。这对于急需AI芯片的客户来说,购入H100已经是一笔不小的开销。

成本高是一回事,买不到货更客户们头疼。

最近,X用户“The Technology Brother”发布了一张图片,数据显示Meta公司囤积了全球最多的 H100 GPU,数量达到惊人的35万块,剩下的公司从3万块到300块不等。

根据GPU Utils网站在2023年的测算,H100缺口高达43万张。如此大的供应缺口,一些小公司只能等着订单排队。

H100芯片卖给谁,基本是英伟达CEO黄仁勋说了算。目前只有大客户还有CoreWeave这种英伟达亲自投资的公司才有优先购买权,亚马逊、微软等竞争对手只能限量供应。

更不要说,国内AI公司只能购买到A800这样的阉割版产品。在AI算力竞赛面前,手握高端GPU就是手握优势。

当然,限制H100并不全是英伟达的问题,台积电的产能也要背很大的锅。

总的来说,Gaudi 3不仅性能不输H100,英特尔又有自己的代工能力,难怪基辛格有硬刚英伟达的信心。

当客户变成对手

除了多了一位竞争对手外,英伟达的客户们也选择自研芯片的方式来减少对高端GPU的依赖。

在英特尔公布Gaudi3后,谷歌在Next大会上宣布推出自研首款基于Arm的CPU——Axion。

据悉这款CPU处理器Axion,将提供比英特尔CPU更好的性能和能源的效率,并且比目前基于Arm的最快通用芯片,性能还要高出30%。

虽然对标着英特尔的CPU,但谷歌这块芯片实际是为了训练复杂的AI模型做准备。和Gaudi 3一样,Axion主打一个“性价比”,靠着自己出色的AI能力,为包括Google地球引擎和YouTube广告平台在内的多项服务提供算力。

同样是自研芯片项目,谷歌也对自家超算平台进行了升级,推出了TPU v5p。

这是一个类似于英伟达GPU的替代品产品,用于AI加速任务。在自家最先进的AI模型Gemini和开放AI模型Gemma支持下,TPU v5p将支持更大、更苛刻的模型。

有着CPU与TPU的双重加持,谷歌的自研芯片项目越来越丰富。

无独有偶,Meta也赶在了今天推出了新一代训练和推理加速器MTIA 。

早在去年5月,Meta公布了 7nm工艺的MTIA v1,专注于向数据中心服务。

而此次推出的新款 MTIA 芯片,采用5nm工艺,使用更大的物理设计、拥有更多的处理核心,功耗从25W提升到了90W,时钟频率也从800MHz提高到了 1.35GHz,整体性能提高了3倍。

Meta表示,目前已经在16个数据中心使用新款 MTIA芯片,这就意味着Meta在自研芯片上费了不小的精力。

除了近期陆续公布新芯片的三家巨头以外,算上亚马逊AWS推出的Trainium和Inferentia两个系列AI芯片,以及微软在自家技术大会期间发布的用于云端AI训练和推理芯片Maia 100,目前绝大多数科技公司们都有了自研AI芯片项目。

结语

AI算力的军备竞赛,正在愈演愈烈。每家科技公司都已经预料到AI模型的规模会迅速扩大。

然而从目前现状来看,英伟达GPU依然牢牢掌握着全球算力资源,并且通过最新的AI芯片不断稳固当前的商业模式。

但GPU的价格摆在那里,即使是财大气粗的科技巨头,也要计算性能和成本效益。

既然自己有能力在硬件上做出性能相当且最合适自己的AI芯片,那么谁不想与英伟达全面一较高下呢?

不过在缺少生态和产量的前提下,英伟达的GPU依然是科技公司的首选。就看台积电和英特尔在代工这一环节,能不能给点力了。

意见没
1 楼
确实,GPU本就不是为AI而生的,主要是因为其擅长矩阵平行运算所以才用到它,但GPU很多功能AI用不到,既浪费又不优化。 [1评]
D
DDT666
2 楼
英伟达芯片4-5纳米,华为P70芯片算是全国产的最高水平,目前还是7纳米。看起来,想达到同等水平,中国现在还做不到。 不过做到二线水平还是没问题的,不过是性能弱一些,或者是体积大一点,或者是功耗多一点。凑合着用还是可以的。再过几年,等中国的制造水平也上去了,就可以正式进入国际顶尖水平的芯片竞争中去了。 [2评]
4
4sale
3 楼
GPU里AI用不到的功能基本都被阉割了。
h
headfoot
4 楼
都有宏大的叙事啊
4
4sale
5 楼
"再过几年,等中国的制造水平也上去了,就可以正式进入国际顶尖水平的芯片竞争中去了。" 兄弟,我经常在留园看见您这种言论。我把您的句子分成三个问题,能否具体说说: 1。 再过几年: 能否说明一下是几年?1-2年?2-3年?3-5年?还是5+。换句话说,您说的时间范围是1次GPU升级周期还是4次以上周期? 2。等中国的制造水平也上去了:上到什么水平算上去了?从7NM到7NM+算上去了吗?或者7NM的良率从现在的25%提高到台积电的现在的90%?还是说达到一个特定的制程?是否考虑这个制程的良率? 3。就可以正式进入国际顶尖水平的芯片竞争中去了: 当时的国际顶尖水平是什么?如果你说的是4+次数以上的GPUS升级周期,估计国际大厂现在都不知道会是什么科技。怎么竞争?是国内竞争还是国际竞争?如果是国内竞争,能否收回成本?如果是国际竞争,怎么说服西方政府同意他们的公司使用中国的FAB?怎么说服西方的FABLESS公司相信中国最先进的制程里没有后门?
意见没
6 楼
如果是相同设计,这种工艺差别会起较大作用,但工艺差可以通过系统架构来优化,最后性能(指速度与功耗)不一定会比先进制成的差
意见没
7 楼
Chinese Researchers Unveil Breakthrough in LLM Compression 中国研究人员在大语言模型压缩方面取得突破 3/17/2024 https://www.msn.com/en-us/news/technology/chinese-researchers-unveil-breakthrough-in-llm-compression/ar-BB1k2c8k?ocid=msedgntp&pc=EDGEDB&cvid=92590d28767e4d8394e251e03014a57b&ei=17 ************************** Brain-on-chip: China develops ‘world’s most energy-efficient AI chips’ 片上大脑:中国开发出“世界上最节能的人工智能芯片” 3/25/2024 https://www.msn.com/en-us/news/technology/brain-on-chip-china-develops-world-s-most-energy-efficient-ai-chips/ar-BB1ktVF2?ocid=msedgntp&cvid=e82ae74567ef4f37a4fb412054fa894b&ei=9
君均臣诚
8 楼
英伟达领先,不在于硬件,AMD的硬件也不错,只是软件支持,其它公司要么跟着英伟达走,要么自己花重金研发,估计两年内,不会有对手 [1评]
b
biddy
9 楼
如果性能好,早热卖了,还用等到现在?
意见没
10 楼
这主要是一个生态。英伟达就是专做GPU的,所以它会先抓住AI的商机建立起自己的生态。AMD主攻CPU,GPU算是其副业,所以后知后觉,失去了先机。所以若中国由于先进GPU被美国禁而搞出自己一套AI专用系统设计标准,从而建立起自己的生态圈也不是不可能。
p
purejerry
11 楼
Ai到底能幹麻。。。。否則就是一場泡沫。。。。如同之前的虛擬實境。。。。喊得很歡。。
路人丫
12 楼
呵呵。。。人家先进制称程一样会进行系统架构优化的。不过华为的神优化是出了名的牛逼飞上天。🤣 [1评]
意见没
13 楼
i
iwill
14 楼
所谓的优化,不也是跟着别人屁股跑?!
i
iwill
15 楼
不明白优化牛逼,为啥还要研究新制程?所谓的优化只不过是精神胜利法
意见没
16 楼
你这评论就是不懂装懂的傻逼!🙄