最近AI最大的新闻是华为发布CLOUDMATRIX 384,性能比女大GB200高2倍。连女大CEO都 对其赞扬不止

颜阳
楼主 (文学峸)

单个GPU性能比BLACKWELL差几倍,但是华为设计了效率更高的AI架构,然后把几百个芯片用全光纤连起来进行光通讯分布式计算,使整体性能大大提高。性能比女大GB200高2倍. 缺点是用电比女大的GB200高3-4倍,但是中国电是不缺的。基本上美国封锁中国AI芯片可能效果不大了。

 

https://wccftech.com/huawei-showcases-its-nvidia-gb200-equivalent-cloudmatrix-ai-cluster-for-the-first-time-to-the-public/

 

W
Wendy666
用电量高这么多, 散热怎么解决?不过谢谢你这条消息!
越王剑
等等看呗,如果行,就会有第二版,第三版不断升级

不要象deep seek 一样就一版。让领导高兴以后,没下文了。

看一个技术是不是真突破,要看follow up。没follow up就啥也不是。只是给领导搞的政绩。咱四目以待。

l
lilac-pink
用光纤连,技术太落后了
d
dancingpig
短期无忧,长期肯定是埋了个雷。什么时候爆要看良品率和软件生态搭得怎么样
d
dancingpig
华为最强的就是通讯,相信是最优解了
t
trimtip
它的芯片是分布式,不是集成式,也许散热更容易解决。
t
trimtip
光传送比铜传送,损耗小很多,而且电耗也低的多,是个大优点,不过

女大也在优化它的集成,。。。,双方在不远的将来会有一场激战。

下注吧。

颜阳
光通讯速度最快发热最低。NVIDIA 下一代GPU就是走光通讯连接。
颜阳
华为在光通讯器件,微波器件上非常强大。
颜阳
华为芯片不是2-3nm的,比较大反而提高了芯片MTBF,寿命长,耐热。。
t
trimtip
集成度低的,单位面积发热小而且不容易击穿,不能再说了,哈,回到下注就行了。
B
BBL123
制造工艺的差距,2纳米和7纳米.会显著影响将光通信技术集成到芯片内部的能力。华为光通信很难集成到芯片,只能芯片和芯片之间
B
BBL123
哼这个Cluster真是有点像DeepSeek,英伟达只用72个芯片,华为好像用400到500个芯片
W
Wendy666
distribution computing 的那些老问题摆在那里,

multi-nodes comunication bottlenecks, latency, and failures, data consistency challenges when synchronizing data across multiple nodes, etc....

l
lilac-pink
是光学传输,但不是用光纤,所以我说他们落后
l
lilac-pink
Bingo, 你说到点子上了,现在都是直接做在芯片里
c
cfbingbuzy001
Is it how to computer or what to computer that matters?
颜阳
AI分布式计算的好处就是几个GPU坏了系统照样运行自我纠正。现在GPU MTBF都很低,我上班时如这么低产品绝对不可能上

我上班时如MTBF这么低产品绝对不可能上,现在一窝疯上。哈哈