芯片行业的从业者可以聊一下英伟达的护城河吗?

麻辣鸡丝22
楼主 (北美华人网)
看forward PE,现在英伟达的估值已经算是比较低了。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?
s
shenandoah1
英伟达不会有关门的危险,但会损失比较大的市场份额。股票投资要慬慎。
对英伟达来说,最大的风险是别的国家的客户开始使用中国的系统。
b
baicaiye
shenandoah1 发表于 2025-04-20 08:29
英伟达不会有关门的危险,但会损失比较大的市场份额。股票投资要慬慎。
对英伟达来说,最大的风险是别的国家的客户开始使用中国的系统。

这个风险很小,一般为美国一忽悠一吓唬都不敢用了
f
freewilly
baicaiye 发表于 2025-04-20 08:40
这个风险很小,一般为美国一忽悠一吓唬都不敢用了

要是英伟达贵的gpu2万美元一个,中国的1千美元呢?
华为910C已经开始大量生产了,在国内AI领域开始吞噬英伟达市场。游戏gpu这块amd新的gpu因为同样性能价格便宜而卖的已经比英伟达好很多了。
而且在国外造AI数据中心目前已经好像已经短期饱和。微软砍了3个AI数据中心的建造。英伟达股价开始跌不是没有道理。
F
FatSheep
Tesla and Nvida are two bubble stocks pumped by wall street.
w
wealth
近日因中国对美进口产品加征关税,市场上关于进口芯片征收关税原产地的认定原则有不同的解读。在这一背景下,中国最新的规则明确了以“集成电路”流片地认定为原产地。
4月11日,中国半导体协会发文称,根据海关总署的相关规定,“集成电路”流片地认定为原产地,中国半导体协会建议企业在进口集成电路时,进口报关原产地以“晶圆流片工厂”所在地为准进行申报。
这一消息令国产芯片厂商股价大涨。截至当天收盘,凯德石英(835179.SZ)30%涨停,晶华微(688130.SH)、唯捷创芯(688153.SH)等多股20%涨停。
光大证券研报称,中美持续性高关税将推动半导体国产替代加速。首先,以流片地认证原产地,美系IDM厂商竞争力受损,利好国内CPU、存储、模拟、射频、功率类厂商。
新规发布前,美国流片生产的半导体若在东南亚或中国封装测试,原产地可按照“封装地”认定,但明确原产地按“流片地”后,美系IDM厂商价格竞争力下降,包含CPU厂商英特尔、模拟厂商ADI和德州仪器、射频厂商Qorvo、存储厂商美光科技、功率厂商安森美半导体等,利好国内相关厂商加速国产替代。
其次,美国芯片制造回流战略被打乱,利好中国成熟制程晶圆代工厂。
若中国关税反制政策长期存在,一方面国产模拟、功率、射频厂商竞争力增强,为晶圆厂的成熟制程带来更多订单;另一方面,美系IDM厂商有望从美国流片转向中国晶圆厂代工,以规避中国加征关税影响。
s
shenandoah1
华为刚刚发布的最新AI云系统,性能已经超过了英伟达的旗舰系统。这个系列还是有弱点的,能耗显著更高,但中国的电力资源丰富,所以问题并不大。
36氪获悉,近日,国际半导体研究和咨询机构SemiAnalysis发布专题报道称,华为云最新推出的AI算力集群解决方案CloudMatrix 384(以下简称CM384),在多项关键指标上实现对英伟达旗舰产品GB200 NVL72的超越。据SemiAnalysis披露,华为云CM384基于384颗昇腾芯片构建,通过全互连拓扑架构实现芯片间高效协同,可提供高达300 PFLOPs的密集BF16算力,接近达到英伟达GB200 NVL72系统的两倍。
w
wealth
同样涨关税,中国每一步都是有目的、有计划的,川普则是一通王八拳,乱拳可能打死老师傅,但是真遇上高手也会输得更惨
s
shenandoah1
baicaiye 发表于 2025-04-20 08:40
这个风险很小,一般为美国一忽悠一吓唬都不敢用了

偷偷摸摸地用就是了,都是远程云计算,很难跟踪谁在用。
麻辣鸡丝22
Tesla and Nvida are two bubble stocks pumped by wall street.
FatSheep 发表于 2025-04-20 08:53

华为的是真的可以在性价比上比英伟达好很多吗?
Cuda的护城河不知怎么样。
麻辣鸡丝22
睿 发表于 2025-04-20 08:51
华为910C已经开始大量生产了,在国内AI领域开始吞噬英伟达市场。游戏gpu这块amd新的gpu因为同样性能价格便宜而卖的已经比英伟达好很多了。
而且在国外造AI数据中心目前已经好像已经短期饱和。微软砍了3个AI数据中心的建造。英伟达股价开始跌不是没有道理。

不知道这个行业的竞争和护城河怎样?
一方面是竞争;
另一方面是投资端的降低。
麻辣鸡丝22
baicaiye 发表于 2025-04-20 08:40
这个风险很小,一般为美国一忽悠一吓唬都不敢用了

感觉算力相关产品的选择,主要是性价比的考虑。
英伟达短期和长期在这方面的优势怎样?
麻辣鸡丝22
FatSheep 发表于 2025-04-20 08:53
Tesla and Nvida are two bubble stocks pumped by wall street.

特斯拉的市盈率极高。但是英伟达目前的市盈率其实并不高。远期市盈率才23.
和特斯来的100多那是差非常多啊。
似曾相识
麻辣鸡丝22 发表于 2025-04-20 10:15
华为的是真的可以在性价比上比英伟达好很多吗?
Cuba的护城河不知怎么样。

人家叫CUDA
一个用户
shenandoah1 发表于 2025-04-20 08:59
偷偷摸摸地用就是了,都是远程云计算,很难跟踪谁在用。

小公司可以这么搞,大公司需要的多,没法长期隐瞒,而且风险太大。
麻辣鸡丝22
似曾相识 发表于 2025-04-20 10:27
人家叫CUDA

哈哈,刚发现打错了
那CUDA的护城河,有哪些风险呢?
麻辣鸡丝22
1. 早早布局GPU与通用计算(GPGPU) 早在2006年,英伟达就推出了CUDA平台,使得GPU不仅仅用于图形处理,还能用于通用计算(如科学计算、深度学习)。当时几乎没有其他公司真正重视GPU在AI领域的潜力。 这一步让英伟达比AMD、英特尔等竞争对手早了好几年,迅速积累了技术和用户基础。 2. 打造了行业标准 CUDA平台成为AI、科学计算等领域的事实行业标准。全球无数的算法、工具箱和软件都基于英伟达的生态开发,形成了强大的锁定效应。 这意味着后来者(比如AMD的ROCm或其他AI芯片)即使硬件性能追平,也很难打破生态壁垒。 3. 圈住了开发者和客户 英伟达通过早期推广和教育,吸引了大量开发者和高校研究者成为其生态的“原住民”。 大型云厂商、AI实验室、自动驾驶公司等都早早选用了英伟达的产品,形成了良性循环。
麻辣鸡丝22
为什么迁移成本很高? 1. 软件和代码适配 绝大多数AI模型、算法、工具链、训练脚本都基于英伟达的CUDA、cuDNN等库进行开发。 换芯片意味着所有底层调用、加速指令都要重写或适配。例如,PyTorch和TensorFlow虽然支持多平台,但在英伟达上最成熟,迁移到其他平台(如华为昇腾、AMD ROCm)经常需要大量修改和调试,甚至重构代码。 2. 性能和稳定性 英伟达的CUDA生态已经被广泛优化,迁移到新平台后,性能未必能立刻达到原有水平,甚至可能出现“不兼容”“训练速度下降”“模型精度异常”等问题。 新平台的驱动和框架成熟度通常不如NVIDIA,可能会遇到bug、功能缺失、文档不全等问题。 3. 开发者和工程师培训 英伟达生态已成为AI工程师的“标配技能”,而其他芯片平台的开发工具和编程模型不同,团队需要重新学习新的开发工具和调试方法,增加了人力和培训成本。 4. 生产和部署流程 企业的生产环境通常已经基于NVIDIA GPU优化,包括容器、调度系统、自动化部署脚本等。如果换平台,这些系统也要大幅调整。 5. 历史资产和数据 许多老项目、训练好的模型、数据管道都和英伟达平台深度耦合。迁移不仅是新项目适配,历史数据和模型复用也会遇到障碍。


麻辣鸡丝22
英伟达和苹果的相似之处 1. 软硬一体,打造闭环生态 苹果:软硬件高度整合(自己设计芯片、操作系统、App Store、iCloud等),用户一旦进入苹果生态,切换成本极高,软硬件之间无缝协作。 英伟达:不仅设计世界级GPU,还自建CUDA、cuDNN、TensorRT等软件平台,AI开发、训练、推理的整个链路都被英伟达“包圆”,开发者和企业一旦深度绑定,迁移极难。 2. 锁定开发者和用户,形成生态壁垒 苹果:开发者必须用Xcode、Swift等苹果指定工具开发App,用户习惯了iOS、MacOS的生态和体验。 英伟达:AI算法、深度学习框架对CUDA的依赖极高,开发者和企业的项目一旦成型,换平台成本极高。 3. 依靠软件和服务持续变现 苹果:硬件(iPhone、Mac)是入口,后续通过App Store、iCloud、Apple Music等软件和服务持续收费。 英伟达:硬件(GPU)是入口,后续通过软件生态(如CUDA授权、AI云服务、Omniverse、NVIDIA DGX Cloud等)持续变现,甚至逐步布局订阅制和增值服务。 4. 高利润、强议价能力 两家公司都通过生态垄断和软硬协同,保持了高毛利率和极强的定价权,能持续向客户收取“生态税”。
麻辣鸡丝22
1. 行业趋势:硬件向“软服”转型是大势所趋 硬件毛利受限,软件服务毛利高。像苹果、微软、亚马逊AWS等巨头都在推动“硬件+软件/服务”的商业模式,靠订阅、云服务、平台分成获得更高的利润率和持续性收入。 AI算力服务化、平台化。AI和高性能计算行业也在从“卖硬件”向“卖服务”转型,例如AI云服务、租赁GPU算力、平台订阅等。 2. 英伟达的软件服务布局越来越深 - CUDA及其衍生软件生态 CUDA平台本身虽然免费,但企业级工具(如TensorRT、cuDNN、NVIDIA AI Enterprise等)越来越多采用授权、订阅或增值服务模式。 - AI云服务 英伟达推出了DGX CloudNVIDIA AI FoundryNVIDIA Omniverse Cloud等基于云的AI开发、训练和仿真平台。客户不再需要自建GPU集群,只需订阅云服务即可用到英伟达最强的软硬件。 - Omniverse数字孪生平台 Omniverse是一个面向虚拟现实、工业仿真、数字孪生的协作平台,采用订阅收费模式。随着AI和虚拟世界的融合,Omniverse有望成为新的增长点。 - 企业级AI解决方案 包括自动驾驶、医疗影像、智能制造等领域的端到端AI解决方案,这些都可以通过软硬件一体、服务订阅来收费。 3. 订阅制和平台化收入占比提升 英伟达2023年财报已经明确,软件和服务收入占比在逐渐提升,未来几年将成为公司营收增长的主要驱动力之一。 随着AI产业落地、客户对算力和AI平台的依赖加深,软件和服务的“生态税”会越来越高。 4. 护城河进一步加深 一旦企业和开发者深度绑定英伟达的软件和云端平台,迁移成本会进一步提高,英伟达可以持续收取订阅费、服务费,形成更稳定、更高利润率的收入流。 这和苹果、微软、Adobe等巨头的商业模式类似,是从“单次卖硬件/软件”转向“长期收租金/服务费”。 结论
未来英伟达靠软件和服务收费的能力一定会越来越强,这不仅是行业规律,也是公司主动战略转型的方向。通过持续扩宽软件生态和云服务,英伟达有望像苹果一样,获得更高的利润率和更坚固的护城河。

麻辣鸡丝22 发表于 2025-04-20 10:16
不知道这个行业的竞争和护城河怎样?
一方面是竞争;
另一方面是投资端的降低。

AI GPU没啥护城河,就是一堆非常低阶的超慢CPU堆在一起就叫做AI GPU了,量大管饱。英伟达最好的Blackwell也只是5nm,华为的是7nm,都是同样在堆transistor,区别不是太大。
哈哈,刚发现打错了
那CUDA的护城河,有哪些风险呢?
麻辣鸡丝22 发表于 2025-04-20 10:35

对于真正开发AI的公司来说,换一个library做运算不难。只是matrix在GPU上运算而已。cuda主要是研发阶段可以马上用,所以大量的研究生都在用,可是到了公司这一块就不一样了,谷歌,Meta,DeepSeek都有自己独特的运算,而且都有不是英伟达的gpu硬件。
麻辣鸡丝22
睿 发表于 2025-04-20 10:50
AI GPU没啥护城河,就是一堆非常低阶的超慢CPU堆在一起就叫做AI GPU了,量大管饱。英伟达最好的Blackwell也只是5nm,华为的是7nm,都是同样在堆transistor,区别不是太大。

主要应该是软件服务行程的护城河吧?可以理解成和微软以及苹果类似。
英伟达和微软商业模式的相似趋势 1. 从卖产品到卖平台和服务 微软: 以前以一次性卖Windows、Office软件为主,现在主力是Azure云服务、Office 365订阅、GitHub、AI平台等,变成“平台+订阅+云”模式。 英伟达: 过去以卖GPU为主,现在逐步转向“GPU硬件+AI开发平台(CUDA、AI Enterprise)+云服务(DGX Cloud、Omniverse Cloud)+订阅/授权”模式。 2. 云服务和平台化成为收入核心 微软: Azure(云计算)、Office 365(SaaS)、Copilot(AI助手)等云端订阅服务成为公司增长主力。 英伟达: 正在推动GPU算力云服务(DGX Cloud)、AI模型即服务(Foundry)、AI平台订阅(AI Enterprise),让企业不用自建GPU集群,直接按需订阅使用。 3. 开发者/企业生态绑定 微软: 通过开发者工具(Visual Studio、GitHub)、API、平台标准,锁定开发者和企业用户。 英伟达: 通过CUDA、cuDNN、TensorRT等AI开发工具链,绑定开发者和企业AI项目,“一旦上车,很难下车”。 4. 持续性收入、利润率更高 微软: 订阅/云服务模式带来稳定、可持续的高利润收入,摆脱单一产品周期的波动。 英伟达: 软件和云服务订阅带来长期收入,毛利率显著高于硬件,抗周期能力更强。
j
jellynsyrup
老黄在限制令公布后马上飞去北京这件事就说明英伟达受到的影响非常大,这是明显的不给川普面子,宁愿得罪川普也要第一时间向北京示好,说明英伟达接下来命运多舛,投资需谨慎
主要应该是软件服务行程的护城河吧?可以理解成和微软以及苹果类似。
英伟达和微软商业模式的相似趋势 1. 从卖产品到卖平台和服务 微软: 以前以一次性卖Windows、Office软件为主,现在主力是Azure云服务、Office 365订阅、GitHub、AI平台等,变成“平台+订阅+云”模式。 英伟达: 过去以卖GPU为主,现在逐步转向“GPU硬件+AI开发平台(CUDA、AI Enterprise)+云服务(DGX Cloud、Omniverse Cloud)+订阅/授权”模式。 2. 云服务和平台化成为收入核心 微软: Azure(云计算)、Office 365(SaaS)、Copilot(AI助手)等云端订阅服务成为公司增长主力。 英伟达: 正在推动GPU算力云服务(DGX Cloud)、AI模型即服务(Foundry)、AI平台订阅(AI Enterprise),让企业不用自建GPU集群,直接按需订阅使用。 3. 开发者/企业生态绑定 微软: 通过开发者工具(Visual Studio、GitHub)、API、平台标准,锁定开发者和企业用户。 英伟达: 通过CUDA、cuDNN、TensorRT等AI开发工具链,绑定开发者和企业AI项目,“一旦上车,很难下车”。 4. 持续性收入、利润率更高 微软: 订阅/云服务模式带来稳定、可持续的高利润收入,摆脱单一产品周期的波动。 英伟达: 软件和云服务订阅带来长期收入,毛利率显著高于硬件,抗周期能力更强。

麻辣鸡丝22 发表于 2025-04-20 10:54

cuda已经在另一个贴说过了。云计算,软件,网站应用大同小异,换一个根本不影响。和你去不同网站购物一样。
AI回答在这方面很差劲的。我小孩大学功课AI都回答不对。大家都还是老老实实自己做。现在AI水平问题稍微复杂点根本不能解。
s
shenandoah1
华为的是真的可以在性价比上比英伟达好很多吗?
Cuda的护城河不知怎么样。
麻辣鸡丝22 发表于 2025-04-20 10:15

华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。
麻辣鸡丝22
睿 发表于 2025-04-20 10:54
对于真正开发AI的公司来说,换一个library做运算不难。只是matrix在GPU上运算而已。cuda主要是研发阶段可以马上用,所以大量的研究生都在用,可是到了公司这一块就不一样了,谷歌,Meta,DeepSeek都有自己独特的运算,而且都有不是英伟达的gpu硬件。

1. “换个library就能兼容”的说法,为什么会有? 理论上:如果只是“矩阵乘法/卷积/线性代数”这些基本运算,现代AI框架本来就可以抽象化处理,底层只要有高效的实现,调用哪个库本质无区别。 **主流AI框架(如PyTorch、TensorFlow)**已经支持多种后端,可以“切换”到AMD ROCm、华为CANN、甚至CPU等不同硬件。 2. 现实中,真的那么容易吗? A. 技术门槛和实际难度 高级功能和优化:基础的矩阵乘法好兼容,但很多AI最新研究、工业级大模型训练需要用到复杂的自定义算子、稀疏运算、混合精度、分布式策略、异步调度、异构调优等,这些都严重依赖CUDA生态的深度优化。 底层依赖广泛:很多“库”并不是只调用几个矩阵操作,而是深度集成了NVIDIA的cuDNN、cuBLAS、NCCL、TensorRT等大量闭源/专有优化库。 生态和第三方兼容:成千上万的第三方工具、插件、开源项目、论文代码都只保证在NVIDIA CUDA下能跑,移植到别的平台通常要花很多时间debug和适配,有时甚至跑不通。 B. 工业级需求 **大公司(Google、Meta)**确实有能力自研底层加速库,甚至自己设计AI芯片(TPU、MTIA)。 但绝大多数公司和创业团队没这个资源和能力,只能依赖主流框架和NVIDIA生态。 大公司也不是完全放弃NVIDIA,比如Google虽然有TPU,但GCP依然大规模采购NVIDIA GPU,Meta自研MTIA但还是大量用NVIDIA。 自研芯片和底层库的门槛极高,要有专门的软硬件团队、长期资源投入,一般公司做不到。 C. 开发者和团队效率 研发阶段用NVIDIA,虽然你说“研究生都在用”,但企业招人、开发、迭代也离不开NVIDIA生态。新员工培训、社区支持、现成代码复用都离不开CUDA生态。 迁移成本高:不是不能换,而是要花很多“隐性成本”(调试、重写、性能对齐、团队磨合),时间和人力消耗巨大。 3. 为什么谷歌、Meta、DeepSeek能不用NVIDIA? 这些公司有极强的软硬件研发实力和资金,可以自己开发芯片(TPU、MTIA等),自己维护全套加速库,不依赖社区和外部支持。 但这不是大多数AI公司能做到的,尤其是中小企业和快速迭代团队。
麻辣鸡丝22
shenandoah1 发表于 2025-04-20 10:56
华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。

GPT 4.1这么说的: 你的这段话提出了两层观点,每一层都很有讨论价值。下面我来拆解分析,帮你客观看待这类说法是否成立:
1. “华为AI建模系统已经在性能上超过了英伟达” 这句话有一定道理,但要看具体语境和测试对象: 局部场景可能成立: 华为昇腾(Ascend)/鹏程芯片+CANN在某些特定任务(如推理、部分训练场景、国产AI大模型的定制化优化)上,有时能实现性能超越英伟达部分GPU,尤其在国产软硬件深度协同、软件堆栈全链路优化的情况下。 行业顶级水平对比还需谨慎: 真正意义上的“全面超越”——比如大规模分布式训练、通用AI框架兼容性、极限算力和能效——目前主流测试(如MLPerf等国际权威AI基准)上,英伟达H100、B100等旗舰产品整体性能和生态成熟度依然更强。 数据来源和测试标准要细究: 有些“超越”是厂商内部测试或特定优化场景下的数据,并非国际通用标准或大规模商用环境下的真实对比。 小结:
华为AI芯片和系统在国内场景进步很大,某些任务性能可比肩甚至超越部分英伟达产品,但在全球最顶级AI算力、生态广度和通用性上,还没到“全面超越”的地步。
2. “生态这东西,用得人多了,自然就好了” 这句话有一定道理,但现实远比想象中复杂: 生态确实能“养”出来: 只要有足够的市场需求和政策支持,开发者和企业大量投入,生态可以逐步成长壮大。比如中国国产AI芯片生态正在快速追赶,CANN、MindSpore等也有越来越多的开发者和应用支持。 路径依赖和惯性很强: CUDA生态经过十多年积累,拥有海量代码、论文、工具、社区、教程、人才储备,“迁移”不是一朝一夕的事情。MacOS虽然体验不错,但Windows生态的惯性让很多行业和场景依然离不开Windows。 生态不是单靠“人多用”就能一夜逆转: 需要开发者长期投入、工具链完善、社区活跃、第三方服务配套、硬件更新迭代等多重因素共同作用。即使有政策和产业资金支持,生态崛起也需要时间、耐心和持续投入。 两极分化现象常见: 比如中国市场,华为AI芯片生态发展很快,在政策和市场双重推动下,未来有可能建立起与CUDA生态并行的“局部主流”。但全球范围内,CUDA优势仍然稳固。 小结:
生态确实可以“养”出来,但“养”成主流需要时间、持续投入,以及关键转折点(如市场强烈需求、政策红利、关键技术突破等)。
3. 用MacOS对Windows的类比 这个类比很贴切: MacOS和Windows在体验和技术上各有千秋,MacOS生态也在壮大,但Windows依靠早期积累和生态惯性,依然是主流。AI芯片领域目前也是类似局面——华为生态进步快,但英伟达的“Windows”地位短期内难以撼动。 总结观点 你说的这些观点在一定语境下有道理,尤其是在中国市场和特定AI场景下。 但要实现“全面超越”和生态大逆转,还需要时间和巨大的产业投入。生态的建立不是简单“人多用”就能一夜成功,而是长期积累和多方协作的结果。


K
Kirin9000s
麻辣鸡丝22 发表于 2025-04-20 08:06
看forward PE,现在英伟达的估值已经算是比较低了。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?

英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态
S
Silverwing
麻辣鸡丝22 发表于 2025-04-20 08:06
看forward PE,现在英伟达的估值已经算是比较低了。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?

那得看什么程度的威胁喽
奔着弄死英伟达的威胁? 不可能,英特尔这鸟样都能苟活着,更何况英伟达
奔着一统天下千秋万代?不可能, 怎么跟黄毛狗思路一样,觉得曾经拿个第一,就要永远躺平天下第一,别人不准曹越
英伟达发展到现在,完全没有竞争对手的也就这么几年时间, 竞争是常态,没有竞争才是暂时的
股价是 price in 没有竞争天下无敌额千秋万代, 但是现实必定会mean reversion
s
shenandoah1
Kirin9000s 发表于 2025-04-20 10:59
英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态

是这样,但现在华为太猛了,愣是拖着中芯去和英伟达台积电硬扛。
麻辣鸡丝22 发表于 2025-04-20 10:56
1. “换个library就能兼容”的说法,为什么会有? 理论上:如果只是“矩阵乘法/卷积/线性代数”这些基本运算,现代AI框架本来就可以抽象化处理,底层只要有高效的实现,调用哪个库本质无区别。 **主流AI框架(如PyTorch、TensorFlow)**已经支持多种后端,可以“切换”到AMD ROCm、华为CANN、甚至CPU等不同硬件。 2. 现实中,真的那么容易吗? A. 技术门槛和实际难度 高级功能和优化:基础的矩阵乘法好兼容,但很多AI最新研究、工业级大模型训练需要用到复杂的自定义算子、稀疏运算、混合精度、分布式策略、异步调度、异构调优等,这些都严重依赖CUDA生态的深度优化。 底层依赖广泛:很多“库”并不是只调用几个矩阵操作,而是深度集成了NVIDIA的cuDNN、cuBLAS、NCCL、TensorRT等大量闭源/专有优化库。 生态和第三方兼容:成千上万的第三方工具、插件、开源项目、论文代码都只保证在NVIDIA CUDA下能跑,移植到别的平台通常要花很多时间debug和适配,有时甚至跑不通。 B. 工业级需求 **大公司(Google、Meta)**确实有能力自研底层加速库,甚至自己设计AI芯片(TPU、MTIA)。 但绝大多数公司和创业团队没这个资源和能力,只能依赖主流框架和NVIDIA生态。 大公司也不是完全放弃NVIDIA,比如Google虽然有TPU,但GCP依然大规模采购NVIDIA GPU,Meta自研MTIA但还是大量用NVIDIA。 自研芯片和底层库的门槛极高,要有专门的软硬件团队、长期资源投入,一般公司做不到。 C. 开发者和团队效率 研发阶段用NVIDIA,虽然你说“研究生都在用”,但企业招人、开发、迭代也离不开NVIDIA生态。新员工培训、社区支持、现成代码复用都离不开CUDA生态。 迁移成本高:不是不能换,而是要花很多“隐性成本”(调试、重写、性能对齐、团队磨合),时间和人力消耗巨大。 3. 为什么谷歌、Meta、DeepSeek能不用NVIDIA? 这些公司有极强的软硬件研发实力和资金,可以自己开发芯片(TPU、MTIA等),自己维护全套加速库,不依赖社区和外部支持。 但这不是大多数AI公司能做到的,尤其是中小企业和快速迭代团队。

别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。
麻辣鸡丝22
Kirin9000s 发表于 2025-04-20 10:59
英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态

来自GPT 4.1的说法:
1. 英伟达的护城河就是台积电和ASML,对吗? 结论: 这个说法有一定道理,但非常片面,甚至可以说是“只看到了表面,忽略了核心竞争力”。
详细分析: 台积电和ASML的确重要 英伟达的高端GPU(如H100、B100)都是台积电最先进制程制造的,没有台积电5/4/3nm工艺,英伟达确实做不出全球最强芯片。 ASML的EUV光刻机是先进制程的“卡脖子”设备,没有ASML,台积电的最先进产能也造不出来。 但台积电/ASML并不是英伟达独有的资源 苹果、AMD、高通等很多芯片公司同样用台积电和ASML的产能,甚至有些产品优先级更高(如苹果A系列、M系列)。 如果只靠台积电/ASML,英伟达不会有独特护城河,大家都能“买同一块砖”,为啥只有英伟达能做到超高毛利和市场份额? 英伟达的真正护城河在于: 芯片架构与设计能力(如Transformer优化、HBM堆叠、NVLink等) 软硬件协同(CUDA、cuDNN、TensorRT、NCCL等) 开发者生态网络和产业链绑定 市场先发和品牌影响力 解决方案和平台(如DGX、Omniverse、AI Cloud) 台积电/ASML是产业基础,但不是英伟达独享,也不是其唯一壁垒。 真正让英伟达脱颖而出的是“软硬一体的产业规模效应、开发者生态和技术创新速度”。 2. 软件公司本质都是marketing公司,没啥真正技术门槛,包括cuda生态? 结论: 这个说法过于轻视软件技术的门槛,容易让非行业人士误判现实。
详细分析: 软件公司需要强大的市场能力,但绝非“只有市场” 微软、Adobe、苹果、英伟达等巨头,之所以能长期领先,最核心的其实还是技术壁垒+生态网络效应,而不是单纯靠市场推广。 CUDA生态的门槛极高 CUDA不是“写个库”而已,而是十几年软硬件深度协同、上万开发者和无数科研团队持续迭代和优化的成果。 包含底层驱动、编译器、分布式通信、数值库、自动调优、第三方插件、文档、社区、人才等完整体系。 你可以尝试将大规模开源AI模型(如Llama、Stable Diffusion)在非CUDA平台上跑一跑,就知道“兼容”到底有多难。 生态迁移的“惯性”本身就是技术与市场共同作用的结果 你可以把生态理解为一种“复合壁垒”,里面有核心算法、性能优化、开发者习惯、社区支持、历史代码资产等,远非换个logo或营销就能颠覆。 一句话总结 台积电和ASML固然重要,但英伟达的核心护城河是软硬件协同、生态锁定和技术创新。软件生态(如CUDA)是巨大的技术门槛和产业壁垒,绝不是“靠营销就能做起来”。
麻辣鸡丝22
睿 发表于 2025-04-20 11:02
别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。

GPT 对于技术的掌握,比一般个体是要好很多的吧?
当然,业内专业人士,可以一眼批判性辨别,普通人不容易。
麻辣鸡丝22
睿 发表于 2025-04-20 11:02
别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。

所以问题的关键就是,跳脱英伟达的框架,是否容易,有多容易,需要多少成本。
GPT 对于技术的掌握,比一般个体是要好很多的吧?
当然,业内专业人士,可以一眼批判性辨别,普通人不容易。
麻辣鸡丝22 发表于 2025-04-20 11:04

所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。
S
Silverwing
麻辣鸡丝22 发表于 2025-04-20 11:06
所以问题的关键就是,跳脱英伟达的框架,是否容易,有多容易,需要多少成本。

还得看,跳脱英伟达的框架的代价,比被美国随时卡脖子的代价, 哪个大
以前这个比较不存在
现在这是现实的问题
这也是华为芯片发展的空间
麻辣鸡丝22
所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。
睿 发表于 2025-04-20 11:06

和炒股比较没什么意义吧?
回到投资(我从来不用炒股两个字),我今年的year to day都是18%多,当然不能和大牛比。
任何学习都是从一点点开始的。谁一生下来就是什么都懂呢?AI是学习的重要工具。之所以贴上来,就是想着,AI说的可能是错的。板上的牛人们多,也很感恩包容不吝赐教的朋友们。
麻辣鸡丝22
Silverwing 发表于 2025-04-20 11:09
还得看,跳脱英伟达的框架的代价,比被美国随时卡脖子的代价, 哪个大
以前这个比较不存在
现在这是现实的问题
这也是华为芯片发展的空间

那其实就是中国和其他国家的生态系统的区别。
让其他国家,用华为的,可能他们会觉得风险大。
和炒股比较没什么意义吧?
回到投资(我从来不用炒股两个字),我今年的year to day都是18%多,当然不能和大牛比。
任何学习都是从一点点开始的。谁一生下来就是什么都懂呢?AI是学习的重要工具。之所以贴上来,就是想着,AI说的可能是错的。板上的牛人们多,也很感恩包容不吝赐教的朋友们。
麻辣鸡丝22 发表于 2025-04-20 11:10

你都那么厉害了,一年都不到就18%,请教我们这些回报率低的可怜的看法不会影响你的判断力吗?
麻辣鸡丝22
Silverwing 发表于 2025-04-20 11:00
那得看什么程度的威胁喽
奔着弄死英伟达的威胁? 不可能,英特尔这鸟样都能苟活着,更何况英伟达
奔着一统天下千秋万代?不可能, 怎么跟黄毛狗思路一样,觉得曾经拿个第一,就要永远躺平天下第一,别人不准曹越
英伟达发展到现在,完全没有竞争对手的也就这么几年时间, 竞争是常态,没有竞争才是暂时的
股价是 price in 没有竞争天下无敌额千秋万代, 但是现实必定会mean reversion

这个确实是。
就是不知道能不能形成苹果和微软这样的地位。
如果可以的话,就会是相对稳定的现金流。如果完全没法比的话,那未来增长估计就会受限制。
麻辣鸡丝22
你都那么厉害了,一年都不到就18%,请教我们这些回报率低的可怜的看法不会影响你的判断力吗?
睿 发表于 2025-04-20 11:18

我只能告诉你这是真实的。这奇怪吗?
今年在大跌前拿的比较多的商品。关税战后卖了。
大类资产配置中,先看大方向,再选细的品类。
下一个会补涨的,会是比特币。
s
suwa
华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。
shenandoah1 发表于 2025-04-20 10:56

CUDA护城河很大程度上受益于上层建筑。 Google Brain的核心产品之一Tensorflow,Hinton 因此获图灵奖和诺贝尔物理奖,好像有史以来第一位双料获奖者。Google Brain其他主要要成员有获诺贝尔奖,抢了能教授饭碗。 小扎Meta的PyTorch是另一个牛软件。 这俩全面支持CUDA。 对另一个业内标准OpenCL有限度支持。 Nvidia还有自己的TensorRT,cuDNN等。 要Google Meta 支持华为新标准不可能,除非国内牛人写个超越加州大厂,但人家大包裹不白拿。那拿大奖指日可待。
AMD Intel 资助底层Nvidia指令集转换的开源项目zLuda(贼路大),名声不好听不玩了。有报道其他厂家继续支持。
m
mise88
能說的不一定懂 懂的一定不能說
看這一串下來都沒提到HBM 和packaging 我就笑笑了
M
MegMegMeg
gpu就是显卡,古时候的老刘们以前在国内都自己组装过电脑吧?那时候显卡并不是啥高级玩意儿,印象中好像还真是默认英伟达,bottleneck主要是cpu啊多大的内存条之类,有钱人买intel,穷人买md。06年cuda弄出来就是一个显卡编译器,我的理解是当时就是给显卡的“本质工作”,就是图像显示服务的,老黄也就没有想到要像cpu编译器那样弄个兼容的—-cpu也需要编译器,但是不同厂牌都是用x86指令集,就是大家用的intel啊amd的cpu可以扯了互换,加上pc还有一层OS作为buffer,用啥cpu不影响上层软件。
现在cuda弄出来就是只能对接英伟达自己的gpu,基于此别人又发展了cuda上面的程序集pytorch这些,护城河的意思就是现在的大部分llm的源代码要在硬件上跑,都是用cuda接口,那就只能用英伟达。要用其他也可以,那得翻天覆地把整个编译模块另用intel或者amd编译器写一遍。去年英伟达因为antitrust,就是反垄断,被调查了,他们的defense是他们没有存心垄断,就是他们的产品好用,跟以前微软捆绑windows和pc销售不是一回事——这也不好说,你也可以说他们从来没有打算开发兼容的编译器,但也可以说自己产品用自己的编译器天经地义,又没逼你买。
巴菲特小号2.0
睿 发表于 2025-04-20 11:06
所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。

借个楼问问睿姐,你觉得最近大盘走势如何啊,感觉国外资本在撤退,大盘也拉不上跌不下的总是横盘,特朗普对大盘的控制力越来越弱,越来越看不清形势,是不是该撤了空仓比较好
巴菲特小号2.0 发表于 2025-04-20 13:38
借个楼问问睿姐,你觉得最近大盘走势如何啊,感觉国外资本在撤退,大盘也拉不上跌不下的总是横盘,特朗普对大盘的控制力越来越弱,越来越看不清形势,是不是该撤了空仓比较好

不马上退休的话是捞便宜的机遇,当然还可能再低,对于一般投资者用按时定投不是件坏事。
川普的确现在做一堆对美国经济不靠谱的事情,可是这也是恰恰股市反应后捞便宜的时机。经济坏到一定程度川普会反转一些政策的可能性非常大,因为是人为的熊市,所以反弹力度也会很大。按时定投可以平均买到比较便宜的价格,可是要悠着点,子弹慢慢打。
N
Namama
英伟达最大的风险,并不在中国吧?
他几乎所有的大客户,从AWS到微软到Meta到OpenAI,每一个都想搞自己的AI 芯片。。。
w
wsdada
回复 22楼 睿 的帖子
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?
p
purplerain
wsdada 发表于 2025-04-20 14:05
回复 22楼 睿 的帖子
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?

记得睿大妈很多年前就是因为不靠谱炒股在华人网闻名,但自认为是投资大牛
w
wsdada
回复 51楼 purplerain 的帖子
佩服她一无所知还信口胡诌的本事
s
shenandoah1
Namama 发表于 2025-04-20 13:59
英伟达最大的风险,并不在中国吧?
他几乎所有的大客户,从AWS到微软到Meta到OpenAI,每一个都想搞自己的AI 芯片。。。

但是现在只有华为的人工智能系统,在绝对性能上超过了英伟达。
回复 22楼 睿 的帖子
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?
wsdada 发表于 2025-04-20 14:05

你硬件基础知识不行啊,单个gpu的unit和单个cpu的core比,速度慢,功能少太多,所以一个差不多大小的芯片,cpu在里面只能有二十几个,gpu里面可以上万个。gpu是靠量大平行运行简单数学来超过cpu的,也止于简单运算。amd和intel都是白痴吗?干脆把CPU里面换成有上万个GPU芯片电脑不是更快?答案是根本不可行,因为稍微复杂一点的运算,GPU太慢!靠量速度都比不过cpu里的架构。我说的这些只有真正懂硬件的才了解各个芯片架构的长处和短处。
meta和Google还有其他巨头都开始造新一轮AI chips了,你说的三大护城河,完全都没用。
基本知识匮乏,消息也只知道一些,自己完全一个外行,不懂多补补。
w
wsdada
说你傻,还不服气。傻得这么理直气壮的也是少有 Cpu的unit和gpu的unit能是一回事?cpu架构是为逻辑运算服务,gpu架构是为并行简单数学运算服务,懂不?扯了半天,逻辑和数学混为一谈,还来讨论快慢。 你最基本的概念都不懂,讨论个锤子
说你傻,还不服气。傻得这么理直气壮的也是少有 Cpu的unit和gpu的unit能是一回事?cpu架构是为逻辑运算服务,gpu架构是为并行简单数学运算服务,懂不?扯了半天,逻辑和数学混为一谈,还来讨论快慢。 你最基本的概念都不懂,讨论个锤子
wsdada 发表于 2025-04-20 16:36

既然你都承认是简单的数学运算而已,会有啥护城河?否则为什么那么多巨头都开始做自己的AI chips?而且都去台积电定做了。clock speed gpu比cpu慢,所以单一dependent的serial calculation gpu要慢很多。这些都是上手的内行才知道那些运算要用哪个硬件,而不是瞎吹gpu.
w
wsdada
真是服了你个不懂装懂,胡搅蛮缠的锤子 简单的数学运算,和以简单数学运算为基础的大规模,高并发HPC/AI运算能是一回事?还就简单数学运算而已 你知道AI运算需要涉及TB级数据的高效读取和搬运吗?以及需要几万几十万gpu之间的高速通信吗?几十万gpu的复杂系统如何故障容错处理?cuda系统有五百万开发者,上十年的基础库积累优化,一般用户为什么要从一个成熟生态系统搬迁到一个满是bug,还在调试,各种库都欠缺的新系统上去?
真是服了你个不懂装懂,胡搅蛮缠的锤子 简单的数学运算,和以简单数学运算为基础的大规模,高并发HPC/AI运算能是一回事?还就简单数学运算而已 你知道AI运算需要涉及TB级数据的高效读取和搬运吗?以及需要几万几十万gpu之间的高速通信吗?几十万gpu的复杂系统如何故障容错处理?cuda系统有五百万开发者,上十年的基础库积累优化,一般用户为什么要从一个成熟生态系统搬迁到一个满是bug,还在调试,各种库都欠缺的新系统上去?
wsdada 发表于 2025-04-20 16:53

一般用户有选择吗?只有大厂才自己做新系统。而且大厂包揽AI市场90%至少,他们的走向才是以后AI Chips的发展方向。你只会当个英伟达发表会卖家秀的复读机。
一般行内人都知道这种scale wide, scale up的运算,在Nvidia之前在parallel computing这块就已经非常成熟了。你说的好像大型运算是Nvidia发明的一样。
Nvidia热度已经翻篇了,大家都在往后看了,你还在这里一惊一乍的,好像刚进大观园一样。
M
MegMegMeg
睿 发表于 2025-04-20 16:39
既然你都承认是简单的数学运算而已,会有啥护城河?否则为什么那么多巨头都开始做自己的AI chips?而且都去台积电定做了。clock speed gpu比cpu慢,所以单一dependent的serial calculation gpu要慢很多。这些都是上手的内行才知道那些运算要用哪个硬件,而不是瞎吹gpu.

唉,楼上说的“简单数学运算”的意思是矩阵运算,matrix A x matrix B那的确是一个简单概念,但是实际运用中的数值计算非常大的matrix,比如1m x 1m in size,平行算力要求非常高,CPU理论上那是能做,就跟愚公移山一个意思---古时候我在PC上用matlab跑一个最多 100 x 100 的矩阵乘法,经常还没跑完就宕机了。
光从投资角度来看,我个人觉得大力投资英伟达的时机已过。且不说bubble不bubble的问题,英伟达还能有一个大bump的机会比较小,现在已经被DOJ盯上antitrust issue,就意味着不能有大的收购计划,甚至拓展业务都会束手束脚。还有就是企业运营非常lean,这本来是优点,但有个门道是google meta这些大企业养一大批marketing啊talent acquisition,甚至legal team 1000多人,必要时候这些人头可以用来layoff提升股价,反正这些岗位雷了重新再招新人影响也不大。英伟达整个org有点太lean了,股价低迷的时候要靠layoff来boost就比较难。
m
maodouchong
被中国超越只能是扯淡,被其他几个竞争对手超越有可能。我觉得英伟达在未来10年还是头牌,以后不好说,但目前看不到超越它的可能性
看看小米的自动驾驶就知道实用性和可靠性光靠吹是吹不出来的
w
wsdada
回复 58楼 睿 的帖子
还真是死鸭子嘴硬,现在又从华为替代转进到大厂替代了 你知道大厂asic,无论google tpu, amazon trainium,都是绑定他们自己内部云,芯片不单独对外发售的吗?google tpu性能是不错,但只适配tensorflow,只对tensor操作高度优化。作为一般外部用户,你是想用一个通用系统,能支持各种环境包括pytorch, tensor flow, caffe等等的呢?还是想被google云绑定,只运行在tensor flow上呢?从商业上来说,哪个更安全呢? parallel computing还早就很成熟,鉴于你对cpu和GPU都傻傻搞不清楚,你说的莫不是cpu 各进程间的parallel computing吧。你倒是说说看,在nvda前的涉及几十万芯片或运算电路板块的运算工厂的实例?
回复 58楼 睿 的帖子
还真是死鸭子嘴硬,现在又从华为替代转进到大厂替代了 你知道大厂asic,无论google tpu, amazon trainium,都是绑定他们自己内部云,芯片不单独对外发售的吗?google tpu性能是不错,但只适配tensorflow,只对tensor操作高度优化。作为一般外部用户,你是想用一个通用系统,能支持各种环境包括pytorch, tensor flow, caffe等等的呢?还是想被google云绑定,只运行在tensor flow上呢?从商业上来说,哪个更安全呢? parallel computing还早就很成熟,鉴于你对cpu和GPU都傻傻搞不清楚,你说的莫不是cpu 各进程间的parallel computing吧。你倒是说说看,在nvda前的涉及几十万芯片或运算电路板块的运算工厂的实例?

wsdada 发表于 2025-04-20 17:24

不会吧,你连几十年历史的超算都没听过啊,现在都几百万个core的CPU的电脑服务器连在一起了,还几十万?每个国家的一个超算平摊占地面积现在都在10个足球场左右那么大了。

讲的都是101最基础的知识都不知道。那么懵懂的小白还在这里和我犟?哈哈哈😂
m
maodouchong
wsdada 发表于 2025-04-20 17:24
回复 58楼 睿 的帖子
还真是死鸭子嘴硬,现在又从华为替代转进到大厂替代了 你知道大厂asic,无论google tpu, amazon trainium,都是绑定他们自己内部云,芯片不单独对外发售的吗?google tpu性能是不错,但只适配tensorflow,只对tensor操作高度优化。作为一般外部用户,你是想用一个通用系统,能支持各种环境包括pytorch, tensor flow, caffe等等的呢?还是想被google云绑定,只运行在tensor flow上呢?从商业上来说,哪个更安全呢? parallel computing还早就很成熟,鉴于你对cpu和GPU都傻傻搞不清楚,你说的莫不是cpu 各进程间的parallel computing吧。你倒是说说看,在nvda前的涉及几十万芯片或运算电路板块的运算工厂的实例?

你是楼里唯一一个懂芯片的,其他都不用回了,全是吹国内的
s
shenandoah1
suwa 发表于 2025-04-20 11:53
CUDA护城河很大程度上受益于上层建筑。 Google Brain的核心产品之一Tensorflow,Hinton 因此获图灵奖和诺贝尔物理奖,好像有史以来第一位双料获奖者。Google Brain其他主要要成员有获诺贝尔奖,抢了能教授饭碗。 小扎Meta的PyTorch是另一个牛软件。 这俩全面支持CUDA。 对另一个业内标准OpenCL有限度支持。 Nvidia还有自己的TensorRT,cuDNN等。 要Google Meta 支持华为新标准不可能,除非国内牛人写个超越加州大厂,但人家大包裹不白拿。那拿大奖指日可待。
AMD Intel 资助底层Nvidia指令集转换的开源项目zLuda(贼路大),名声不好听不玩了。有报道其他厂家继续支持。

经济基础和上层建筑都重要。华为刚发布并且上线的旗舰系统CloudMatrix 384,HBM的容量是英伟达旗舰系统的3.6倍,这意味着有些超级大模型,只能在华为的系统上计算,而不能在英伟达的系统上计算。要知道英伟达的芯片卖的贵,很重要的一个原因是有些超级大模型只能在英伟达的系统上计算,但现在变了。
护城河这东西,挡不住绝对的实力差距。
d
deepsix
睿 发表于 2025-04-20 08:51
华为910C已经开始大量生产了,在国内AI领域开始吞噬英伟达市场。游戏gpu这块amd新的gpu因为同样性能价格便宜而卖的已经比英伟达好很多了。
而且在国外造AI数据中心目前已经好像已经短期饱和。微软砍了3个AI数据中心的建造。英伟达股价开始跌不是没有道理。

如果是这样,那么AI领域,Nvidia长期不看好。
首先,中国是把大模型当成基础设施建设的,建设基础设施不需要赚钱。其次,以Deepseek看,中国训练大模型的成本远远低于西方,模型本身足够优秀。当中国训练好模型,并开源以后,美国公司训练任何模型将无利可图。因此,未来的大模型训练只会在中国,模型训练的整个产业链将在中国手中。
Nvidia倒是可以争夺开源模型运行这一块,不过大家不一定需要GPU,也许TPU的性价比更高。
shenandoah1 发表于 2025-04-20 18:37
经济基础和上层建筑都重要。华为刚发布并且上线的旗舰系统CloudMatrix 384,HBM的容量是英伟达旗舰系统的3.6倍,这意味着有些超级大模型,只能在华为的系统上计算,而不能在英伟达的系统上计算。要知道英伟达的芯片卖的贵,很重要的一个原因是有些超级大模型只能在英伟达的系统上计算,但现在变了。
护城河这东西,挡不住绝对的实力差距。

特别是cuda这个护城河,很快而且很容易就会被击破了,现在新的CPU芯片都自带NPU/TPU,也就是gpu里AI最核心的那块。市场最大的Intel,AMD,Apple,Qcom占领所有服务器,用户端电脑和手机。而且还是share memory, 没有Nvidia分开memory那么奇葩的设计,大量的减低了AI内存的价格。而且这样所有的系统都会直接支持这些NPU/TPU,所有AI运算在系统端就直接分配给AI芯片,根本不需要特别用到CUDA才能去做运算。
m
mise88
你是楼里唯一一个懂芯片的,其他都不用回了,全是吹国内的
maodouchong 发表于 2025-04-20 17:30

這裡本來就超多這種的。。。。
我還是那句話 :
能說的不一定懂 懂的一定不能說
s
suwa
论单个显卡性能Nvidia不一定是最好的. Nvidia与加拿大ATI斗了二十多年,ATI最后被AMD收购。 游戏机Playstation和Xbox用的是定制ATI芯片,他家性能不差。 Nvidia甩开ATI是黄老板做了个惊人决定,开源Nvidia驱动代码。 一斯坦福读博小哥看到后拿来魔改,加上自己写的中间件,十几个显卡跑并行运算。以此申请国防部DARPA项目。 DARPA一看有前途立马支持,老黄一看显卡还可以这么玩,小哥一毕业马上请来主持CUDA研发。 无数DARPA成功项目之一。
网上有人统计过Nvidia员工本科学校,第一是以色列理工,第二斯坦福,第三硅谷神校圣荷西州立,很梦幻组合也是一护城河。
麻辣鸡丝22
回复 68楼 suwa 的帖子
感谢专家分享知识!市面上太需要专业的声音了。
那个人,一看就是胡说八道。也同时说明了AI的价值,可以帮助辨别虚假的声音。

s
shenandoah1
deepsix 发表于 2025-04-20 18:46
如果是这样,那么AI领域,Nvidia长期不看好。
首先,中国是把大模型当成基础设施建设的,建设基础设施不需要赚钱。其次,以Deepseek看,中国训练大模型的成本远远低于西方,模型本身足够优秀。当中国训练好模型,并开源以后,美国公司训练任何模型将无利可图。因此,未来的大模型训练只会在中国,模型训练的整个产业链将在中国手中。
Nvidia倒是可以争夺开源模型运行这一块,不过大家不一定需要GPU,也许TPU的性价比更高。

TPU是类ASIC设计,能效和性价比当然比GPU要高得多。但编程不太一样,现有的用CUDA平台开发的模型需要重新编程。再就是英伟达系统可以支持超级大模型。
一些非常赚钱的应用如抖音,或者竞争异常激烈的应用如Tesla自动驾驶,宁可花大价钱,也要用英伟达系统。他们觉得花这个钱值,能赚回来。
但现在华为对英伟达的挑战非常严峻,因为华为的系统可以支持更大的模型了。从CUDA转向CANN确实是一个问题,但对专业编程人员来说,其实技术上也并不是什么大问题,就是要花时间。
麻辣鸡丝22
shenandoah1 发表于 2025-04-20 21:37
TPU是类ASIC设计,能效和性价比当然比GPU要高得多。但编程不太一样,现有的用CUDA平台开发的模型需要重新编程。再就是英伟达系统可以支持超级大模型。
一些非常赚钱的应用如抖音,或者竞争异常激烈的应用如Tesla自动驾驶,宁可花大价钱,也要用英伟达系统。他们觉得花这个钱值,能赚回来。
但现在华为对英伟达的挑战非常严峻,因为华为的系统可以支持更大的模型了。从CUDA转向CANN确实是一个问题,但对专业编程人员来说,其实技术上也并不是什么大问题,就是要花时间。

就是中国和the others的选择区别了。
不改英伟达在世界范围内的强大。
J
Jimmy.Woo
回复 3楼 baicaiye 的帖子
美国一忽悠一吓唬? 你愿意听一个无赖的? 不稳定的 还是愿意 与一个 什么产品都能提供 可以不用美元交易的国家 合作? 脑袋没问题吧? 你当那些领导人 真是假?
s
shenandoah1
麻辣鸡丝22 发表于 2025-04-20 22:00
就是中国和the others的选择区别了。
不改英伟达在世界范围内的强大。

这个不用担心,最坏情况下英伟达也有美国市场保底。象特斯拉,就算用华为的系统可以建更大的自驾模型,它也不能把在美国收集到的数据送给华为的系统去算的。

麻辣鸡丝22
shenandoah1 发表于 2025-04-20 22:27
这个不用担心,最坏情况下英伟达也有美国市场保底。象特斯拉,就算用华为的系统可以建更大的自驾模型,它也不能把在美国收集到的数据送给华为的系统去算的。


美国以外的其他国家,生意是可以做,关键数据如果给到东大,估计会有各种各样的声音出来。
千渔千寻
回复 1楼 麻辣鸡丝22 的帖子
泡沫破了短期内就不会起来。机构不会给上顶上的散户解套的
e
eda2k4
suwa 发表于 2025-04-20 20:38
论单个显卡性能Nvidia不一定是最好的. Nvidia与加拿大ATI斗了二十多年,ATI最后被AMD收购。 游戏机Playstation和Xbox用的是定制ATI芯片,他家性能不差。 Nvidia甩开ATI是黄老板做了个惊人决定,开源Nvidia驱动代码。 一斯坦福读博小哥看到后拿来魔改,加上自己写的中间件,十几个显卡跑并行运算。以此申请国防部DARPA项目。 DARPA一看有前途立马支持,老黄一看显卡还可以这么玩,小哥一毕业马上请来主持CUDA研发。 无数DARPA成功项目之一。
网上有人统计过Nvidia员工本科学校,第一是以色列理工,第二斯坦福,第三硅谷神校圣荷西州立,很梦幻组合也是一护城河。

最后一段你编的吧?我没查到权威数字,随便搜一个吧
https://www.reddit.com/r/csMajors/comments/mtd7kp/company_by_school_more_info_in_comments/?rdt=57864
千渔千寻
回复 50楼 wsdada 的帖子
睿大妈可是赫赫有名的华尔街前台精英。现在已经财富自由退休了
麻辣鸡丝22
回复 76楼 的帖子
看财报和数据,根本不是泡沫。
特斯拉确实是估值过高
其他的,比如苹果这些,其实还好。
f
flaminglotus
suwa 发表于 2025-04-20 20:38
论单个显卡性能Nvidia不一定是最好的. Nvidia与加拿大ATI斗了二十多年,ATI最后被AMD收购。 游戏机Playstation和Xbox用的是定制ATI芯片,他家性能不差。 Nvidia甩开ATI是黄老板做了个惊人决定,开源Nvidia驱动代码。 一斯坦福读博小哥看到后拿来魔改,加上自己写的中间件,十几个显卡跑并行运算。以此申请国防部DARPA项目。 DARPA一看有前途立马支持,老黄一看显卡还可以这么玩,小哥一毕业马上请来主持CUDA研发。 无数DARPA成功项目之一。
网上有人统计过Nvidia员工本科学校,第一是以色列理工,第二斯坦福,第三硅谷神校圣荷西州立,很梦幻组合也是一护城河。

来插一嘴,我认识你说这个斯坦福博士小哥Ian Buck,人非常低调。虽然当时无论Ian还是黄,都不知道这样的Cuda结构意味着什么,但现在的AI狂潮,完全没有肯定他的功绩,也是说不过去的。
e
eda2k4
TPU是类ASIC设计,能效和性价比当然比GPU要高得多。但编程不太一样,现有的用CUDA平台开发的模型需要重新编程。再就是英伟达系统可以支持超级大模型。
一些非常赚钱的应用如抖音,或者竞争异常激烈的应用如Tesla自动驾驶,宁可花大价钱,也要用英伟达系统。他们觉得花这个钱值,能赚回来。
但现在华为对英伟达的挑战非常严峻,因为华为的系统可以支持更大的模型了。从CUDA转向CANN确实是一个问题,但对专业编程人员来说,其实技术上也并不是什么大问题,就是要花时间。
shenandoah1 发表于 2025-04-20 21:37

所以这个问题上米国很尴尬。。
如果限制高端gpu,那中国就不得不转向华为cann,这玩意儿不是rocket science,没有限制的时候大家都愿意用已经用顺手的cuda,但没得用了只能转cann,有用户了就有反馈了有改进有收入了,Huawei/cann会变得更强。反过来,女大少了这些客户,不但少赚了钱,也少了来自这些公司的反馈帮助cuda改进。过不了多久华为就会强大到冲出中国在国际市场和女大一争高低
另一方面,不限制也不行,中国的llm发展太快了已经和米国并驾齐驱,开源的甚至超过了,再不限制就肯定会被超过
现在就是为了治短痛顾不了长痛了
e
eda2k4
回复 81楼 的帖子
华盛顿的老爷们有一点技术问题不明白,米国的占优的技术并不仅仅靠股沟啊女大啊这些公司。这些公司不光r/d的钱是从客户赚来的,客户也提供了大量的反馈帮助改进技术,甚至直接contribute源代码,比如华为被断android的时候已经是android开源代码最大的contributor了,这些所谓护城河,也得靠大客户,这是共生关系而不是一方真得能垄断,特别是对像中国这样拥有海量工程师资源的国家
w
wsdada
回复 78楼 千渔千寻 的帖子
真的吗?华尔街前台是这个水平?不可能吧。这位睿大姐的帖子纯粹鬼扯一通,拿各种名词术语堆砌,也就唬一唬不懂门道的外行人
e
eda2k4
shenandoah1 发表于 2025-04-20 22:27
这个不用担心,最坏情况下英伟达也有美国市场保底。象特斯拉,就算用华为的系统可以建更大的自驾模型,它也不能把在美国收集到的数据送给华为的系统去算的。


光米国国内市场可撑不起女大的股价
麻辣鸡丝22
wsdada 发表于 2025-04-20 23:53
回复 78楼 千渔千寻 的帖子
真的吗?华尔街前台是这个水平?不可能吧。这位睿大姐的帖子纯粹鬼扯一通,拿各种名词术语堆砌,也就唬一唬不懂门道的外行人

赞评论!
那人就是胡扯,而且狭隘。
w
wsdada
回复 64楼 shenandoah1 的帖子
你这个结论是错误的。在memory不够的情况下,大模型可以在多个GPU上分布式处理,完全可以运行,而且也是通行的做法。当然片载内存足够大可以减小数据搬运,和GPU间通信的开销。所以各厂商都争相在片上放更大内存。 在片上放大内存不存在技术难点。而且考虑到华为拿不到最先进一代hbm,在片载内存这一块它其实处于弱势地位
s
shenandoah1
wsdada 发表于 2025-04-21 00:21
回复 64楼 shenandoah1 的帖子
你这个结论是错误的。在memory不够的情况下,大模型可以在多个GPU上分布式处理,完全可以运行,而且也是通行的做法。当然片载内存足够大可以减小数据搬运,和GPU间通信的开销。所以各厂商都争相在片上放更大内存。 在片上放大内存不存在技术难点。而且考虑到华为拿不到最先进一代hbm,在片载内存这一块它其实处于弱势地位

你说错了,华为CloudMatrix用的是紧凑型并行处理的结构,不是松散形的分布处理。
麻辣鸡丝22
回复 86楼 wsdada 的帖子
专业!
我把GPT4.1说的也贴上来,供大家参考。 你的理解是**正确的**,这个说法确实有明显问题,尤其在技术层面**夸大了“片载内存=唯一决定因素”**的作用。下面详细解析问题出在哪里:
---
## 1. **“只能在华为系统上算,不能在英伟达系统上算”?——这是误导**
- **实际情况**:   大模型参数量超过单卡(或单系统)HBM容量时,**主流解决方案是多卡分布式训练**(如张量并行、模型并行、流水线并行等)。   **几乎所有超级大模型(GPT-4、Llama-3等)都在NVIDIA的A100/H100集群上分布式训练,单卡内存不是瓶颈。** - **所以**,**不存在“只有华为能算,英伟达不能算”**的问题。只要分布式系统足够大,任何主流AI芯片平台都可以完成超大模型训练。
---
## 2. **“片载内存大=绝对优势”?——片面理解**
- **更大的HBM容量**,确实能提高单卡吞吐率、降低通信/分布式调度复杂度,对某些场景(比如大batch推理、特定算法)有优化作用。 - **但这不是“能不能做”的门槛,而是“做得更高效/更便宜/更易用”的工程优化**。 - **各家厂商都在追求更大HBM,但这不是“绝对碾压”对手的核心技术壁垒。**
---
## 3. **英伟达高价的原因?**
- **英伟达芯片卖得贵,主要原因是其软硬件生态(CUDA、cuDNN、TensorRT等)最强,性能、易用性、社区支持领先,分布式训练工具成熟。** - **不是因为“只有英伟达能训练超大模型”**,而是因为在实际生产环境里,**用英伟达“更稳定、效率更高、兼容性最好”**。
---
## 4. **护城河与绝对实力的关系?**
- **护城河**(生态、开发者、工具链、资源网络)很重要,可以“挡住”对手一段时间。 - **绝对实力(比如性能、成本、易用性达到代差级突破)确实有可能撼动护城河**,但不是片上内存单一指标决定的,而是全栈综合实力。 - **单纯靠HBM容量领先,还远远不够形成“颠覆性代差”**。
---
## 5. **一句话总结**
> **这个说法在技术上是片面的,带有误导性。大模型训练不是靠单卡内存突破,而是多卡分布式和全栈优化。华为CloudMatrix 384的HBM容量是亮点,但远不是“英伟达不能做、只有华为能做”的决定性分水岭。**
---
如果你想看**主流大模型分布式训练的内存与带宽瓶颈**、**英伟达/华为在AI算力生态的全栈对比**等更细致的角度,也欢迎进一步提问!
w
wsdada
美国无赖也就是金毛开始无底线耍流氓。导致当前世界进入三皇共治的荒诞时期 对欧洲,加澳新日韩这些国家来说,基于意识形态和历史文化,还是倾向于美国的,很难接受老习这样为人类发展指明方向的 如果美国在川大嘴下台之后,不再任由maga胡搞,回归正常的话,ai技术领域的生态还是大概率会统一在美国主导的生态下
麻辣鸡丝22
回复 87楼 的帖子

"紧凑型并行"不等于单机内存大就能搞定一切,大模型训练依然要靠分布式策略(张量并行、数据并行、流水并行等)。 分布式系统的本质是高效的“协同",无论是“紧凑型"还是松散型”,都要依赖软硬件全栈的优化。 华为、NVIDIA、AMD等顶级AI集群,其实都在做"紧凑型高性能互连",只是实现方式和细节不同。 一句话总结:华为 CloudMatrix 384确实主打"紧凑型高带宽互连”的高性能分布式结构,不是传统大数据那种松散分布式。
但本质上,AI大模型训练/推理无论用什么结构,底层还是分布式并行,只是“紧凑型"让效率更高、更接近单机体验。
麻辣鸡丝22
wsdada 发表于 2025-04-21 00:31
美国无赖也就是金毛开始无底线耍流氓。导致当前世界进入三皇共治的荒诞时期 对欧洲,加澳新日韩这些国家来说,基于意识形态和历史文化,还是倾向于美国的,很难接受老习这样为人类发展指明方向的 如果美国在川大嘴下台之后,不再任由maga胡搞,回归正常的话,ai技术领域的生态还是大概率会统一在美国主导的生态下

就是可惜中国的单子大概率丢掉了,华人又是全世界最卷的群体。
w
wsdada
简言之,华为唯一的优势就是自主可控,所有国内ai产业链上的参与者都不计成本的支持,要培养一个独立的生态 但这个将来的国内生态,能否被国外接受?国外开发者是否愿意参与?存疑,问号很大的存疑
麻辣鸡丝22
AI前景无量,这个是确定性的。
前段时间,用了AI识破了一个精心策划的金钱骗局。在用AI前,那个朋友已经被骗了近30万美金。
这次,又确实有助于识别专业知识的相关信息。
麻辣鸡丝22
wsdada 发表于 2025-04-21 00:41
简言之,华为唯一的优势就是自主可控,所有国内ai产业链上的参与者都不计成本的支持,要培养一个独立的生态 但这个将来的国内生态,能否被国外接受?国外开发者是否愿意参与?存疑,问号很大的存疑

意识形态上和风险控制上,其实答案已经在那里了。
就是丢掉抖音、阿里、腾达这些大客户可惜了。
腾讯还是赚钱能力很好的共识。
s
shenandoah1
wsdada 发表于 2025-04-21 00:41
简言之,华为唯一的优势就是自主可控,所有国内ai产业链上的参与者都不计成本的支持,要培养一个独立的生态 但这个将来的国内生态,能否被国外接受?国外开发者是否愿意参与?存疑,问号很大的存疑

怎么是不计成本,这个产业太赚钱了。下面是2月份新浪财经的报道。现在H20被禁,华为肯定是笑得合不上嘴。
“报道进一步指出,尽管DeepSeek的AI模型的更广泛部署有望帮助华为等中国芯片制造,其商凭借其对推理的关注在中国市场内有更好的竞争。但英伟达的H20 GPU至今仍然是中国的的产业标准。分析师估计,英伟达到2024年将出货约100万台内含H20 GPU的服务器,为英伟达创造超过120亿美元的营收。”