芯片行业的从业者可以聊一下英伟达的护城河吗?

麻辣鸡丝22
楼主 (北美华人网)
看forward PE,现在英伟达的估值已经算是比较低了。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?
s
shenandoah1
英伟达不会有关门的危险,但会损失比较大的市场份额。股票投资要慬慎。
对英伟达来说,最大的风险是别的国家的客户开始使用中国的系统。
b
baicaiye
shenandoah1 发表于 2025-04-20 08:29
英伟达不会有关门的危险,但会损失比较大的市场份额。股票投资要慬慎。
对英伟达来说,最大的风险是别的国家的客户开始使用中国的系统。

这个风险很小,一般为美国一忽悠一吓唬都不敢用了
f
freewilly
baicaiye 发表于 2025-04-20 08:40
这个风险很小,一般为美国一忽悠一吓唬都不敢用了

要是英伟达贵的gpu2万美元一个,中国的1千美元呢?
华为910C已经开始大量生产了,在国内AI领域开始吞噬英伟达市场。游戏gpu这块amd新的gpu因为同样性能价格便宜而卖的已经比英伟达好很多了。
而且在国外造AI数据中心目前已经好像已经短期饱和。微软砍了3个AI数据中心的建造。英伟达股价开始跌不是没有道理。
F
FatSheep
Tesla and Nvida are two bubble stocks pumped by wall street.
w
wealth
近日因中国对美进口产品加征关税,市场上关于进口芯片征收关税原产地的认定原则有不同的解读。在这一背景下,中国最新的规则明确了以“集成电路”流片地认定为原产地。
4月11日,中国半导体协会发文称,根据海关总署的相关规定,“集成电路”流片地认定为原产地,中国半导体协会建议企业在进口集成电路时,进口报关原产地以“晶圆流片工厂”所在地为准进行申报。
这一消息令国产芯片厂商股价大涨。截至当天收盘,凯德石英(835179.SZ)30%涨停,晶华微(688130.SH)、唯捷创芯(688153.SH)等多股20%涨停。
光大证券研报称,中美持续性高关税将推动半导体国产替代加速。首先,以流片地认证原产地,美系IDM厂商竞争力受损,利好国内CPU、存储、模拟、射频、功率类厂商。
新规发布前,美国流片生产的半导体若在东南亚或中国封装测试,原产地可按照“封装地”认定,但明确原产地按“流片地”后,美系IDM厂商价格竞争力下降,包含CPU厂商英特尔、模拟厂商ADI和德州仪器、射频厂商Qorvo、存储厂商美光科技、功率厂商安森美半导体等,利好国内相关厂商加速国产替代。
其次,美国芯片制造回流战略被打乱,利好中国成熟制程晶圆代工厂。
若中国关税反制政策长期存在,一方面国产模拟、功率、射频厂商竞争力增强,为晶圆厂的成熟制程带来更多订单;另一方面,美系IDM厂商有望从美国流片转向中国晶圆厂代工,以规避中国加征关税影响。
s
shenandoah1
华为刚刚发布的最新AI云系统,性能已经超过了英伟达的旗舰系统。这个系列还是有弱点的,能耗显著更高,但中国的电力资源丰富,所以问题并不大。
36氪获悉,近日,国际半导体研究和咨询机构SemiAnalysis发布专题报道称,华为云最新推出的AI算力集群解决方案CloudMatrix 384(以下简称CM384),在多项关键指标上实现对英伟达旗舰产品GB200 NVL72的超越。据SemiAnalysis披露,华为云CM384基于384颗昇腾芯片构建,通过全互连拓扑架构实现芯片间高效协同,可提供高达300 PFLOPs的密集BF16算力,接近达到英伟达GB200 NVL72系统的两倍。
w
wealth
同样涨关税,中国每一步都是有目的、有计划的,川普则是一通王八拳,乱拳可能打死老师傅,但是真遇上高手也会输得更惨
s
shenandoah1
baicaiye 发表于 2025-04-20 08:40
这个风险很小,一般为美国一忽悠一吓唬都不敢用了

偷偷摸摸地用就是了,都是远程云计算,很难跟踪谁在用。
麻辣鸡丝22
Tesla and Nvida are two bubble stocks pumped by wall street.
FatSheep 发表于 2025-04-20 08:53

华为的是真的可以在性价比上比英伟达好很多吗?
Cuda的护城河不知怎么样。
麻辣鸡丝22
睿 发表于 2025-04-20 08:51
华为910C已经开始大量生产了,在国内AI领域开始吞噬英伟达市场。游戏gpu这块amd新的gpu因为同样性能价格便宜而卖的已经比英伟达好很多了。
而且在国外造AI数据中心目前已经好像已经短期饱和。微软砍了3个AI数据中心的建造。英伟达股价开始跌不是没有道理。

不知道这个行业的竞争和护城河怎样?
一方面是竞争;
另一方面是投资端的降低。
麻辣鸡丝22
baicaiye 发表于 2025-04-20 08:40
这个风险很小,一般为美国一忽悠一吓唬都不敢用了

感觉算力相关产品的选择,主要是性价比的考虑。
英伟达短期和长期在这方面的优势怎样?
麻辣鸡丝22
FatSheep 发表于 2025-04-20 08:53
Tesla and Nvida are two bubble stocks pumped by wall street.

特斯拉的市盈率极高。但是英伟达目前的市盈率其实并不高。远期市盈率才23.
和特斯来的100多那是差非常多啊。
似曾相识
麻辣鸡丝22 发表于 2025-04-20 10:15
华为的是真的可以在性价比上比英伟达好很多吗?
Cuba的护城河不知怎么样。

人家叫CUDA
一个用户
shenandoah1 发表于 2025-04-20 08:59
偷偷摸摸地用就是了,都是远程云计算,很难跟踪谁在用。

小公司可以这么搞,大公司需要的多,没法长期隐瞒,而且风险太大。
麻辣鸡丝22
似曾相识 发表于 2025-04-20 10:27
人家叫CUDA

哈哈,刚发现打错了
那CUDA的护城河,有哪些风险呢?
麻辣鸡丝22
1. 早早布局GPU与通用计算(GPGPU) 早在2006年,英伟达就推出了CUDA平台,使得GPU不仅仅用于图形处理,还能用于通用计算(如科学计算、深度学习)。当时几乎没有其他公司真正重视GPU在AI领域的潜力。 这一步让英伟达比AMD、英特尔等竞争对手早了好几年,迅速积累了技术和用户基础。 2. 打造了行业标准 CUDA平台成为AI、科学计算等领域的事实行业标准。全球无数的算法、工具箱和软件都基于英伟达的生态开发,形成了强大的锁定效应。 这意味着后来者(比如AMD的ROCm或其他AI芯片)即使硬件性能追平,也很难打破生态壁垒。 3. 圈住了开发者和客户 英伟达通过早期推广和教育,吸引了大量开发者和高校研究者成为其生态的“原住民”。 大型云厂商、AI实验室、自动驾驶公司等都早早选用了英伟达的产品,形成了良性循环。
麻辣鸡丝22
为什么迁移成本很高? 1. 软件和代码适配 绝大多数AI模型、算法、工具链、训练脚本都基于英伟达的CUDA、cuDNN等库进行开发。 换芯片意味着所有底层调用、加速指令都要重写或适配。例如,PyTorch和TensorFlow虽然支持多平台,但在英伟达上最成熟,迁移到其他平台(如华为昇腾、AMD ROCm)经常需要大量修改和调试,甚至重构代码。 2. 性能和稳定性 英伟达的CUDA生态已经被广泛优化,迁移到新平台后,性能未必能立刻达到原有水平,甚至可能出现“不兼容”“训练速度下降”“模型精度异常”等问题。 新平台的驱动和框架成熟度通常不如NVIDIA,可能会遇到bug、功能缺失、文档不全等问题。 3. 开发者和工程师培训 英伟达生态已成为AI工程师的“标配技能”,而其他芯片平台的开发工具和编程模型不同,团队需要重新学习新的开发工具和调试方法,增加了人力和培训成本。 4. 生产和部署流程 企业的生产环境通常已经基于NVIDIA GPU优化,包括容器、调度系统、自动化部署脚本等。如果换平台,这些系统也要大幅调整。 5. 历史资产和数据 许多老项目、训练好的模型、数据管道都和英伟达平台深度耦合。迁移不仅是新项目适配,历史数据和模型复用也会遇到障碍。


麻辣鸡丝22
英伟达和苹果的相似之处 1. 软硬一体,打造闭环生态 苹果:软硬件高度整合(自己设计芯片、操作系统、App Store、iCloud等),用户一旦进入苹果生态,切换成本极高,软硬件之间无缝协作。 英伟达:不仅设计世界级GPU,还自建CUDA、cuDNN、TensorRT等软件平台,AI开发、训练、推理的整个链路都被英伟达“包圆”,开发者和企业一旦深度绑定,迁移极难。 2. 锁定开发者和用户,形成生态壁垒 苹果:开发者必须用Xcode、Swift等苹果指定工具开发App,用户习惯了iOS、MacOS的生态和体验。 英伟达:AI算法、深度学习框架对CUDA的依赖极高,开发者和企业的项目一旦成型,换平台成本极高。 3. 依靠软件和服务持续变现 苹果:硬件(iPhone、Mac)是入口,后续通过App Store、iCloud、Apple Music等软件和服务持续收费。 英伟达:硬件(GPU)是入口,后续通过软件生态(如CUDA授权、AI云服务、Omniverse、NVIDIA DGX Cloud等)持续变现,甚至逐步布局订阅制和增值服务。 4. 高利润、强议价能力 两家公司都通过生态垄断和软硬协同,保持了高毛利率和极强的定价权,能持续向客户收取“生态税”。
麻辣鸡丝22
1. 行业趋势:硬件向“软服”转型是大势所趋 硬件毛利受限,软件服务毛利高。像苹果、微软、亚马逊AWS等巨头都在推动“硬件+软件/服务”的商业模式,靠订阅、云服务、平台分成获得更高的利润率和持续性收入。 AI算力服务化、平台化。AI和高性能计算行业也在从“卖硬件”向“卖服务”转型,例如AI云服务、租赁GPU算力、平台订阅等。 2. 英伟达的软件服务布局越来越深 - CUDA及其衍生软件生态 CUDA平台本身虽然免费,但企业级工具(如TensorRT、cuDNN、NVIDIA AI Enterprise等)越来越多采用授权、订阅或增值服务模式。 - AI云服务 英伟达推出了DGX CloudNVIDIA AI FoundryNVIDIA Omniverse Cloud等基于云的AI开发、训练和仿真平台。客户不再需要自建GPU集群,只需订阅云服务即可用到英伟达最强的软硬件。 - Omniverse数字孪生平台 Omniverse是一个面向虚拟现实、工业仿真、数字孪生的协作平台,采用订阅收费模式。随着AI和虚拟世界的融合,Omniverse有望成为新的增长点。 - 企业级AI解决方案 包括自动驾驶、医疗影像、智能制造等领域的端到端AI解决方案,这些都可以通过软硬件一体、服务订阅来收费。 3. 订阅制和平台化收入占比提升 英伟达2023年财报已经明确,软件和服务收入占比在逐渐提升,未来几年将成为公司营收增长的主要驱动力之一。 随着AI产业落地、客户对算力和AI平台的依赖加深,软件和服务的“生态税”会越来越高。 4. 护城河进一步加深 一旦企业和开发者深度绑定英伟达的软件和云端平台,迁移成本会进一步提高,英伟达可以持续收取订阅费、服务费,形成更稳定、更高利润率的收入流。 这和苹果、微软、Adobe等巨头的商业模式类似,是从“单次卖硬件/软件”转向“长期收租金/服务费”。 结论
未来英伟达靠软件和服务收费的能力一定会越来越强,这不仅是行业规律,也是公司主动战略转型的方向。通过持续扩宽软件生态和云服务,英伟达有望像苹果一样,获得更高的利润率和更坚固的护城河。

麻辣鸡丝22 发表于 2025-04-20 10:16
不知道这个行业的竞争和护城河怎样?
一方面是竞争;
另一方面是投资端的降低。

AI GPU没啥护城河,就是一堆非常低阶的超慢CPU堆在一起就叫做AI GPU了,量大管饱。英伟达最好的Blackwell也只是5nm,华为的是7nm,都是同样在堆transistor,区别不是太大。
哈哈,刚发现打错了
那CUDA的护城河,有哪些风险呢?
麻辣鸡丝22 发表于 2025-04-20 10:35

对于真正开发AI的公司来说,换一个library做运算不难。只是matrix在GPU上运算而已。cuda主要是研发阶段可以马上用,所以大量的研究生都在用,可是到了公司这一块就不一样了,谷歌,Meta,DeepSeek都有自己独特的运算,而且都有不是英伟达的gpu硬件。
麻辣鸡丝22
睿 发表于 2025-04-20 10:50
AI GPU没啥护城河,就是一堆非常低阶的超慢CPU堆在一起就叫做AI GPU了,量大管饱。英伟达最好的Blackwell也只是5nm,华为的是7nm,都是同样在堆transistor,区别不是太大。

主要应该是软件服务行程的护城河吧?可以理解成和微软以及苹果类似。
英伟达和微软商业模式的相似趋势 1. 从卖产品到卖平台和服务 微软: 以前以一次性卖Windows、Office软件为主,现在主力是Azure云服务、Office 365订阅、GitHub、AI平台等,变成“平台+订阅+云”模式。 英伟达: 过去以卖GPU为主,现在逐步转向“GPU硬件+AI开发平台(CUDA、AI Enterprise)+云服务(DGX Cloud、Omniverse Cloud)+订阅/授权”模式。 2. 云服务和平台化成为收入核心 微软: Azure(云计算)、Office 365(SaaS)、Copilot(AI助手)等云端订阅服务成为公司增长主力。 英伟达: 正在推动GPU算力云服务(DGX Cloud)、AI模型即服务(Foundry)、AI平台订阅(AI Enterprise),让企业不用自建GPU集群,直接按需订阅使用。 3. 开发者/企业生态绑定 微软: 通过开发者工具(Visual Studio、GitHub)、API、平台标准,锁定开发者和企业用户。 英伟达: 通过CUDA、cuDNN、TensorRT等AI开发工具链,绑定开发者和企业AI项目,“一旦上车,很难下车”。 4. 持续性收入、利润率更高 微软: 订阅/云服务模式带来稳定、可持续的高利润收入,摆脱单一产品周期的波动。 英伟达: 软件和云服务订阅带来长期收入,毛利率显著高于硬件,抗周期能力更强。
j
jellynsyrup
老黄在限制令公布后马上飞去北京这件事就说明英伟达受到的影响非常大,这是明显的不给川普面子,宁愿得罪川普也要第一时间向北京示好,说明英伟达接下来命运多舛,投资需谨慎
主要应该是软件服务行程的护城河吧?可以理解成和微软以及苹果类似。
英伟达和微软商业模式的相似趋势 1. 从卖产品到卖平台和服务 微软: 以前以一次性卖Windows、Office软件为主,现在主力是Azure云服务、Office 365订阅、GitHub、AI平台等,变成“平台+订阅+云”模式。 英伟达: 过去以卖GPU为主,现在逐步转向“GPU硬件+AI开发平台(CUDA、AI Enterprise)+云服务(DGX Cloud、Omniverse Cloud)+订阅/授权”模式。 2. 云服务和平台化成为收入核心 微软: Azure(云计算)、Office 365(SaaS)、Copilot(AI助手)等云端订阅服务成为公司增长主力。 英伟达: 正在推动GPU算力云服务(DGX Cloud)、AI模型即服务(Foundry)、AI平台订阅(AI Enterprise),让企业不用自建GPU集群,直接按需订阅使用。 3. 开发者/企业生态绑定 微软: 通过开发者工具(Visual Studio、GitHub)、API、平台标准,锁定开发者和企业用户。 英伟达: 通过CUDA、cuDNN、TensorRT等AI开发工具链,绑定开发者和企业AI项目,“一旦上车,很难下车”。 4. 持续性收入、利润率更高 微软: 订阅/云服务模式带来稳定、可持续的高利润收入,摆脱单一产品周期的波动。 英伟达: 软件和云服务订阅带来长期收入,毛利率显著高于硬件,抗周期能力更强。

麻辣鸡丝22 发表于 2025-04-20 10:54

cuda已经在另一个贴说过了。云计算,软件,网站应用大同小异,换一个根本不影响。和你去不同网站购物一样。
AI回答在这方面很差劲的。我小孩大学功课AI都回答不对。大家都还是老老实实自己做。现在AI水平问题稍微复杂点根本不能解。
s
shenandoah1
华为的是真的可以在性价比上比英伟达好很多吗?
Cuda的护城河不知怎么样。
麻辣鸡丝22 发表于 2025-04-20 10:15

华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。
麻辣鸡丝22
睿 发表于 2025-04-20 10:54
对于真正开发AI的公司来说,换一个library做运算不难。只是matrix在GPU上运算而已。cuda主要是研发阶段可以马上用,所以大量的研究生都在用,可是到了公司这一块就不一样了,谷歌,Meta,DeepSeek都有自己独特的运算,而且都有不是英伟达的gpu硬件。

1. “换个library就能兼容”的说法,为什么会有? 理论上:如果只是“矩阵乘法/卷积/线性代数”这些基本运算,现代AI框架本来就可以抽象化处理,底层只要有高效的实现,调用哪个库本质无区别。 **主流AI框架(如PyTorch、TensorFlow)**已经支持多种后端,可以“切换”到AMD ROCm、华为CANN、甚至CPU等不同硬件。 2. 现实中,真的那么容易吗? A. 技术门槛和实际难度 高级功能和优化:基础的矩阵乘法好兼容,但很多AI最新研究、工业级大模型训练需要用到复杂的自定义算子、稀疏运算、混合精度、分布式策略、异步调度、异构调优等,这些都严重依赖CUDA生态的深度优化。 底层依赖广泛:很多“库”并不是只调用几个矩阵操作,而是深度集成了NVIDIA的cuDNN、cuBLAS、NCCL、TensorRT等大量闭源/专有优化库。 生态和第三方兼容:成千上万的第三方工具、插件、开源项目、论文代码都只保证在NVIDIA CUDA下能跑,移植到别的平台通常要花很多时间debug和适配,有时甚至跑不通。 B. 工业级需求 **大公司(Google、Meta)**确实有能力自研底层加速库,甚至自己设计AI芯片(TPU、MTIA)。 但绝大多数公司和创业团队没这个资源和能力,只能依赖主流框架和NVIDIA生态。 大公司也不是完全放弃NVIDIA,比如Google虽然有TPU,但GCP依然大规模采购NVIDIA GPU,Meta自研MTIA但还是大量用NVIDIA。 自研芯片和底层库的门槛极高,要有专门的软硬件团队、长期资源投入,一般公司做不到。 C. 开发者和团队效率 研发阶段用NVIDIA,虽然你说“研究生都在用”,但企业招人、开发、迭代也离不开NVIDIA生态。新员工培训、社区支持、现成代码复用都离不开CUDA生态。 迁移成本高:不是不能换,而是要花很多“隐性成本”(调试、重写、性能对齐、团队磨合),时间和人力消耗巨大。 3. 为什么谷歌、Meta、DeepSeek能不用NVIDIA? 这些公司有极强的软硬件研发实力和资金,可以自己开发芯片(TPU、MTIA等),自己维护全套加速库,不依赖社区和外部支持。 但这不是大多数AI公司能做到的,尤其是中小企业和快速迭代团队。
麻辣鸡丝22
shenandoah1 发表于 2025-04-20 10:56
华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。

GPT 4.1这么说的: 你的这段话提出了两层观点,每一层都很有讨论价值。下面我来拆解分析,帮你客观看待这类说法是否成立:
1. “华为AI建模系统已经在性能上超过了英伟达” 这句话有一定道理,但要看具体语境和测试对象: 局部场景可能成立: 华为昇腾(Ascend)/鹏程芯片+CANN在某些特定任务(如推理、部分训练场景、国产AI大模型的定制化优化)上,有时能实现性能超越英伟达部分GPU,尤其在国产软硬件深度协同、软件堆栈全链路优化的情况下。 行业顶级水平对比还需谨慎: 真正意义上的“全面超越”——比如大规模分布式训练、通用AI框架兼容性、极限算力和能效——目前主流测试(如MLPerf等国际权威AI基准)上,英伟达H100、B100等旗舰产品整体性能和生态成熟度依然更强。 数据来源和测试标准要细究: 有些“超越”是厂商内部测试或特定优化场景下的数据,并非国际通用标准或大规模商用环境下的真实对比。 小结:
华为AI芯片和系统在国内场景进步很大,某些任务性能可比肩甚至超越部分英伟达产品,但在全球最顶级AI算力、生态广度和通用性上,还没到“全面超越”的地步。
2. “生态这东西,用得人多了,自然就好了” 这句话有一定道理,但现实远比想象中复杂: 生态确实能“养”出来: 只要有足够的市场需求和政策支持,开发者和企业大量投入,生态可以逐步成长壮大。比如中国国产AI芯片生态正在快速追赶,CANN、MindSpore等也有越来越多的开发者和应用支持。 路径依赖和惯性很强: CUDA生态经过十多年积累,拥有海量代码、论文、工具、社区、教程、人才储备,“迁移”不是一朝一夕的事情。MacOS虽然体验不错,但Windows生态的惯性让很多行业和场景依然离不开Windows。 生态不是单靠“人多用”就能一夜逆转: 需要开发者长期投入、工具链完善、社区活跃、第三方服务配套、硬件更新迭代等多重因素共同作用。即使有政策和产业资金支持,生态崛起也需要时间、耐心和持续投入。 两极分化现象常见: 比如中国市场,华为AI芯片生态发展很快,在政策和市场双重推动下,未来有可能建立起与CUDA生态并行的“局部主流”。但全球范围内,CUDA优势仍然稳固。 小结:
生态确实可以“养”出来,但“养”成主流需要时间、持续投入,以及关键转折点(如市场强烈需求、政策红利、关键技术突破等)。
3. 用MacOS对Windows的类比 这个类比很贴切: MacOS和Windows在体验和技术上各有千秋,MacOS生态也在壮大,但Windows依靠早期积累和生态惯性,依然是主流。AI芯片领域目前也是类似局面——华为生态进步快,但英伟达的“Windows”地位短期内难以撼动。 总结观点 你说的这些观点在一定语境下有道理,尤其是在中国市场和特定AI场景下。 但要实现“全面超越”和生态大逆转,还需要时间和巨大的产业投入。生态的建立不是简单“人多用”就能一夜成功,而是长期积累和多方协作的结果。


K
Kirin9000s
麻辣鸡丝22 发表于 2025-04-20 08:06
看forward PE,现在英伟达的估值已经算是比较低了。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?

英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态
S
Silverwing
麻辣鸡丝22 发表于 2025-04-20 08:06
看forward PE,现在英伟达的估值已经算是比较低了。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?

那得看什么程度的威胁喽
奔着弄死英伟达的威胁? 不可能,英特尔这鸟样都能苟活着,更何况英伟达
奔着一统天下千秋万代?不可能, 怎么跟黄毛狗思路一样,觉得曾经拿个第一,就要永远躺平天下第一,别人不准曹越
英伟达发展到现在,完全没有竞争对手的也就这么几年时间, 竞争是常态,没有竞争才是暂时的
股价是 price in 没有竞争天下无敌额千秋万代, 但是现实必定会mean reversion
s
shenandoah1
Kirin9000s 发表于 2025-04-20 10:59
英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态

是这样,但现在华为太猛了,愣是拖着中芯去和英伟达台积电硬扛。
麻辣鸡丝22 发表于 2025-04-20 10:56
1. “换个library就能兼容”的说法,为什么会有? 理论上:如果只是“矩阵乘法/卷积/线性代数”这些基本运算,现代AI框架本来就可以抽象化处理,底层只要有高效的实现,调用哪个库本质无区别。 **主流AI框架(如PyTorch、TensorFlow)**已经支持多种后端,可以“切换”到AMD ROCm、华为CANN、甚至CPU等不同硬件。 2. 现实中,真的那么容易吗? A. 技术门槛和实际难度 高级功能和优化:基础的矩阵乘法好兼容,但很多AI最新研究、工业级大模型训练需要用到复杂的自定义算子、稀疏运算、混合精度、分布式策略、异步调度、异构调优等,这些都严重依赖CUDA生态的深度优化。 底层依赖广泛:很多“库”并不是只调用几个矩阵操作,而是深度集成了NVIDIA的cuDNN、cuBLAS、NCCL、TensorRT等大量闭源/专有优化库。 生态和第三方兼容:成千上万的第三方工具、插件、开源项目、论文代码都只保证在NVIDIA CUDA下能跑,移植到别的平台通常要花很多时间debug和适配,有时甚至跑不通。 B. 工业级需求 **大公司(Google、Meta)**确实有能力自研底层加速库,甚至自己设计AI芯片(TPU、MTIA)。 但绝大多数公司和创业团队没这个资源和能力,只能依赖主流框架和NVIDIA生态。 大公司也不是完全放弃NVIDIA,比如Google虽然有TPU,但GCP依然大规模采购NVIDIA GPU,Meta自研MTIA但还是大量用NVIDIA。 自研芯片和底层库的门槛极高,要有专门的软硬件团队、长期资源投入,一般公司做不到。 C. 开发者和团队效率 研发阶段用NVIDIA,虽然你说“研究生都在用”,但企业招人、开发、迭代也离不开NVIDIA生态。新员工培训、社区支持、现成代码复用都离不开CUDA生态。 迁移成本高:不是不能换,而是要花很多“隐性成本”(调试、重写、性能对齐、团队磨合),时间和人力消耗巨大。 3. 为什么谷歌、Meta、DeepSeek能不用NVIDIA? 这些公司有极强的软硬件研发实力和资金,可以自己开发芯片(TPU、MTIA等),自己维护全套加速库,不依赖社区和外部支持。 但这不是大多数AI公司能做到的,尤其是中小企业和快速迭代团队。

别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。
麻辣鸡丝22
Kirin9000s 发表于 2025-04-20 10:59
英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态

来自GPT 4.1的说法:
1. 英伟达的护城河就是台积电和ASML,对吗? 结论: 这个说法有一定道理,但非常片面,甚至可以说是“只看到了表面,忽略了核心竞争力”。
详细分析: 台积电和ASML的确重要 英伟达的高端GPU(如H100、B100)都是台积电最先进制程制造的,没有台积电5/4/3nm工艺,英伟达确实做不出全球最强芯片。 ASML的EUV光刻机是先进制程的“卡脖子”设备,没有ASML,台积电的最先进产能也造不出来。 但台积电/ASML并不是英伟达独有的资源 苹果、AMD、高通等很多芯片公司同样用台积电和ASML的产能,甚至有些产品优先级更高(如苹果A系列、M系列)。 如果只靠台积电/ASML,英伟达不会有独特护城河,大家都能“买同一块砖”,为啥只有英伟达能做到超高毛利和市场份额? 英伟达的真正护城河在于: 芯片架构与设计能力(如Transformer优化、HBM堆叠、NVLink等) 软硬件协同(CUDA、cuDNN、TensorRT、NCCL等) 开发者生态网络和产业链绑定 市场先发和品牌影响力 解决方案和平台(如DGX、Omniverse、AI Cloud) 台积电/ASML是产业基础,但不是英伟达独享,也不是其唯一壁垒。 真正让英伟达脱颖而出的是“软硬一体的产业规模效应、开发者生态和技术创新速度”。 2. 软件公司本质都是marketing公司,没啥真正技术门槛,包括cuda生态? 结论: 这个说法过于轻视软件技术的门槛,容易让非行业人士误判现实。
详细分析: 软件公司需要强大的市场能力,但绝非“只有市场” 微软、Adobe、苹果、英伟达等巨头,之所以能长期领先,最核心的其实还是技术壁垒+生态网络效应,而不是单纯靠市场推广。 CUDA生态的门槛极高 CUDA不是“写个库”而已,而是十几年软硬件深度协同、上万开发者和无数科研团队持续迭代和优化的成果。 包含底层驱动、编译器、分布式通信、数值库、自动调优、第三方插件、文档、社区、人才等完整体系。 你可以尝试将大规模开源AI模型(如Llama、Stable Diffusion)在非CUDA平台上跑一跑,就知道“兼容”到底有多难。 生态迁移的“惯性”本身就是技术与市场共同作用的结果 你可以把生态理解为一种“复合壁垒”,里面有核心算法、性能优化、开发者习惯、社区支持、历史代码资产等,远非换个logo或营销就能颠覆。 一句话总结 台积电和ASML固然重要,但英伟达的核心护城河是软硬件协同、生态锁定和技术创新。软件生态(如CUDA)是巨大的技术门槛和产业壁垒,绝不是“靠营销就能做起来”。
麻辣鸡丝22
睿 发表于 2025-04-20 11:02
别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。

GPT 对于技术的掌握,比一般个体是要好很多的吧?
当然,业内专业人士,可以一眼批判性辨别,普通人不容易。
麻辣鸡丝22
睿 发表于 2025-04-20 11:02
别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。

所以问题的关键就是,跳脱英伟达的框架,是否容易,有多容易,需要多少成本。
GPT 对于技术的掌握,比一般个体是要好很多的吧?
当然,业内专业人士,可以一眼批判性辨别,普通人不容易。
麻辣鸡丝22 发表于 2025-04-20 11:04

所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。
S
Silverwing
麻辣鸡丝22 发表于 2025-04-20 11:06
所以问题的关键就是,跳脱英伟达的框架,是否容易,有多容易,需要多少成本。

还得看,跳脱英伟达的框架的代价,比被美国随时卡脖子的代价, 哪个大
以前这个比较不存在
现在这是现实的问题
这也是华为芯片发展的空间
麻辣鸡丝22
所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。
睿 发表于 2025-04-20 11:06

和炒股比较没什么意义吧?
回到投资(我从来不用炒股两个字),我今年的year to day都是18%多,当然不能和大牛比。
任何学习都是从一点点开始的。谁一生下来就是什么都懂呢?AI是学习的重要工具。之所以贴上来,就是想着,AI说的可能是错的。板上的牛人们多,也很感恩包容不吝赐教的朋友们。
麻辣鸡丝22
Silverwing 发表于 2025-04-20 11:09
还得看,跳脱英伟达的框架的代价,比被美国随时卡脖子的代价, 哪个大
以前这个比较不存在
现在这是现实的问题
这也是华为芯片发展的空间

那其实就是中国和其他国家的生态系统的区别。
让其他国家,用华为的,可能他们会觉得风险大。
和炒股比较没什么意义吧?
回到投资(我从来不用炒股两个字),我今年的year to day都是18%多,当然不能和大牛比。
任何学习都是从一点点开始的。谁一生下来就是什么都懂呢?AI是学习的重要工具。之所以贴上来,就是想着,AI说的可能是错的。板上的牛人们多,也很感恩包容不吝赐教的朋友们。
麻辣鸡丝22 发表于 2025-04-20 11:10

你都那么厉害了,一年都不到就18%,请教我们这些回报率低的可怜的看法不会影响你的判断力吗?
麻辣鸡丝22
Silverwing 发表于 2025-04-20 11:00
那得看什么程度的威胁喽
奔着弄死英伟达的威胁? 不可能,英特尔这鸟样都能苟活着,更何况英伟达
奔着一统天下千秋万代?不可能, 怎么跟黄毛狗思路一样,觉得曾经拿个第一,就要永远躺平天下第一,别人不准曹越
英伟达发展到现在,完全没有竞争对手的也就这么几年时间, 竞争是常态,没有竞争才是暂时的
股价是 price in 没有竞争天下无敌额千秋万代, 但是现实必定会mean reversion

这个确实是。
就是不知道能不能形成苹果和微软这样的地位。
如果可以的话,就会是相对稳定的现金流。如果完全没法比的话,那未来增长估计就会受限制。
麻辣鸡丝22
你都那么厉害了,一年都不到就18%,请教我们这些回报率低的可怜的看法不会影响你的判断力吗?
睿 发表于 2025-04-20 11:18

我只能告诉你这是真实的。这奇怪吗?
今年在大跌前拿的比较多的商品。关税战后卖了。
大类资产配置中,先看大方向,再选细的品类。
下一个会补涨的,会是比特币。
s
suwa
华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。
shenandoah1 发表于 2025-04-20 10:56

CUDA护城河很大程度上受益于上层建筑。 Google Brain的核心产品之一Tensorflow,Hinton 因此获图灵奖和诺贝尔物理奖,好像有史以来第一位双料获奖者。Google Brain其他主要要成员有获诺贝尔奖,抢了能教授饭碗。 小扎Meta的PyTorch是另一个牛软件。 这俩全面支持CUDA。 对另一个业内标准OpenCL有限度支持。 Nvidia还有自己的TensorRT,cuDNN等。 要Google Meta 支持华为新标准不可能,除非国内牛人写个超越加州大厂,但人家大包裹不白拿。那拿大奖指日可待。
AMD Intel 资助底层Nvidia指令集转换的开源项目zLuda(贼路大),名声不好听不玩了。有报道其他厂家继续支持。
m
mise88
能說的不一定懂 懂的一定不能說
看這一串下來都沒提到HBM 和packaging 我就笑笑了
M
MegMegMeg
gpu就是显卡,古时候的老刘们以前在国内都自己组装过电脑吧?那时候显卡并不是啥高级玩意儿,印象中好像还真是默认英伟达,bottleneck主要是cpu啊多大的内存条之类,有钱人买intel,穷人买md。06年cuda弄出来就是一个显卡编译器,我的理解是当时就是给显卡的“本质工作”,就是图像显示服务的,老黄也就没有想到要像cpu编译器那样弄个兼容的—-cpu也需要编译器,但是不同厂牌都是用x86指令集,就是大家用的intel啊amd的cpu可以扯了互换,加上pc还有一层OS作为buffer,用啥cpu不影响上层软件。
现在cuda弄出来就是只能对接英伟达自己的gpu,基于此别人又发展了cuda上面的程序集pytorch这些,护城河的意思就是现在的大部分llm的源代码要在硬件上跑,都是用cuda接口,那就只能用英伟达。要用其他也可以,那得翻天覆地把整个编译模块另用intel或者amd编译器写一遍。去年英伟达因为antitrust,就是反垄断,被调查了,他们的defense是他们没有存心垄断,就是他们的产品好用,跟以前微软捆绑windows和pc销售不是一回事——这也不好说,你也可以说他们从来没有打算开发兼容的编译器,但也可以说自己产品用自己的编译器天经地义,又没逼你买。
巴菲特小号2.0
睿 发表于 2025-04-20 11:06
所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。

借个楼问问睿姐,你觉得最近大盘走势如何啊,感觉国外资本在撤退,大盘也拉不上跌不下的总是横盘,特朗普对大盘的控制力越来越弱,越来越看不清形势,是不是该撤了空仓比较好
巴菲特小号2.0 发表于 2025-04-20 13:38
借个楼问问睿姐,你觉得最近大盘走势如何啊,感觉国外资本在撤退,大盘也拉不上跌不下的总是横盘,特朗普对大盘的控制力越来越弱,越来越看不清形势,是不是该撤了空仓比较好

不马上退休的话是捞便宜的机遇,当然还可能再低,对于一般投资者用按时定投不是件坏事。
川普的确现在做一堆对美国经济不靠谱的事情,可是这也是恰恰股市反应后捞便宜的时机。经济坏到一定程度川普会反转一些政策的可能性非常大,因为是人为的熊市,所以反弹力度也会很大。按时定投可以平均买到比较便宜的价格,可是要悠着点,子弹慢慢打。
N
Namama
英伟达最大的风险,并不在中国吧?
他几乎所有的大客户,从AWS到微软到Meta到OpenAI,每一个都想搞自己的AI 芯片。。。
w
wsdada
回复 22楼 睿 的帖子
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?
p
purplerain
wsdada 发表于 2025-04-20 14:05
回复 22楼 睿 的帖子
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?

记得睿大妈很多年前就是因为不靠谱炒股在华人网闻名,但自认为是投资大牛
w
wsdada
回复 51楼 purplerain 的帖子
佩服她一无所知还信口胡诌的本事
s
shenandoah1
Namama 发表于 2025-04-20 13:59
英伟达最大的风险,并不在中国吧?
他几乎所有的大客户,从AWS到微软到Meta到OpenAI,每一个都想搞自己的AI 芯片。。。

但是现在只有华为的人工智能系统,在绝对性能上超过了英伟达。
回复 22楼 睿 的帖子
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?
wsdada 发表于 2025-04-20 14:05

你硬件基础知识不行啊,单个gpu的unit和单个cpu的core比,速度慢,功能少太多,所以一个差不多大小的芯片,cpu在里面只能有二十几个,gpu里面可以上万个。gpu是靠量大平行运行简单数学来超过cpu的,也止于简单运算。amd和intel都是白痴吗?干脆把CPU里面换成有上万个GPU芯片电脑不是更快?答案是根本不可行,因为稍微复杂一点的运算,GPU太慢!靠量速度都比不过cpu里的架构。我说的这些只有真正懂硬件的才了解各个芯片架构的长处和短处。
meta和Google还有其他巨头都开始造新一轮AI chips了,你说的三大护城河,完全都没用。
基本知识匮乏,消息也只知道一些,自己完全一个外行,不懂多补补。
w
wsdada
说你傻,还不服气。傻得这么理直气壮的也是少有 Cpu的unit和gpu的unit能是一回事?cpu架构是为逻辑运算服务,gpu架构是为并行简单数学运算服务,懂不?扯了半天,逻辑和数学混为一谈,还来讨论快慢。 你最基本的概念都不懂,讨论个锤子
说你傻,还不服气。傻得这么理直气壮的也是少有 Cpu的unit和gpu的unit能是一回事?cpu架构是为逻辑运算服务,gpu架构是为并行简单数学运算服务,懂不?扯了半天,逻辑和数学混为一谈,还来讨论快慢。 你最基本的概念都不懂,讨论个锤子
wsdada 发表于 2025-04-20 16:36

既然你都承认是简单的数学运算而已,会有啥护城河?否则为什么那么多巨头都开始做自己的AI chips?而且都去台积电定做了。clock speed gpu比cpu慢,所以单一dependent的serial calculation gpu要慢很多。这些都是上手的内行才知道那些运算要用哪个硬件,而不是瞎吹gpu.
w
wsdada
真是服了你个不懂装懂,胡搅蛮缠的锤子 简单的数学运算,和以简单数学运算为基础的大规模,高并发HPC/AI运算能是一回事?还就简单数学运算而已 你知道AI运算需要涉及TB级数据的高效读取和搬运吗?以及需要几万几十万gpu之间的高速通信吗?几十万gpu的复杂系统如何故障容错处理?cuda系统有五百万开发者,上十年的基础库积累优化,一般用户为什么要从一个成熟生态系统搬迁到一个满是bug,还在调试,各种库都欠缺的新系统上去?
真是服了你个不懂装懂,胡搅蛮缠的锤子 简单的数学运算,和以简单数学运算为基础的大规模,高并发HPC/AI运算能是一回事?还就简单数学运算而已 你知道AI运算需要涉及TB级数据的高效读取和搬运吗?以及需要几万几十万gpu之间的高速通信吗?几十万gpu的复杂系统如何故障容错处理?cuda系统有五百万开发者,上十年的基础库积累优化,一般用户为什么要从一个成熟生态系统搬迁到一个满是bug,还在调试,各种库都欠缺的新系统上去?
wsdada 发表于 2025-04-20 16:53

一般用户有选择吗?只有大厂才自己做新系统。而且大厂包揽AI市场90%至少,他们的走向才是以后AI Chips的发展方向。你只会当个英伟达发表会卖家秀的复读机。
一般行内人都知道这种scale wide, scale up的运算,在Nvidia之前在parallel computing这块就已经非常成熟了。你说的好像大型运算是Nvidia发明的一样。
Nvidia热度已经翻篇了,大家都在往后看了,你还在这里一惊一乍的,好像刚进大观园一样。
M
MegMegMeg
睿 发表于 2025-04-20 16:39
既然你都承认是简单的数学运算而已,会有啥护城河?否则为什么那么多巨头都开始做自己的AI chips?而且都去台积电定做了。clock speed gpu比cpu慢,所以单一dependent的serial calculation gpu要慢很多。这些都是上手的内行才知道那些运算要用哪个硬件,而不是瞎吹gpu.

唉,楼上说的“简单数学运算”的意思是矩阵运算,matrix A x matrix B那的确是一个简单概念,但是实际运用中的数值计算非常大的matrix,比如1m x 1m in size,平行算力要求非常高,CPU理论上那是能做,就跟愚公移山一个意思---古时候我在PC上用matlab跑一个最多 100 x 100 的矩阵乘法,经常还没跑完就宕机了。
光从投资角度来看,我个人觉得大力投资英伟达的时机已过。且不说bubble不bubble的问题,英伟达还能有一个大bump的机会比较小,现在已经被DOJ盯上antitrust issue,就意味着不能有大的收购计划,甚至拓展业务都会束手束脚。还有就是企业运营非常lean,这本来是优点,但有个门道是google meta这些大企业养一大批marketing啊talent acquisition,甚至legal team 1000多人,必要时候这些人头可以用来layoff提升股价,反正这些岗位雷了重新再招新人影响也不大。英伟达整个org有点太lean了,股价低迷的时候要靠layoff来boost就比较难。