唉,楼上说的“简单数学运算”的意思是矩阵运算,matrix A x matrix B那的确是一个简单概念,但是实际运用中的数值计算非常大的matrix,比如1m x 1m in size,平行算力要求非常高,CPU理论上那是能做,就跟愚公移山一个意思---古时候我在PC上用matlab跑一个最多 100 x 100 的矩阵乘法,经常还没跑完就宕机了。 光从投资角度来看,我个人觉得大力投资英伟达的时机已过。且不说bubble不bubble的问题,英伟达还能有一个大bump的机会比较小,现在已经被DOJ盯上antitrust issue,就意味着不能有大的收购计划,甚至拓展业务都会束手束脚。还有就是企业运营非常lean,这本来是优点,但有个门道是google meta这些大企业养一大批marketing啊talent acquisition,甚至legal team 1000多人,必要时候这些人头可以用来layoff提升股价,反正这些岗位雷了重新再招新人影响也不大。英伟达整个org有点太lean了,股价低迷的时候要靠layoff来boost就比较难。
如果中国开始大量用国产替代,长期而言,对英伟达会不会是比较大的威胁?
版上有了解芯片行业的朋友们,可以聊一下英伟达的护城河吗?
对英伟达来说,最大的风险是别的国家的客户开始使用中国的系统。
这个风险很小,一般为美国一忽悠一吓唬都不敢用了
要是英伟达贵的gpu2万美元一个,中国的1千美元呢?
而且在国外造AI数据中心目前已经好像已经短期饱和。微软砍了3个AI数据中心的建造。英伟达股价开始跌不是没有道理。
4月11日,中国半导体协会发文称,根据海关总署的相关规定,“集成电路”流片地认定为原产地,中国半导体协会建议企业在进口集成电路时,进口报关原产地以“晶圆流片工厂”所在地为准进行申报。
这一消息令国产芯片厂商股价大涨。截至当天收盘,凯德石英(835179.SZ)30%涨停,晶华微(688130.SH)、唯捷创芯(688153.SH)等多股20%涨停。
光大证券研报称,中美持续性高关税将推动半导体国产替代加速。首先,以流片地认证原产地,美系IDM厂商竞争力受损,利好国内CPU、存储、模拟、射频、功率类厂商。
新规发布前,美国流片生产的半导体若在东南亚或中国封装测试,原产地可按照“封装地”认定,但明确原产地按“流片地”后,美系IDM厂商价格竞争力下降,包含CPU厂商英特尔、模拟厂商ADI和德州仪器、射频厂商Qorvo、存储厂商美光科技、功率厂商安森美半导体等,利好国内相关厂商加速国产替代。
其次,美国芯片制造回流战略被打乱,利好中国成熟制程晶圆代工厂。
若中国关税反制政策长期存在,一方面国产模拟、功率、射频厂商竞争力增强,为晶圆厂的成熟制程带来更多订单;另一方面,美系IDM厂商有望从美国流片转向中国晶圆厂代工,以规避中国加征关税影响。
36氪获悉,近日,国际半导体研究和咨询机构SemiAnalysis发布专题报道称,华为云最新推出的AI算力集群解决方案CloudMatrix 384(以下简称CM384),在多项关键指标上实现对英伟达旗舰产品GB200 NVL72的超越。据SemiAnalysis披露,华为云CM384基于384颗昇腾芯片构建,通过全互连拓扑架构实现芯片间高效协同,可提供高达300 PFLOPs的密集BF16算力,接近达到英伟达GB200 NVL72系统的两倍。
偷偷摸摸地用就是了,都是远程云计算,很难跟踪谁在用。
华为的是真的可以在性价比上比英伟达好很多吗?
Cuda的护城河不知怎么样。
不知道这个行业的竞争和护城河怎样?
一方面是竞争;
另一方面是投资端的降低。
感觉算力相关产品的选择,主要是性价比的考虑。
英伟达短期和长期在这方面的优势怎样?
特斯拉的市盈率极高。但是英伟达目前的市盈率其实并不高。远期市盈率才23.
和特斯来的100多那是差非常多啊。
人家叫CUDA
小公司可以这么搞,大公司需要的多,没法长期隐瞒,而且风险太大。
哈哈,刚发现打错了
那CUDA的护城河,有哪些风险呢?
AI GPU没啥护城河,就是一堆非常低阶的超慢CPU堆在一起就叫做AI GPU了,量大管饱。英伟达最好的Blackwell也只是5nm,华为的是7nm,都是同样在堆transistor,区别不是太大。
对于真正开发AI的公司来说,换一个library做运算不难。只是matrix在GPU上运算而已。cuda主要是研发阶段可以马上用,所以大量的研究生都在用,可是到了公司这一块就不一样了,谷歌,Meta,DeepSeek都有自己独特的运算,而且都有不是英伟达的gpu硬件。
主要应该是软件服务行程的护城河吧?可以理解成和微软以及苹果类似。
英伟达和微软商业模式的相似趋势 1. 从卖产品到卖平台和服务 微软: 以前以一次性卖Windows、Office软件为主,现在主力是Azure云服务、Office 365订阅、GitHub、AI平台等,变成“平台+订阅+云”模式。 英伟达: 过去以卖GPU为主,现在逐步转向“GPU硬件+AI开发平台(CUDA、AI Enterprise)+云服务(DGX Cloud、Omniverse Cloud)+订阅/授权”模式。 2. 云服务和平台化成为收入核心 微软: Azure(云计算)、Office 365(SaaS)、Copilot(AI助手)等云端订阅服务成为公司增长主力。 英伟达: 正在推动GPU算力云服务(DGX Cloud)、AI模型即服务(Foundry)、AI平台订阅(AI Enterprise),让企业不用自建GPU集群,直接按需订阅使用。 3. 开发者/企业生态绑定 微软: 通过开发者工具(Visual Studio、GitHub)、API、平台标准,锁定开发者和企业用户。 英伟达: 通过CUDA、cuDNN、TensorRT等AI开发工具链,绑定开发者和企业AI项目,“一旦上车,很难下车”。 4. 持续性收入、利润率更高 微软: 订阅/云服务模式带来稳定、可持续的高利润收入,摆脱单一产品周期的波动。 英伟达: 软件和云服务订阅带来长期收入,毛利率显著高于硬件,抗周期能力更强。
cuda已经在另一个贴说过了。云计算,软件,网站应用大同小异,换一个根本不影响。和你去不同网站购物一样。
AI回答在这方面很差劲的。我小孩大学功课AI都回答不对。大家都还是老老实实自己做。现在AI水平问题稍微复杂点根本不能解。
华为最新的AI建模系统,已经在性能上超过了英伟达性能最好的系统。
英伟达的CUDA影响力虽然大,但华为的CANN也不错。生态这东西,用得人多了,自然就好了,哈哈,就象MacOS对Windows。
1. “换个library就能兼容”的说法,为什么会有? 理论上:如果只是“矩阵乘法/卷积/线性代数”这些基本运算,现代AI框架本来就可以抽象化处理,底层只要有高效的实现,调用哪个库本质无区别。 **主流AI框架(如PyTorch、TensorFlow)**已经支持多种后端,可以“切换”到AMD ROCm、华为CANN、甚至CPU等不同硬件。 2. 现实中,真的那么容易吗? A. 技术门槛和实际难度 高级功能和优化:基础的矩阵乘法好兼容,但很多AI最新研究、工业级大模型训练需要用到复杂的自定义算子、稀疏运算、混合精度、分布式策略、异步调度、异构调优等,这些都严重依赖CUDA生态的深度优化。 底层依赖广泛:很多“库”并不是只调用几个矩阵操作,而是深度集成了NVIDIA的cuDNN、cuBLAS、NCCL、TensorRT等大量闭源/专有优化库。 生态和第三方兼容:成千上万的第三方工具、插件、开源项目、论文代码都只保证在NVIDIA CUDA下能跑,移植到别的平台通常要花很多时间debug和适配,有时甚至跑不通。 B. 工业级需求 **大公司(Google、Meta)**确实有能力自研底层加速库,甚至自己设计AI芯片(TPU、MTIA)。 但绝大多数公司和创业团队没这个资源和能力,只能依赖主流框架和NVIDIA生态。 大公司也不是完全放弃NVIDIA,比如Google虽然有TPU,但GCP依然大规模采购NVIDIA GPU,Meta自研MTIA但还是大量用NVIDIA。 自研芯片和底层库的门槛极高,要有专门的软硬件团队、长期资源投入,一般公司做不到。 C. 开发者和团队效率 研发阶段用NVIDIA,虽然你说“研究生都在用”,但企业招人、开发、迭代也离不开NVIDIA生态。新员工培训、社区支持、现成代码复用都离不开CUDA生态。 迁移成本高:不是不能换,而是要花很多“隐性成本”(调试、重写、性能对齐、团队磨合),时间和人力消耗巨大。 3. 为什么谷歌、Meta、DeepSeek能不用NVIDIA? 这些公司有极强的软硬件研发实力和资金,可以自己开发芯片(TPU、MTIA等),自己维护全套加速库,不依赖社区和外部支持。 但这不是大多数AI公司能做到的,尤其是中小企业和快速迭代团队。
GPT 4.1这么说的: 你的这段话提出了两层观点,每一层都很有讨论价值。下面我来拆解分析,帮你客观看待这类说法是否成立:
1. “华为AI建模系统已经在性能上超过了英伟达” 这句话有一定道理,但要看具体语境和测试对象: 局部场景可能成立: 华为昇腾(Ascend)/鹏程芯片+CANN在某些特定任务(如推理、部分训练场景、国产AI大模型的定制化优化)上,有时能实现性能超越英伟达部分GPU,尤其在国产软硬件深度协同、软件堆栈全链路优化的情况下。 行业顶级水平对比还需谨慎: 真正意义上的“全面超越”——比如大规模分布式训练、通用AI框架兼容性、极限算力和能效——目前主流测试(如MLPerf等国际权威AI基准)上,英伟达H100、B100等旗舰产品整体性能和生态成熟度依然更强。 数据来源和测试标准要细究: 有些“超越”是厂商内部测试或特定优化场景下的数据,并非国际通用标准或大规模商用环境下的真实对比。 小结:
华为AI芯片和系统在国内场景进步很大,某些任务性能可比肩甚至超越部分英伟达产品,但在全球最顶级AI算力、生态广度和通用性上,还没到“全面超越”的地步。
2. “生态这东西,用得人多了,自然就好了” 这句话有一定道理,但现实远比想象中复杂: 生态确实能“养”出来: 只要有足够的市场需求和政策支持,开发者和企业大量投入,生态可以逐步成长壮大。比如中国国产AI芯片生态正在快速追赶,CANN、MindSpore等也有越来越多的开发者和应用支持。 路径依赖和惯性很强: CUDA生态经过十多年积累,拥有海量代码、论文、工具、社区、教程、人才储备,“迁移”不是一朝一夕的事情。MacOS虽然体验不错,但Windows生态的惯性让很多行业和场景依然离不开Windows。 生态不是单靠“人多用”就能一夜逆转: 需要开发者长期投入、工具链完善、社区活跃、第三方服务配套、硬件更新迭代等多重因素共同作用。即使有政策和产业资金支持,生态崛起也需要时间、耐心和持续投入。 两极分化现象常见: 比如中国市场,华为AI芯片生态发展很快,在政策和市场双重推动下,未来有可能建立起与CUDA生态并行的“局部主流”。但全球范围内,CUDA优势仍然稳固。 小结:
生态确实可以“养”出来,但“养”成主流需要时间、持续投入,以及关键转折点(如市场强烈需求、政策红利、关键技术突破等)。
3. 用MacOS对Windows的类比 这个类比很贴切: MacOS和Windows在体验和技术上各有千秋,MacOS生态也在壮大,但Windows依靠早期积累和生态惯性,依然是主流。AI芯片领域目前也是类似局面——华为生态进步快,但英伟达的“Windows”地位短期内难以撼动。 总结观点 你说的这些观点在一定语境下有道理,尤其是在中国市场和特定AI场景下。 但要实现“全面超越”和生态大逆转,还需要时间和巨大的产业投入。生态的建立不是简单“人多用”就能一夜成功,而是长期积累和多方协作的结果。
英伟达的护城河就是台积电和ASML 软件公司本质都是marketing公司,没啥真正技术门槛,包括所谓的cuda生态
那得看什么程度的威胁喽
奔着弄死英伟达的威胁? 不可能,英特尔这鸟样都能苟活着,更何况英伟达
奔着一统天下千秋万代?不可能, 怎么跟黄毛狗思路一样,觉得曾经拿个第一,就要永远躺平天下第一,别人不准曹越
英伟达发展到现在,完全没有竞争对手的也就这么几年时间, 竞争是常态,没有竞争才是暂时的
股价是 price in 没有竞争天下无敌额千秋万代, 但是现实必定会mean reversion
是这样,但现在华为太猛了,愣是拖着中芯去和英伟达台积电硬扛。
别一直贴AI回答好不好,如果不用脑子一直看AI回答根本就是看历史,根本没有任何帮助。未来趋势都说了大公司都在跳脱英伟达的框架,中小AI公司在AI生态圈里占市场百分之多少?10%都没有吧。
来自GPT 4.1的说法:
1. 英伟达的护城河就是台积电和ASML,对吗? 结论: 这个说法有一定道理,但非常片面,甚至可以说是“只看到了表面,忽略了核心竞争力”。
详细分析: 台积电和ASML的确重要 英伟达的高端GPU(如H100、B100)都是台积电最先进制程制造的,没有台积电5/4/3nm工艺,英伟达确实做不出全球最强芯片。 ASML的EUV光刻机是先进制程的“卡脖子”设备,没有ASML,台积电的最先进产能也造不出来。 但台积电/ASML并不是英伟达独有的资源 苹果、AMD、高通等很多芯片公司同样用台积电和ASML的产能,甚至有些产品优先级更高(如苹果A系列、M系列)。 如果只靠台积电/ASML,英伟达不会有独特护城河,大家都能“买同一块砖”,为啥只有英伟达能做到超高毛利和市场份额? 英伟达的真正护城河在于: 芯片架构与设计能力(如Transformer优化、HBM堆叠、NVLink等) 软硬件协同(CUDA、cuDNN、TensorRT、NCCL等) 开发者生态网络和产业链绑定 市场先发和品牌影响力 解决方案和平台(如DGX、Omniverse、AI Cloud) 台积电/ASML是产业基础,但不是英伟达独享,也不是其唯一壁垒。 真正让英伟达脱颖而出的是“软硬一体的产业规模效应、开发者生态和技术创新速度”。 2. 软件公司本质都是marketing公司,没啥真正技术门槛,包括cuda生态? 结论: 这个说法过于轻视软件技术的门槛,容易让非行业人士误判现实。
详细分析: 软件公司需要强大的市场能力,但绝非“只有市场” 微软、Adobe、苹果、英伟达等巨头,之所以能长期领先,最核心的其实还是技术壁垒+生态网络效应,而不是单纯靠市场推广。 CUDA生态的门槛极高 CUDA不是“写个库”而已,而是十几年软硬件深度协同、上万开发者和无数科研团队持续迭代和优化的成果。 包含底层驱动、编译器、分布式通信、数值库、自动调优、第三方插件、文档、社区、人才等完整体系。 你可以尝试将大规模开源AI模型(如Llama、Stable Diffusion)在非CUDA平台上跑一跑,就知道“兼容”到底有多难。 生态迁移的“惯性”本身就是技术与市场共同作用的结果 你可以把生态理解为一种“复合壁垒”,里面有核心算法、性能优化、开发者习惯、社区支持、历史代码资产等,远非换个logo或营销就能颠覆。 一句话总结 台积电和ASML固然重要,但英伟达的核心护城河是软硬件协同、生态锁定和技术创新。软件生态(如CUDA)是巨大的技术门槛和产业壁垒,绝不是“靠营销就能做起来”。
GPT 对于技术的掌握,比一般个体是要好很多的吧?
当然,业内专业人士,可以一眼批判性辨别,普通人不容易。
所以问题的关键就是,跳脱英伟达的框架,是否容易,有多容易,需要多少成本。
所以为什么不是专业人士炒股总是亏钱,看到的都是慢好几拍的现象。靠ChatGPT也没用。
还得看,跳脱英伟达的框架的代价,比被美国随时卡脖子的代价, 哪个大
以前这个比较不存在
现在这是现实的问题
这也是华为芯片发展的空间
和炒股比较没什么意义吧?
回到投资(我从来不用炒股两个字),我今年的year to day都是18%多,当然不能和大牛比。
任何学习都是从一点点开始的。谁一生下来就是什么都懂呢?AI是学习的重要工具。之所以贴上来,就是想着,AI说的可能是错的。板上的牛人们多,也很感恩包容不吝赐教的朋友们。
那其实就是中国和其他国家的生态系统的区别。
让其他国家,用华为的,可能他们会觉得风险大。
你都那么厉害了,一年都不到就18%,请教我们这些回报率低的可怜的看法不会影响你的判断力吗?
这个确实是。
就是不知道能不能形成苹果和微软这样的地位。
如果可以的话,就会是相对稳定的现金流。如果完全没法比的话,那未来增长估计就会受限制。
我只能告诉你这是真实的。这奇怪吗?
今年在大跌前拿的比较多的商品。关税战后卖了。
大类资产配置中,先看大方向,再选细的品类。
下一个会补涨的,会是比特币。
CUDA护城河很大程度上受益于上层建筑。 Google Brain的核心产品之一Tensorflow,Hinton 因此获图灵奖和诺贝尔物理奖,好像有史以来第一位双料获奖者。Google Brain其他主要要成员有获诺贝尔奖,抢了能教授饭碗。 小扎Meta的PyTorch是另一个牛软件。 这俩全面支持CUDA。 对另一个业内标准OpenCL有限度支持。 Nvidia还有自己的TensorRT,cuDNN等。 要Google Meta 支持华为新标准不可能,除非国内牛人写个超越加州大厂,但人家大包裹不白拿。那拿大奖指日可待。
AMD Intel 资助底层Nvidia指令集转换的开源项目zLuda(贼路大),名声不好听不玩了。有报道其他厂家继续支持。
看這一串下來都沒提到HBM 和packaging 我就笑笑了
现在cuda弄出来就是只能对接英伟达自己的gpu,基于此别人又发展了cuda上面的程序集pytorch这些,护城河的意思就是现在的大部分llm的源代码要在硬件上跑,都是用cuda接口,那就只能用英伟达。要用其他也可以,那得翻天覆地把整个编译模块另用intel或者amd编译器写一遍。去年英伟达因为antitrust,就是反垄断,被调查了,他们的defense是他们没有存心垄断,就是他们的产品好用,跟以前微软捆绑windows和pc销售不是一回事——这也不好说,你也可以说他们从来没有打算开发兼容的编译器,但也可以说自己产品用自己的编译器天经地义,又没逼你买。
借个楼问问睿姐,你觉得最近大盘走势如何啊,感觉国外资本在撤退,大盘也拉不上跌不下的总是横盘,特朗普对大盘的控制力越来越弱,越来越看不清形势,是不是该撤了空仓比较好
不马上退休的话是捞便宜的机遇,当然还可能再低,对于一般投资者用按时定投不是件坏事。
川普的确现在做一堆对美国经济不靠谱的事情,可是这也是恰恰股市反应后捞便宜的时机。经济坏到一定程度川普会反转一些政策的可能性非常大,因为是人为的熊市,所以反弹力度也会很大。按时定投可以平均买到比较便宜的价格,可是要悠着点,子弹慢慢打。
他几乎所有的大客户,从AWS到微软到Meta到OpenAI,每一个都想搞自己的AI 芯片。。。
这个睿是干嘛的?一眼看上去就是个外行,胡说八道个不停。 AI GPU没有护城河?超慢的"cpu“堆一起就是GPU? CPU和GPU的概念都搞不清就来发表评论,服了。 英伟达的三大护城河,gpu硬件,gpu互联,cuda生态,每一项都是迄今还是遥遥领先。到这个睿嘴里,华为才刚出个910b, 910c就已经实现替代了?真是胡扯。硬件出来,不需要各层软件适配的?这么容易替代,国内各大厂今年原本计划开支的150亿美元买NVDA的H20又是为啥?
记得睿大妈很多年前就是因为不靠谱炒股在华人网闻名,但自认为是投资大牛
佩服她一无所知还信口胡诌的本事
但是现在只有华为的人工智能系统,在绝对性能上超过了英伟达。
你硬件基础知识不行啊,单个gpu的unit和单个cpu的core比,速度慢,功能少太多,所以一个差不多大小的芯片,cpu在里面只能有二十几个,gpu里面可以上万个。gpu是靠量大平行运行简单数学来超过cpu的,也止于简单运算。amd和intel都是白痴吗?干脆把CPU里面换成有上万个GPU芯片电脑不是更快?答案是根本不可行,因为稍微复杂一点的运算,GPU太慢!靠量速度都比不过cpu里的架构。我说的这些只有真正懂硬件的才了解各个芯片架构的长处和短处。
meta和Google还有其他巨头都开始造新一轮AI chips了,你说的三大护城河,完全都没用。
基本知识匮乏,消息也只知道一些,自己完全一个外行,不懂多补补。
既然你都承认是简单的数学运算而已,会有啥护城河?否则为什么那么多巨头都开始做自己的AI chips?而且都去台积电定做了。clock speed gpu比cpu慢,所以单一dependent的serial calculation gpu要慢很多。这些都是上手的内行才知道那些运算要用哪个硬件,而不是瞎吹gpu.
一般用户有选择吗?只有大厂才自己做新系统。而且大厂包揽AI市场90%至少,他们的走向才是以后AI Chips的发展方向。你只会当个英伟达发表会卖家秀的复读机。
一般行内人都知道这种scale wide, scale up的运算,在Nvidia之前在parallel computing这块就已经非常成熟了。你说的好像大型运算是Nvidia发明的一样。
Nvidia热度已经翻篇了,大家都在往后看了,你还在这里一惊一乍的,好像刚进大观园一样。
唉,楼上说的“简单数学运算”的意思是矩阵运算,matrix A x matrix B那的确是一个简单概念,但是实际运用中的数值计算非常大的matrix,比如1m x 1m in size,平行算力要求非常高,CPU理论上那是能做,就跟愚公移山一个意思---古时候我在PC上用matlab跑一个最多 100 x 100 的矩阵乘法,经常还没跑完就宕机了。
光从投资角度来看,我个人觉得大力投资英伟达的时机已过。且不说bubble不bubble的问题,英伟达还能有一个大bump的机会比较小,现在已经被DOJ盯上antitrust issue,就意味着不能有大的收购计划,甚至拓展业务都会束手束脚。还有就是企业运营非常lean,这本来是优点,但有个门道是google meta这些大企业养一大批marketing啊talent acquisition,甚至legal team 1000多人,必要时候这些人头可以用来layoff提升股价,反正这些岗位雷了重新再招新人影响也不大。英伟达整个org有点太lean了,股价低迷的时候要靠layoff来boost就比较难。