bigbright 发表于 2025-06-20 09:02回复 3楼 老魏_ 的帖子 普通人控制不了基础设施。咱聊点实用的行吗?
回复 7楼 老魏_ 的帖子 MCP, Agent, LLM, Ops这些都要有人做吧 我说的是工作方面应该学些什么,提高自我 bigbright 发表于 2025-06-20 09:07
老魏_ 发表于 2025-06-20 08:58 AI分五层,顶层应用毫无护城河,基本等死。 你以为做个App、收个订阅费,就能吃到AI红利? 对不起,这一套在AI里根本不灵。 来,我们把AI产业结构,拆开看看。 第一层,是电力、土地和数据中心。 最底层的底板,是算力的地基。 第二层,才是芯片战争的战场。 台积电、ASML、三星、英特尔,晶圆厂和巨头们的博弈; 再往上,是NVIDIA、AMD,还有训练模型的OpenAI、Anthropic这些玩家。 但往上走到顶,反而是那些看起来没什么技术含量的产品公司: 什么Cursor、Windsurf,还有各种角色AI。 他们努力复制互联网时代的打法,搞个界面,做点订阅,用增长曲线讲故事。 但真正懂的都知道,这种模式,在AI里注定走不远。 为什么?看清一件事: AI不是Web。Web世界里,一台服务器可以服务一万人。 Gmail能几十年不变,因为没人对“更好的邮件”有需求。 升级?对大多数人毫无意义。 AI完全不同。 你永远会想要更快的推理速度,更大的模型,更强的理解力。 1000个token每秒?不够。你想要的是极限性能。 而这代价极高。 你根本无法靠“一台服务器跑一万人”来撑这套产品。 所以这些App公司,其实根本没有成本结构的优势。 结果就是,价值汇聚不在最上层。 而是在中间,那些能控制芯片、控制模型的玩家身上: 当然是OpenAI、Anthropic,不是那些套壳拼UI的应用商。 早年Web时代,Zynga也风光过 最后呢?全被Facebook吞了。 Google、Meta自己做平台,把上面所有的价值都吃光了。 现在AI也会重演这场游戏: OpenAI直接推出产品或者收购你,不会让你长成独立生态。 顶层应用毫无护城河,基本等死。 更别提,这里每点一次“运行”按钮,叫的是四个GPU节点。 显卡不是你的,成本都砸在基础层。 用户月付$200,模型服务成本远超那几美金。 这不是Web,这里没有免费的午餐。 所以,别妄想做AI领域的Zynga。 真正的价值,只属于能控制基础设施的人。
另外,现在vibe coding真的很火,之前花很长时间才能做出来的东西,现在很快就能落地。比如这个找探亲或旅游同行的,只花了几十块钱一个周就上线了。我预计接下来是产品爆发的时代,难的是如何推广。这样看来是不是市场营销类的公司股票会大涨?meta, google?广告这块还有大的公司吗?
你以为做个App、收个订阅费,就能吃到AI红利? 对不起,这一套在AI里根本不灵。 来,我们把AI产业结构,拆开看看。
第一层,是电力、土地和数据中心。 最底层的底板,是算力的地基。
第二层,才是芯片战争的战场。 台积电、ASML、三星、英特尔,晶圆厂和巨头们的博弈; 再往上,是NVIDIA、AMD,还有训练模型的OpenAI、Anthropic这些玩家。
但往上走到顶,反而是那些看起来没什么技术含量的产品公司: 什么Cursor、Windsurf,还有各种角色AI。 他们努力复制互联网时代的打法,搞个界面,做点订阅,用增长曲线讲故事。 但真正懂的都知道,这种模式,在AI里注定走不远。
为什么?看清一件事: AI不是Web。Web世界里,一台服务器可以服务一万人。 Gmail能几十年不变,因为没人对“更好的邮件”有需求。 升级?对大多数人毫无意义。
AI完全不同。 你永远会想要更快的推理速度,更大的模型,更强的理解力。 1000个token每秒?不够。你想要的是极限性能。
而这代价极高。 你根本无法靠“一台服务器跑一万人”来撑这套产品。 所以这些App公司,其实根本没有成本结构的优势。
结果就是,价值汇聚不在最上层。 而是在中间,那些能控制芯片、控制模型的玩家身上: 当然是OpenAI、Anthropic,不是那些套壳拼UI的应用商。
早年Web时代,Zynga也风光过 最后呢?全被Facebook吞了。 Google、Meta自己做平台,把上面所有的价值都吃光了。
现在AI也会重演这场游戏: OpenAI直接推出产品或者收购你,不会让你长成独立生态。 顶层应用毫无护城河,基本等死。
更别提,这里每点一次“运行”按钮,叫的是四个GPU节点。 显卡不是你的,成本都砸在基础层。 用户月付$200,模型服务成本远超那几美金。
这不是Web,这里没有免费的午餐。 所以,别妄想做AI领域的Zynga。
真正的价值,只属于能控制基础设施的人。
看看马斯克在干什么。超级集群。。。
================== https://huaren.us/showtopic.html?topicid=3116466
马斯克在接受采访时透露,xAI 目前正在训练 Grok 3.5,“专注于推理能力”。
此外,马斯克还以去年搭建训练超级集群的例子,展示了xAI标志性的“第一性原理”思维和极致的执行能力。当时,供应商预估完成一个10万块H100 GPU集群需要18-24个月,但xAI必须在6个月内完成。
据 ZeroHedge 报道,xAI 正在寻求 43 亿美元的股权融资,这将与 50 亿美元的债务融资相结合,涵盖 xAI 和社交媒体平台 X。 硬件竞赛:从零到 100,000 个 GPU 的工程奇迹。
马斯克用第一性原理思维解决了AI训练中的硬件难题。当供应商告诉他们,完成10万块H100 GPU的训练超级集群需要18到24个月时,马斯克的团队将其压缩到6个月。
他们租下了位于孟菲斯的一家废弃的伊莱克斯工厂,并通过租赁发电机解决了150兆瓦的电力需求,租用了全美四分之一的移动制冷设备,并使用特斯拉Mega Packs来平滑训练过程中的电力波动。马斯克甚至亲自参与了布线工作,“睡在数据中心里”。 目前,训练中心拥有 150,000 台 H1、50,000 台 H200 和 30,000 台 GB200,第二个数据中心即将上线,拥有 110,000 台 GB200。 多重未来愿景:机器人军团、星际文明。
普通人控制不了基础设施。咱聊点实用的行吗?
没有做广告的意思,只是实话实说,举个例子。
普通人吃不到啥红利,把AI当作工具,能够学会很好的利用它就已经很不错了。
MCP, Agent, LLM, Ops这些都要有人做吧 我说的是工作方面应该学些什么,提高自我
AI是知识扩展探索器,用过一段时间现在AI的就会有体会, 人类运用AI最难的是会提问题,最起码目前LLM模型是这样
感觉你还是没明白我的问题,算了
分析的太好了 我们普通人咋办
普通人参与建议(投资+认知布局)
✅1. 投资方向:只投“控制力”而非“流量”
芯片龙头:$NVDA、$TSMC、$ASML 高性能数据中心:Equinix (EQIX)、Digital Realty Trust (DLR) AI能源基础设施:NextEra Energy ($NEE)、Tesla Megapack相关布局 如果有灰度机会,关注模型企业IPO前轮融资的二级市场交易
✅2. 参与方向:别做App,做“节约GPU的钱”
写App的人在“烧钱”,写中间件的人在“省钱”。 你做的每一个工具,要能回答一句话:“我能为某个团队,省下几千个token的推理成本吗?” AI领域未来的独角兽是:提高效率 or 降低推理成本的infra工具。
✅3. 学习方向:别学prompt,学“约束与资源管理”
Prompt engineering = 热门但低壁垒 真正有用的,是学会: 如何用少量token高效推理 如何搭建LoRA/QLoRA微调管道 如何部署模型到本地/边缘设备 如何让一个4bit模型跑在消费级硬件上
✅4. 思维方向:训练“AI时代的中层思维”
普通人别幻想控制芯片,别幻想收购公司,但可以做:
连接基础层与应用层的“桥” 帮公司/团队构建私有模型或行业垂类微调模型 懂业务逻辑 + 懂推理成本的人,未来薪资会远超全栈工程师
✅5. 认清现实:这个游戏是大宗战争,不是小而美创业天堂
“Build in public”的独立开发者热潮会像Zynga那样被迅速吞并 小模型跑在边缘设备上有前景,但除非你能打价格战或绑定专属语料,否则注定被抄 AI未来的自由人=能跑自己的推理堆栈 + 有独特领域knowhow 的人
厉害的人可以做ai startup 做一些你niche market的应用 不要做面向所有人的应用 比如fireflies.ai 指的也是meeting note taking 但是专攻印度人口音
Mark!!