Open AI 的研究人员在deepseek r1出来以后说ds独立发现了他们已经发现的reinforced learning 。 所以,可能本质上应该差别不大。都走到了AI recursive reason阶段。 Open AI 资源充足,底层LLM base model 可能参数更多,训练更好。所以推理端也比deepseek r1稍微领先一些。
平明寻白羽 发表于 2025-01-31 14:22 Open AI 的研究人员在deepseek r1出来以后说ds独立发现了他们已经发现的reinforced learning 。 所以,可能本质上应该差别不大。都走到了AI recursive reason阶段。 Open AI 资源充足,底层LLM base model 可能参数更多,训练更好。所以推理端也比deepseek r1稍微领先一些。
Open AI 的研究人员在deepseek r1出来以后说ds独立发现了他们已经发现的reinforced learning 。 所以,可能本质上应该差别不大。都走到了AI recursive reason阶段。 Open AI 资源充足,底层LLM base model 可能参数更多,训练更好。所以推理端也比deepseek r1稍微领先一些。 平明寻白羽 发表于 2025-01-31 14:22
平明寻白羽 发表于 2025-01-31 14:22 Open AI 的研究人员在deepseek r1出来以后说ds独立发现了他们已经发现的reinforced learning 。 所以,可能本质上应该差别不大。都走到了AI recursive reason阶段。 Open AI 资源充足,底层LLM base model 可能参数更多,训练更好。所以推理端也比deepseek r1稍微领先一些。
OpenAI用了大笔钱搞了mainframe类似,操作系统也是封闭的。类似以前的IBM。
现在Deepseek一套硬件50万刀说不定能做,操作系统免费,随着硬件价格下降,软件速度变快,慢慢说不定1万不到就能有个人AI机器,运行Deepseek或者类似的操作系统,OpenAI怎么竞争?
为了信息安全,恐怕很多家庭也不见得愿意每个月付费给OpenAI类似的公司,不如花钱买个个人AI机器,配置免费的操作系统,自己家的数据也不多,存在自己家就行,经常再更新下操作系统把最新的发展下载。
完全同意楼主的分析!
这是个思路
上升到意识形态之争的高度了。
我打赌,今年内就会有配置好deepseek的PC/Mac对消费者出售。谁抢了这个先机,说不定就是下一个苹果。
Open AI 的研究人员在deepseek r1出来以后说ds独立发现了他们已经发现的reinforced learning 。
所以,可能本质上应该差别不大。都走到了AI recursive reason阶段。 Open AI 资源充足,底层LLM base model 可能参数更多,训练更好。所以推理端也比deepseek r1稍微领先一些。
那openai应该免费赔钱抢市场,用户是有粘性的,今天赔的钱就是明天生钱的种子。
还要年底?现在已经上线了
https://www.pcworld.com/article/2593957/microsoft-ports-deepseeks-ai-to-copilot-pcs-and-their-npus.html
但是他们蹭这个热度没有用
DeepSeek. DeepSeek的根本逻辑就是反中心化的,也就是根本不依赖所谓portal或者release版本。大公司不可能把deepseek变成绑定自己产品的增值feature
这就是不要脸
你说你先发现的,你的技术报告呢?你的论文呢?最不济你的blog post呢?
什么都没有,被打脸了就出来挽尊 “儿子打老子,我们早就知道了”。
不要脸
估计速度还不行,随着硬件tailor to AI或者DS之类的open source, 速度会提高很快
DeepSeek R1 14B在配备 16GB RAM 的 M4 Pro 芯片上运行表现良好
ollama run deepseek-r1:14b
玩还行,真是工作不能只考虑价格,可靠性也很重要。 不知道花钱版的deepseek如何,免费版太卡太慢了。
你还是走错了方向
以后是你们公司自己有一个deep seek,用你们公司的domain knowledge专门training 出来的 世界上不会再有一个中心server啦
如果老公handy的话,还可以给家里弄一个你们自己的deep seek,你们夫妻自己吵架用
你们的孩子也可以自己弄一个deep seek,做自己的事,不让父母看见。
reinforcement learning 也不是什么新算法,并不是这两家发明的,只不过以前并没有用来大规模锤LLM,以为LLM一个token一个token地吐,每个token都要reinforcement learning iteratively地跑很多遍才吐的话太慢了。后来DS发现其实也不慢,一边吐一边update慢慢就不需要跑很多遍了。
我赶脚这个DS会开启一个先河,就跟山寨机一样, 胜在便宜啊,你非要说啥苹果手机通信质量高,BER小那么几个percent,绝大用户不care。所以封了AI chips export没用的,DS的小模型可以在华为上跑就够了,GPT以后的各种fancy feature,速度快那么几秒钟,大部分用户也不care。
只是run模型不是训练,并不需要速度多快,瓶颈在显存
这个是趋势。但是deepseek并没有达到那个程度