DeepSeek stole the AI thunder:- with zero hype from CEO, - zero "omg guys it changez everythin" influencers - no swanky demos - no bloated promises- no hints at "AGI achieved internally"They did it by shipping an actual product. pic.twitter.com/QdZmQycQ7T — Michael Kove (@michael_kove) January 20, 2025
anw 发表于 2025-01-21 19:46 Open AI 是大骗子,这个是小骗子,一丘之貉
raindrop2020 发表于 2025-01-21 19:48 这个好在哪儿?
layjohns 发表于 2025-01-21 19:58 好像最大的区别是,这个重新设计,只需要相对较少的AI芯片就训练出了很牛逼的大模型。感觉这东西给女大的冲击也不小吧,AI公司没必要拼命砸钱堆海量硬件
thymesu 发表于 2025-01-21 20:17 Deepseek 首页有和其它工具的对比数据,有些比较专业,看不懂。 听宣传说他们用的资源能源要少很多。 我只用过编程这块,没有试很多,感觉deepseek给的答案稍更适合我的期望。
张嘴就来啊。你是搞AI的?不懂就闭嘴,别在网上乱说话。 国产大模型这几年厚积薄发,前有deepseek 后有Minimax,特别争气。这几年国产大模型会大放异彩。 LifeIsTricky 发表于 2025-01-21 19:53
公用马甲6 发表于 2025-01-21 20:59 刚才让deepseek做了一道工程力学物理题,答案竟然与chatGPT错成一样!
shanggj 发表于 2025-01-21 21:05回复 1楼 Riverss 的帖子 怎么界面和 chatgpt 一摸一样的
shanggj 发表于 2025-01-21 20:59 什么题?
genie05 发表于 2025-01-21 22:11 不是之前有人说问了五次,四次Deepseek都说自己是Chatgpt吗 不知道真假
shanggj 发表于 2025-01-21 22:38 刚试了一下, 还居然是真的。
xiaojiejie 发表于 2025-01-21 20:06 吹得以为超越chatgpt了,结果用了一下,发现也就是一copilot的水平。
neolith2000 发表于 2025-01-21 22:40 这有啥奇怪的,训练的语料里都是ChatGPT。 这又不是符号模型。
shanggj 发表于 2025-01-21 22:45 我问你是美国研发的 还是中国研发的。 它回答我是 OpenAI 研发的
neolith2000 发表于 2025-01-21 22:49 这样的大模型,没有经过人工对这个问题强化学习,出现这样的情况很正常
为什么会有人总喜欢在自己不熟悉的领域乱发言呢 giver2021 发表于 2025-01-21 22:43
我问你是美国研发的 还是中国研发的。 它回答我是 OpenAI 研发的 shanggj 发表于 2025-01-21 22:45
Namama 发表于 2025-01-22 00:23 AI到处抓数据训练,如果没有人工后期调整,时不时就会出这样的问题。。 谷歌的AI当初也一度认为自己是百度的文心一言 说到底,现在的AI还没有真正的智慧和理解,只会抓取大数据里各个词汇之间的关联性
半个马和甲 发表于 2025-01-22 01:41 国人有个超能力我真的服 啥玩意儿经过他们的手,都可以开发出(卷出)白菜价! (成本大大的降低).
系统提示:若遇到视频无法播放请点击下方链接
https://x.com/michael_kove/status/1881467890475606386
中国的是免费的,能骗了你什么?
张嘴就来啊。你是搞AI的?不懂就闭嘴,别在网上乱说话。
国产大模型这几年厚积薄发,前有deepseek 后有Minimax,特别争气。这几年国产大模型会大放异彩。
好像最大的区别是,这个重新设计,只需要相对较少的AI芯片就训练出了很牛逼的大模型。感觉这东西给女大的冲击也不小吧,AI公司没必要拼命砸钱堆海量硬件
我也听说是利空女大,新技术不需要那么多芯片
用2048块H800显卡、耗时两个月,训出了一个6710亿参数的DeepSeek-V3。感觉有点类似华为手机,就是硬件因为现实条件受限,但是通过优化底层系统软件算法等来提升整体性能。
无知者无畏 openai你估计连二十块一个月的费用都舍不得交
可能有无穷尽的可能路径。openai / google / meta 可以train 出来。 meta 公开如何 train 的 这条路。deepseek 优化了这条路。但不能说明 deep seek 的方法可以从无数的可能性中发现一条成功的路。
所以老黄继续点钱。
同样性能,成本下降9成多
DeepSeek 在各项指标上达到或超过 OpenAI 的模型。更厉害的是,只用了5%的算力。也就是别人用1000块芯片的,它只用50块。
国内同学说 DeepSeek 的 lead 是英伟达出来的,公司本身是做量化的
什么题?
怎么界面和 chatgpt 一摸一样的
chatgpt啥界面?不就是google,bing search界面吗?现在不就流行这种简单界面吗,还是你想说抄袭?这是开源的
就是这道题,你看看答案是多少?
chatgpt 答案如下
deepseek 答案如下
是真的。正常的。专业人士在这个问题上都不吐槽。
刚试了一下, 还居然是真的。
这有啥奇怪的,训练的语料里都是ChatGPT。
这又不是符号模型。
你知道国内这个投资才几个钱吗?几百万美元而已, 你这copilot水平的批评, 简直就是赞美了好不好?
我问你是美国研发的 还是中国研发的。 它回答我是 OpenAI 研发的
这样的大模型,没有经过人工对这个问题强化学习,出现这样的情况很正常
嗯, 有趣
因为有些人AI是外行 带节奏踩中国这事, 它们是专业的
呵呵,又是一个癞蛤蟆打呵欠,好大的口气。给你两个numbers好好感受一下吧,
deepseek:2048 GPUs
LLaMA: 16K GPUs
你别告诉我你都不知道Llama是什么。如果这都不知道,你还好意思说这些都只是copilot。
最牛的是,deepseek 开源!虽然它是用的OpenAI models 的output 来训练的(所以它说自己是ChatGPT或者它是OpenAI研发的,没毛病),但它开源了!以后会有更多大模型可以达到和ChatGPT 同样的效果但比它便宜十倍、一百倍、一千倍,甚至免费。你就说这个copilot 牛不牛?
😂
AI到处抓数据训练,如果没有人工后期调整,时不时就会出这样的问题。。
谷歌的AI当初也一度认为自己是百度的文心一言
说到底,现在的AI还没有真正的智慧和理解,只会抓取大数据里各个词汇之间的关联性
Deepseek是用的OpenAI models output 训练的,不是自己在网上重新抓数据训练。人工后期调整这是外行话。现在的大模型的参数基本都是billion级,很难人工调整。parameter tuning 老黄历了。
啥玩意儿经过他们的手,都可以开发出(卷出)白菜价!
(成本大大的降低).
我们行业,近年来基于AI的技术是最热门,论文大部分来自于中国和美国,而美国的那些文章,又大部分来自于华裔教授的lab,做的是老钟博士。。