DeepSeek新模型大揭秘,为何它能震动全球AI圈

今日头条
Toutiao
最新回复:2025年1月28日 14点2分 PT
  返回列表
46704 阅读
21 评论
AI未来指北

时隔不到一个月,DeepSeek 又一次震动全球AI圈。

去年 12 月, DeepSeek 推出的 DeepSeek-V3在全球AI领域掀起了巨大的波澜,它以极低的训练成本,实现了与GPT-4o和Claude Sonnet 3.5 等顶尖模型相媲美的性能,震惊了业界。腾讯科技曾对此模型进行了深度拆解,用最简单直白的方法,解读了它能够同时实现低成本和高效能的技术背景。

和上次不同的是,这次推出的新模型 DeepSeek-R1不仅成本低,更是在技术上有了大幅提升,而且,还是一个开源模型。

这款新模型延续了其高性价比的优势,仅用十分之一的成本就达到了GPT-o1级别的表现。

所以,很多业内人士甚至喊出了“DeepSeek接班OpenAI”的口号,更多人将目光聚焦在其训练方法方面的突破。

比如,前Meta AI工作人员、知名AI论文推特作者Elvis就强调,本篇DeepSeek-R1的论文堪称瑰宝,因为它探索了提升大语言模型推理能力的多种方法,并发现了其中更明确的涌现特性

另一位AI圈大V Yuchen Jin则认为,DeepSeek-R1论文中提出的,模型利用纯RL方法引导其自主学习和反思推理这一发现,意义非常重大。

英伟达GEAR Lab项目负责人Jim Fan在推特中也提到了,DeepSeek-R1用通过硬编码规则计算出的真实奖励,而避免使用任何 RL 容易破解的学习奖励模型。这使得模型产生了自我反思与探索行为的涌现。

因为这些极其重要的发现都被DeepSeek-R1完全开源,Jim Fan 甚至认为,这本来是OpenAI应该做的事。

那么问题来了,他们所提到纯RL方法训练模型是指什么?模型出现的“Aha moment”又凭什么能证明AI具有了涌现能力?我们更想知道的是,DeepSeek-R1的这一重要创新对于AI领域未来的发展,究竟意味着什么?

用最简单的配方,回归最纯粹的强化学习

在o1推出之后,推理强化成了业界最关注的方法。

一般来说,一个模型在训练过程中会尝试一种固定训练方法来提升推理能力。

而DeepSeek团队在R1的训练过程中,直接一次性实验了三种截然不同的技术路径:直接强化学习训练(R1-Zero)、多阶段渐进训练(R1)和模型蒸馏,还都成功了。多阶段渐进训练方法和模型蒸馏都包含着很多创新意义元素,对行业有着重要影响。

其中最让人激动的,还是直接强化学习这个路径。因为DeepSeek-R1是首个证明这一方法有效的模型。

我们先来了解一下,训练AI的推理能力传统的方法通常是什么:一般是通过在SFT(监督微调)加入大量的思维链(COT)范例,用例证和复杂的如过程奖励模型(PRM)之类的复杂神经网络奖励模型,来让模型学会用思维链思考。

甚至会加入蒙特卡洛树搜索(MCTS),让模型在多种可能中搜索最好的可能。

(传统的模型训练路径)

但DeepSeek-R1 Zero选择了一条前所未有的路径“纯”强化学习路径,它完全抛开了预设的思维链模板(Chain of Thought)和监督式微调(SFT),仅依靠简单的奖惩信号来优化模型行为。

这就像让一个天才儿童在没有任何范例和指导的情况下,纯粹通过不断尝试和获得反馈来学习解题。

DeepSeek-R1 Zero 有的只是一套最简单的奖励系统,来激发AI的推理能力。

这个规则就两条:

1.准确性奖励:准确性奖励模型评估响应是否正确。对了就加分,错了扣分。评价方法也很简单:例如,在具有确定性结果的数学问题中,模型需要以指定格式(如和间)提供最终答案;对于编程问题,可以使用编译器根据预定义的测试用例生成反馈。

2.格式奖励:格式奖励模型强制要求模型将其思考过程置于和标签之间。没这么做就扣分,做了就加分。

为了准确观察模型在强化学习(RL)过程中的自然进展,DeepSeek甚至有意将系统提示词仅约束限制在这种结构格式上,来避免任何内容特定的偏见——例如强制让模型进行反思性推理或推广特定的问题解决策略。

(R1 Zero的系统提示词)

靠着这么一个简单的规则,让AI在GRPO(Group Relative Policy Optimization)的规则下自我采样+比较,自我提升。

GRPO的模式其实比较简单,通过组内样本的相对比较来计算策略梯度,有效降低了训练的不稳定性,同时提高了学习效率。

简单来说,你可以把它想象成老师出题,每道题让模型同时回答多次,然后用上面的奖惩规则给每个答案打分,根据追求高分、避免低分的逻辑更新模型。

这个流程大概就是这样的:

输入问题 → 模型生成多个答案 → 规则系统评分 → GRPO计算相对优势 → 更新模型。

这种直接训练方法带来了几个显著的优势。首先是训练效率的提升,整个过程可以在更短的时间内完成。其次是资源消耗的降低,由于省去了SFT和复杂的奖惩模型,计算资源的需求大幅减少。

更重要的是,这种方法真的让模型学会了思考,而且是以“顿悟”的方式学会的。

用自己的语言,在“顿悟”中学习

我们是怎么看出模型在这种非常“原始”的方法下,是真的学会了“思考”的呢?

论文记录了一个引人注目的案例:在处理一个涉及复杂数学表达式 √a - √(a + x) = x 的问题时,模型突然停下来说"Wait, wait. Wait. That's an aha moment I can flag here"(等等、等等、这是个值得标记的啊哈时刻),随后重新审视了整个解题过程。这种类似人类顿悟的行为完全是自发产生的,而不是预先设定的。

这种顿悟往往是模型思维能力跃升的时刻。

因为根据DeepSeek的研究,模型的进步并非均匀渐进的。在强化学习过程中,响应长度会出现突然的显著增长,这些"跳跃点"往往伴随着解题策略的质变。这种模式酷似人类在长期思考后的突然顿悟,暗示着某种深层的认知突破。

在这种伴随着顿悟的能力提升下,R1-Zero在数学界享有盛誉的AIME竞赛中从最初的15.6%正确率一路攀升至71.0%的准确率。而让模型对同一问题进行多次尝试时,准确率甚至达到了86.7%。这不是简单的看过了就会做了——因为AIME的题目需要深度的数学直觉和创造性思维,而不是机械性的公式应用。模型基本必须能推理,才可能有这样的提升。

另一个模型确实通过这种方法学会了推理的另一个核心证据,是模型响应长度会根据问题的复杂度自然调节。这种自适应行为表明,它不是在简单地套用模板,而是真正理解了问题的难度,并相应地投入更多的"思考时间"。就像人类面对简单的加法和复杂的积分会自然调整思考时间一样,R1-Zero展现出了类似的智慧。

最有说服力的或许是模型展现出的迁移学习能力。在完全不同的编程竞赛平台Codeforces上,R1-Zero达到了超过96.3%人类选手的水平。这种跨域表现表明,模型不是在死记硬背特定领域的解题技巧,而是掌握了某种普适的推理能力。

这是一个聪明,但口齿不清的天才

尽管R1-Zero展现出了惊人的推理能力,但研究者们很快发现了一个严重的问题:它的思维过程往往难以被人类理解。

论文坦诚地指出,这个纯强化学习训练出来的模型存在"poor readability"(可读性差)和"language mixing"(语言混杂)的问题。

这个现象其实很好理解:R1-Zero完全通过奖惩信号来优化其行为,没有任何人类示范的"标准答案"作为参考。就像一个天才儿童自创了一套解题方法,虽然屡试不爽,但向别人解释时却语无伦次。它在解题过程中可能同时使用多种语言,或者发展出了某种特殊的表达方式,这些都让其推理过程难以被追踪和理解。

正是为了解决这个问题,研究团队开发了改进版本DeepSeek-R1。通过引入更传统的"cold-start data"(冷启动数据)和多阶段训练流程,R1不仅保持了强大的推理能力,还学会了用人类易懂的方式表达思维过程。这就像给那个天才儿童配了一个沟通教练,教会他如何清晰地表达自己的想法。

在这一调教下之后,DeepSeek-R1展现出了与OpenAI o1相当甚至在某些方面更优的性能。在MATH基准测试上,R1达到了77.5%的准确率,与o1的77.3%相近;在更具挑战性的AIME 2024上,R1的准确率达到71.3%,超过了o1的71.0%。在代码领域,R1在Codeforces评测中达到了2441分的水平,高于96.3%的人类参与者。

然而,DeepSeek-R1 Zero的潜力似乎更大。它在AIME 2024测试中使用多数投票机制时达到的86.7%准确率——这个成绩甚至超过了OpenAI的o1-0912。这种"多次尝试会变得更准确"的特征,暗示R1-Zero可能掌握了某种基础的推理框架,而不是简单地记忆解题模式。论文数据显示,从MATH-500到AIME,再到GSM8K,模型表现出稳定的跨域性能,特别是在需要创造性思维的复杂问题上。这种广谱性能提示R1-Zero可能确实培养出了某种基础的推理能力,这与传统的特定任务优化模型形成鲜明对比。

所以,虽然口齿不清,但也许DeepSeek-R1 Zero才是真正理解了推理的“天才”。

纯粹强化学习,也许才是通向AGI的意外捷径

之所以DeepSeek-R1的发布让圈内人的焦点都投向了纯强化学习方法,因为它完全可以说得上是打开了AI 进化的一条新路径。

R1-Zero——这个完全通过强化学习训练出来的AI模型,展现出了令人惊讶的通用推理能力。它不仅在数学竞赛中取得了惊人成绩。

更重要的是,R1-Zero不仅是在模仿思考,而是真正发展出了某种形式的推理能力。

这个发现可能会改变我们对机器学习的认识:传统的AI训练方法可能一直在重复一个根本性的错误,我们太专注于让AI模仿人类的思维方式了,业界需要重新思考监督学习在AI发展中的角色。通过纯粹的强化学习,AI系统似乎能够发展出更原生的问题解决能力,而不是被限制在预设的解决方案框架内。

虽然R1-Zero在输出可读性上存在明显缺陷,但这个"缺陷"本身可能恰恰印证了其思维方式的独特性。就像一个天才儿童发明了自己的解题方法,却难以用常规语言解释一样。这提示我们:真正的通用人工智能可能需要完全不同于人类的认知方式。

这才是真正的强化学习。就像著名教育家皮亚杰的理论:真正的理解来自于主动建构,而不是被动接受。

0
0101011
1 楼
内行看门道,外行看热闹
k
kingdale1
2 楼
这个和当年AlphaGo Zero 无师自通学出的围棋套路一样,天下无敌。
旁观者XWY
3 楼
聪明学生做题举一反三,给出多种解答方式。为什么都是人类大脑,思维能力不同?
w
wyx2000
4 楼
”DeepSeek-R1 Zero 有的只是一套最简单的奖励系统,来激发AI的推理能力。“ 又好又便宜,简单又有效。所以那些AI的各种高手都是抛开简单的搞一些复杂又低效的东西?
俺是农民
5 楼
哈哈,其实它的出现,最重要的是告诉老川,他不需要让别人投资5000个亿了,最多只需要五个亿,剩下的近5000亿还是搞美国的基建吧。
b
bigcatf4
6 楼
俺是农民 发表评论于 2025-01-27 20:40:49哈哈,其实它的出现,最重要的是告诉老川,他不需要让别人投资5000个亿了,最多只需要五个亿,剩下的近5000亿还是搞美国的基建吧 ------------ 你这话确实像农民 我们小孩学校的计算机CLUB,一个白人黑人没有,90%的印度人,剩下的华人韩国人
俺是农民
7 楼
楼下,我们这儿的计算机club, 还是有一些白人的,不过,你这回答跟我说的有什么关联吗?
w
wd01702
8 楼
既然开源,其他人就可以重复。同样的算法,更高算力的芯片,可以用更短的时间训练出同样的模型。就如同科学论文发现需要其他人重复来证明,如果我是做这行的,就会叫人按照开源算法从头复制。是真是假,很快就有结果。
w
wd01702
9 楼
成本这么低,时间这么短,效果却刚好和open ai相当。有那么巧?openAI又不是智能的极限。
T
TitaniumAtlas
10 楼
感觉有点玄学的意思,很好奇对于“习近平是独裁者吗”这样一个问题它是如何顿悟的。
T
TitaniumAtlas
11 楼
楼下这位,不是完全开源,只是代码开源,数据和模型本身还是私有的,也就是你可以复制这么个躯体,但得从头教它学习。
T
TitaniumAtlas
12 楼
更正一下,模型是开源的,数据没有
银河的天空
13 楼
测试后英文结果差距太大,准确率很低。中文还行,也就是说,糊弄鬼还行,就是适合中国的产物,对于写论文和校正以及引用文献而言,毫无作用。蒙鬼的骗骗外行的东西。
a
ajaychen_2024
14 楼
你自己用过吗?没有调查没有发言权。我用它写过广告方案,虽然不是最好,但是也是十分不错,足够用了 银河的天空 发表评论于 2025-01-28 00:35:37测试后英文结果差距太大,准确率很低。中文还行,也就是说,糊弄鬼还行,就是适合中国的产物,对于写论文和校正以及引用文献而言,毫无作用。蒙鬼的骗骗外行的东西。
G
GP2X
15 楼
从这篇里还是明显看到了幻方量化的身影。股票交易只要结果赢钱就行,不需要解释甚至科普来龙去脉。这玩儿的基础就跟那些类似算命先生的GenAI不一样。
新燕山夜话
16 楼
我不懂AI模型的标准和细节,但是我从美国股票市场的反应来看,DeepSeek新模型就是一匹“大黑马”。华尔街的投资人可是全世界人尖子里的尖子。再一个就是看同行对手的评价,如果他们的评论里充满了“羡慕嫉妒恨”,那Deepseek R1肯定就是个“真家伙”。如果不是,他们连正眼都不会看一看它。
硅谷工匠
17 楼
its like Korean war ... US has advanced weapons, Mao's team had not even winter coats.
a
abcdaren
18 楼
转发: 一,它是迄今最好的中文大模型平台,从理解能力和答案输出能力来看,远超此前百度的文心一言和抖音豆包。说掀翻ChatGPT尚显夸张,但确实掀翻了国内的BAT和字节跳动,比起美国科技巨头,更应该陷入恐慌的是国内互联网大厂。 二、根据这位中国博士朋友的说法,deepseek基于开源的Transformer模型,而Transformer模型由谷歌开发。所以国内媒体宣传deepseek“纯自研”“纯国产”是不准确的。而且deepseek的算力基础仍然来源于英伟达显卡。 中国内行朋友还透露deepseek团队非常有钱,提前囤了1万多张英伟达高端显卡,而华科大和中科大的实验室搞显卡如今都不太容易。从网上公开信息看,DeepSeek拥有1万张老的A100卡和3000张禁令之前的H800卡‌。按照H800显卡20万一片的价格,deepseek购买这3000张显卡就花费了超6亿元。成本不像说的那么低。。。 也就是说,deepseek的软硬件基础仍然是基于美国产品之上。 三、目前使用下来最大的缺点是比老美慢,我输出一句“你好”,它的“深度思考”时间就花费了8秒,基本一个问题想得到答案,需要等待几十秒甚至几分钟时间,这和ChatGPT的“秒回”能力形成了鲜明对比。但deepseek的差异之处在于,它把原本置于后台的机器人“深度思考”程序,转为前台公开化显示,你可以理解为能部分掩盖输出答案的缓慢,也能理解为展现其“深度思考”功能的精妙和“人性化”。 四、此前ChatGPT被诟病简中能力低下,一个原因是简中文体用户较少,导致抓取样本数据少,但deepseek拥有的先天优势是海量的中文数据抓取基础,也能够学习模拟不同的中文语气和风格,比如可以生成“贴吧老哥体”“小红书体”,你也可以通过输入指令“言辞激烈或温和”,来改变其文风。deepseek的写作能力,已经大大降低了“AI味”。毫不夸张的说,deepseek未来可以取代大部分的公文写作甚至社论写作,这对评论员来说都是不小的挑战。 五、和所有的国产大模型一样,deepseek绕不开的是审核,特别是应对政治类历史类问题。但令人诧异的是,deepseek的尺度远超BAT和字节大模型,一些敏感信息也被抓取,比如询问其对当前仿制药问题的看法,它可以生出一篇言辞尖锐的批评性文章。
湾区范儿
19 楼
别忘了中国十多年前还研制成了最先进的汉芯芯片呢,结果呢?
生肖迷宫
20 楼
世界AI人才的一半在中国,当中国与外国的开发思想不一样,中国AI主要用于维护极权统治,以后Deep Seek会取代五毛党,届时又会有几千万人失业,那些脑残粉红五毛党欢呼个啥劲,饭碗马上就没了。
a
abcdaren
21 楼
聪明的训练方法,硬件没有太多突破。。。 这人的脑子不可小视。 老美的搞法太烧钱:正是时候检讨自己、迎头赶上。。。使新科技更接地气!!!