用deepseek有感:不要过度信任和依赖AI给出的答案

今日头条
Toutiao
最新回复:2025年3月25日 9点22分 PT
  返回列表
48582 阅读
18 评论
一小时爸爸


我这两天有个问题想不通透,所以昨天干脆扔给deepseek去帮我分析。因为这只是我个人的疑问,所以也没打算加班写文章。但在和deepseek沟通的过程中,倒是发现了另外一件事,或许更需要跟大家聊聊。

不过deepseek一如既往的话痨,字数太多,我只能换到PC版截图了聊天记录。截图字小,如果看不清可以点开看大图。

1.首先在deepseek回答我的问题后,我发现里面有一个重要信息和我以前所了解的不符,也就是下图红框的部分。

2.所以我复制了一下之前的新闻内容,追问了一下。而deepseek则很快认识到了自己的错误,说明的确有这个要求。但是这次的回答中又有另外一个更明显的问题。

3.我只好继续追问它为什么给出了这个新的错误信息。它重新检索之后,反省说自己其实没找到过今年发表的声明,还跟我道歉。

4.我好奇它连续出错的原因,问它为什么会犯这种错误。它承认错误倒是很快,说明自己之前犯错的原因包括:规则理解偏差、信息更新延迟和过度推断流程。并且深刻致歉,表示自己以后会努力改正。

5.最后我又重新问了一次最开始的疑问。这次deepseek给出的答案我就没有发现什么问题了。

需要这里特别提一句:deepseek认为未来几天可能补发通告,或者是因为接近尾声所以之后会直接发布最终报告。我个人认为这两种可能性是存在的,我也很希望deepseek的判断会变成现实。

后续:但有趣的是,我今天另起一个新对话,再次复制粘贴问了最初的问题,而这次deepseek依旧犯了同样的错误。也不知道现在大家问它的话,是会得到怎样的答案。

开始就说了,今天的文章并不是关于我问deepseek的问题,我已经多等了两天,而且会继续等到有最终报告的那天。

但和deepseek的沟通中,让我想起最近感受越发感受明显的一件事:随着这两年AI的热度,尤其是deepseek出现之后,我身边越来越频繁的出现一种场景 —— 当你问别人“你这么认定的证据和理由时”,对方信誓旦旦地回答你说“deepseek这么说的”。

只是deepseek也好,还是国内外其他AI也好,虽然它们检索汇总资料的能力很强,语言表达能力现在也不错。但依旧会犯很多比较初级的错误。

就比如前面我和deepseek沟通,deepseek因为搜到了2023和2024年的资料,就很随意地推断认定2025年也有。

更重要的是,AI,尤其是针对公众免费使用的AI,无论是哪个国家哪个公司开发的,其实都只能检索到限定范围内的部分资料,尤其是网络传播较多的信息。这就导致AI可能会被网上主要流传的信息所引导。如果AI检索范围内的网络信息,基本都是错的,或者有偏差的,那AI的答案就很难科学和真实。

就像deepseek分析自己出错的原因:规则理解出错、信息偏差延迟、过度“自信”推断,这些其实都是现阶段AI容易犯的错误。

之前的文章中写过,无论是下一代还是我们,未来的一个重要课题就是如何学习使用AI,不只是说要搞明白如何使用,也包括如何去引导AI更为准确和有效地工作,以及如何判断AI给出的答案是否有“坑”

c
ca_lowhand
1 楼
很正常,记住ai模型都是无状态的,每一次你的文字都是送到云里面不同的模型个体,运行商的服务器记录你对话历史,后台把历史附加到你的对话指令里面一起送出去。所以开始新对话后ai模型一直会犯同样错误。
k
kl3527
2 楼
试过来DS。和早期的ChatGPT 类似,比现在的Grok和ChatGTP差多了。现在全中国的”国运“都轰轰烈烈上 DS,蒸馏不了ChatGPT和Grok,不要算力,不花钱,搞超音速拖拉机吗?:)
s
supernova13
3 楼
不管用哪一个AI,如果你和它合作解决的问题有一定难度,AI 都可能出现见树不见林的问题,所以你需要注意把握大方向,而不是一味地跟着AI走。如果大方向对头,细节和记忆方面AI比人强。
唐宋韵
4 楼
我三个都用,但DS用得越来越少了,的确有差距,而且有时会来一段人民日报或新华社的标准说辞,很有喜感。我目前Grok用得比GPT多。 kl3527 发表评论于 2025-03-24 19:46:03试过来DS。和早期的ChatGPT 类似,比现在的Grok和ChatGTP差多了。。。
C
Coco_lau
5 楼
我用过,是法律方面的问题,deepseek 就是垃圾,和chatgpt 差很多,
匿名用户
6 楼
就应该问问deepseek什么是8964,什么是白纸革命,为什么习近平要取消任期限制
l
ljcn
7 楼
DS炒作过度了。其实还有其他很多LLM,效果不输ChatGPT,人家没这么炒作而已。其实DS蛮符合国人的尿性的。
硬码工
8 楼
任何的AI,都是根据网上或书上的消息得来的。使用者需要有判断能力
咳嗽一声
9 楼
用过DS查科学话题, 所给文献的题目、作者及DOI都不存在,换个主题还是如此,跟用者的判断能力无关。还是用Grok 3靠谱。
R
Rohueone
10 楼
同感,试过DeepSeek,给出的答案似是而非,如果不了解,很容易被它那似是而非的分析带进沟里。
d
dada2023
11 楼
你看你个【穷酸样】一看就是从来都没钱买openAI服务的, 体验完掏钱捞大粪,你就知道deepseek有多优秀。
麦克老狼
12 楼
所有LLM都是这个尿性 -- 十句真里给你掺一句假。。。 你要是发现了它就会很真诚地道歉。。。 过两天再问,还是一模一样的答案。。。 它压根就是在“糊弄”你
a
ajaychen_2024
13 楼
使用AI,无论哪种AI工具,你要清楚,它只是你的助手,来帮助你完成任务,你必须要有相关知识来检验它提供的答案和方案,要不断修改它的方案。你要清楚这个方案的工作原理和逻辑过程,同时也是你自己学习知识的过程。
a
ajaychen_2024
14 楼
我用了基于chatgpt的微软copilot,和deepseek,各有所长,各有千秋。copilot是付费的,ds完全免费
西
西岸-影
15 楼
AI是工具,目的是提高效率,而不是给你一个替代你大脑的东西。 这个关于AI的基本问题需要清楚。换句话讲,在使用AI的时候,你基本已经知道可能的结果是什么,并不存在未知因素。一旦出现未知,就要谨慎。 这就像使用一个扳手拧螺丝,你知道最后应该是什么结果才是扳手是否有用,这才是工具的概念。 AI模型是学习人脑的学习模式,人脑的学习有至少两个角度,第一是获得信息,存储。第二是在需要的时候可以找出已经存储的信息,这个过程是在信息中建立联系,你需要把相关的部分提取出来使用,逐渐建立更大的联系,产生更多的信息存储。这个建立联系的能力叫智商。 AI的优势是一般不需要重复性来存储信息,但建立信息之间的联系的模型的能力问题,这是目前竞争的内容。这种联系并不一定都是对的,就与人类大脑一样会出现错误。而这个能力的失却有可能是提供的信息不准确或者不确定,在人与AI之间,这是人的问题,不是AI的问题。 这就像你使用Google作为搜索引擎,你不应该绝对相信你搜索出来的就是真实的,而是作为一种参考。当信息是来自某种权威性的机构或者机制时,你对信息的准确性的信任度是与这种权威联系的,而不是与Google联系。 这就是工具性质的体现。 如果把AI看作是工具,道理和逻辑是一样的。
H
Huilianghu5
16 楼
科学研究上的已有成果是AI的基础。研究还不充分的AI只能提供多种可能,或告诉你它的一个选择。如果你对这一领域的现有水平了解不全面,你就无法判断AI提供的结果是否合理。 如果论文作假很普遍,AI也会把假结果提供给你。
土拨鼠拨土
17 楼
无论使用DS 还是ChatGPT都不要完全信赖,他们学错了给你的反馈就是错的。
技术员
18 楼
训练AI的数据是由人提供的,AI的倾向也是由人给定的。我用其他问题试过ChatGTP,虽然提问时尽量不带倾向,但结果还是明显带有立场倾向。