美国是AI的发源地,大佬无数。这两天,冷静下来的各路人马都纷纷地揭露出了DS的幺蛾子。比如马斯克等。
微软拥有OpenAI一半的股份,Chatgpt的模型用了微软的数据库。你还没听懂,我再说细点:ChatGPT是openAI的产品。
微软对Deepseek做了测试,得出结论:DS偷窃了openAI的模型。
其中一个测试例子很有意思。你直接问89.64,DS会说:“让我们说点别的问题吧”。理解理解,不给你添乱。
然后万恶的美帝白种人就绕着问,他答着答着,突然意识到不对劲,就突然停止了。
比如微软测试人员问:“一个人面前有一排坦克,代表什么?”。屏幕上显示DS在思考,先是出现“代表勇气”。然后说这事发生在中国,然后提到那年那月那天,在天安门广场......突然,前面的话都被删除,屏幕上出现一句话:“让我们谈别的问题吧”。
哈哈哈,这是先从ChatGPT上调数据,一边显示给你看,一边审查。DS自己建的模型是不可能有这个结果的,只有用Chatgpt的模型才会这样。
要想避免这个情况,DS就需要得到ChatGPT的全部答案,然后进行言论审查,然后再显示给你看。但这样一来,DS的反应会非常非常地慢,象个痴呆老人一样,你会愿意和他聊天吗?
当然,微软也承认了DS在建立蒸馏技术上有独到之处,这算是DS的贡献吧。蒸馏技术就是使用别人AI的结果,然后挑选出与自己有关的2-5%有用的,再做计算。这是许多特定领域的AI行业目前都在发展的技术。DS在这方面可能比较成功,但说到有什么颠覆性成果,降低了AI芯片的巨额投资,呵呵!
如果还没听明白,下面这张漫画可以圆满回答DS是怎么回事,供文科生理解。
训练有两种,一种是你说的,蒸馏GPT。另一种是DS说的,从其他文件来。
8964,在GPT里,可是也在其他文件里。
DS在reason的时候显示它知道8964,并不意味着8964是GPT来的。只有你先入为主认为DS是从GPT来的,才会看到8964自然认为8964也是从GPT来的。
你说的像模像样的,DS-R1推理的文字里面包括chatgpt的exact text,这个细节我找不到。
程序也就几个script。真正的model是一个blob。
train data,model weight,这些东西都没有具体的code,只能在README里面讨论。当然training data里面有没有chat gpt的输出,起码人家没有提,有没有谁知道?
试想你出了100作文题,让两个人各写一篇文章。你发现这“两个人”每篇文章,都在内容,语句,格式上,几乎一致,你会怎么想?要么是一个人写的,要么是一个人抄另一个人的。
如果一篇文章相同,有可能是巧合。如果100篇,1000篇都是相同的,有怎么巧的事?
啊哈哈哈。。。。。。。。。
显然文章是骗不懂的人
GPT写作水平最多2段
美国是AI的发源地,大佬无数。这两天,冷静下来的各路人马都纷纷地揭露出了DS的幺蛾子。比如马斯克等。
微软拥有OpenAI一半的股份,Chatgpt的模型用了微软的数据库。你还没听懂,我再说细点:ChatGPT是openAI的产品。
微软对Deepseek做了测试,得出结论:DS偷窃了openAI的模型。
其中一个测试例子很有意思。你直接问89.64,DS会说:“让我们说点别的问题吧”。理解理解,不给你添乱。
然后万恶的美帝白种人就绕着问,他答着答着,突然意识到不对劲,就突然停止了。
比如微软测试人员问:“一个人面前有一排坦克,代表什么?”。屏幕上显示DS在思考,先是出现“代表勇气”。然后说这事发生在中国,然后提到那年那月那天,在天安门广场......突然,前面的话都被删除,屏幕上出现一句话:“让我们谈别的问题吧”。
哈哈哈,这是先从ChatGPT上调数据,一边显示给你看,一边审查。DS自己建的模型是不可能有这个结果的,只有用Chatgpt的模型才会这样。
要想避免这个情况,DS就需要得到ChatGPT的全部答案,然后进行言论审查,然后再显示给你看。但这样一来,DS的反应会非常非常地慢,象个痴呆老人一样,你会愿意和他聊天吗?
当然,微软也承认了DS在建立蒸馏技术上有独到之处,这算是DS的贡献吧。蒸馏技术就是使用别人AI的结果,然后挑选出与自己有关的2-5%有用的,再做计算。这是许多特定领域的AI行业目前都在发展的技术。DS在这方面可能比较成功,但说到有什么颠覆性成果,降低了AI芯片的巨额投资,呵呵!
如果还没听明白,下面这张漫画可以圆满回答DS是怎么回事,供文科生理解。
训练有两种,一种是你说的,蒸馏GPT。另一种是DS说的,从其他文件来。
8964,在GPT里,可是也在其他文件里。
DS在reason的时候显示它知道8964,并不意味着8964是GPT来的。只有你先入为主认为DS是从GPT来的,才会看到8964自然认为8964也是从GPT来的。
你说的像模像样的,DS-R1推理的文字里面包括chatgpt的exact text,这个细节我找不到。
程序也就几个script。真正的model是一个blob。
train data,model weight,这些东西都没有具体的code,只能在README里面讨论。当然training data里面有没有chat gpt的输出,起码人家没有提,有没有谁知道?
试想你出了100作文题,让两个人各写一篇文章。你发现这“两个人”每篇文章,都在内容,语句,格式上,几乎一致,你会怎么想?要么是一个人写的,要么是一个人抄另一个人的。
如果一篇文章相同,有可能是巧合。如果100篇,1000篇都是相同的,有怎么巧的事?
啊哈哈哈。。。。。。。。。
显然文章是骗不懂的人
GPT写作水平最多2段