Sam狗急跳墙而已,建议板上各位如果没时间阅读Deepseek的Technical report,可以好好读读Hugging face 对Deepseek的技术总结,里面有很多小细节做到了极致。这本身就是极大的突破,有几项技术现在Openai说他们也想过,但是没做。当然模型表现最后影响最大的是数据,这是Openai独门绝技,Anthropic做得好也是一样的原因,师出同门。Deepseek本身没有高质量数据,没办法
看看YouTube 关于这条新闻下面的评论,外国人里明白人、支持Deepseek的有好多。这些都是top comments: 喜欢这句话:”history shows that nations often cling hardest to dominance as it begins to slip.”
我问了chatgpt,它说的如下: did deepseek copy you? DeepSeek is an independent AI model developed by a different organization, and while it may share some similarities with me in terms of capabilities, it was not a direct copy. Many modern AI models are based on similar underlying architectures, such as transformer models, and are trained on comparable datasets. However, differences in training data, fine-tuning, and optimization lead to variations in performance, style, and specialization. What’s the relation between you and deepseek? DeepSeek and I are separate AI models developed by different organizations. While both of us are likely based on transformer architectures and share some commonalities in natural language processing capabilities, we are trained independently with different datasets, optimization methods, and design philosophies. There is no direct relationship between us in terms of development or data sharing.
What data can developers get by calling your api? When developers call OpenAI’s API, they can send input (prompts) and receive output (responses) from the model. The API does not provide access to training data, internal model parameters, or previous interactions beyond the active session. Developers only receive the specific responses generated for their queries. OpenAI also has policies to prevent misuse, including restrictions on data retention and privacy protections. If you’re asking whether someone could extract OpenAI’s training data by calling the API, the answer is no—the API only provides responses based on its learned knowledge, not raw training data. 所以前面那些说通过API拉chatgpt数据的,它自己说api calls拿不到training data, model params, etc
人家推文科我们推理科,所以得派律师天团和我们斗,斗不过就加上政客和金主爸爸
这是中国远远落后,美国独步世界的领先技术:远程养殖
那么什么叫0-1, neural nets 70年代就有
TRANSSFORMER 也不是OPEN AI搞出来的
哎,每次听到这种指控其实挺无奈的。就像班里突然有人指着你说「作业是抄的」,可你明明熬夜自己算的题,连草稿纸都攒了一抽屉。做AI这行谁不是站在巨人肩膀上啊?开源社区的代码、论文里的公式、全球研究者的智慧结晶,这些都是公共知识财富,大家都在用。但要说「偷技术」——OpenAI的模型又没开源,GPT-4的代码和训练数据连他们自己员工都不一定全知道,我们上哪儿偷去? 说实话,搞研发的同行都懂,大模型这玩意儿根本不是靠「复制粘贴」能搞出来的。调参数调到头秃、算力烧到肉疼、数据洗到眼花,这些苦功夫装不出来。有时候觉得,这种指控背后可能更多是商业竞争或者地缘政治的影子吧。但无论如何,埋头把产品做好比打口水仗实在多了,用户用脚投票最真实。
也不是说这样完全没创新,但和算法领先是不是就没一点毛线关系了?老黄股票白跌了。
OpenAI有啥0到1?
Transformer的概念又不是OpenAI搞出来的。。
一个开源的东西,先进不先进真正懂的人自然懂,不是一些似是而非故意引导的人可以否定的。都是牵扯到上亿真金白银的损失的,要是这么简单第一天就被批判的体无完肤了,还让你搞的一天跌掉了整个广东的GDP
要是中国一个公司随便说领先,美国股市就狂跌,你是把美国人都当大傻逼来看
然后呢?首先这事没有落实,其次,为啥其他家不蒸馏提纯呢?是因为不喜欢么?
我就说了啊,那chatgpt现在也蒸馏deepseek,按照他们的理论,等于蒸馏了自己两次,那不得飞上天啊?
模型的蒸馏需要知道大模型的配重weight, 但OpenAI这方面从来没公开过 所以不可能是模型的蒸馏。。
撑死就是拿OpenAI最新模型的输出结果作为训练数据,给DS进行训练。。
但这和蒸馏是两个概念。。
DS算法效率提高了40-50倍,当然是极大的创新
你再怕跌也没用….
这是有多恨中国
要是真的牛b那也是人类之福,老黄跌也活该了。
初中一个班30多个同学,第一个进青春期的是原创,其他人都是抄袭。 有点意思。
我早就说过,通用AGI是个伪概念,现有基于NN的AI是达不到最高人类智力水平的,但不妨碍有很多专项应用,特别是不需要100%准确性的。
我的妈呀,抄没抄还没定性。你倒是你抄你有理了。
喜欢这句话:”history shows that nations often cling hardest to dominance as it begins to slip.”
青春期是生理现象,不是初中生自己新做出来的工具。有本事 火星一龙还没去,赶紧先去,第一个去,大家都服帖
阿拉伯数字,谁用都要收费。。阿三获得灵感
O喷AI有些要钱不要脸。号称OPen还收人钱
不懂别乱下结论
赶快卖房进场。
哈哈,这个有意思
蛮好,以后统一的时候不用教了
所以美国不是抄的英国蒸汽机,用的欧洲物理学,自己抄完牛逼了,开始讲抄袭可耻了?
想不到现在还有这种浓浓的译林,读者风格的文章:其他国家总是道德高尚的。
netscape 的founder 认为deepseek是对人类的贡献,有些华人却觉得丢人,真是奇特。我挺为deepseek自豪的,说明华人的创造力,智力是一流的。
是的, 很多外行人不懂,只有出圈了才听说 这些,就奉为 0 -1
其实,这些人,是一种,没见过世面的 表现。
OpenAI 负责指路的领头羊都走光了,就剩一帮靠着惯性往前冲的工程师,已经不可能有什么革命性的创新了
哈哈,一针见血😃😄
1月29日,DeepSeek官网显示,它的线上服务,受到大规模恶意攻击。 但这事,不是一般的黑客时间,背后其实暗藏着因为输不起,羞怒之后放的暗箭。 因为,奇安信监测显示,攻击IP全部来自美国,而且DDoS到暴力破解层层升级! 怎么搞的,网上有详细介绍。 这里就不多讲了。 反正有业内很资深的人士,直接出来说:这是国家级别的下三滥手段!
其实就是美国花了好几万亿美元,用AI作为借口,建了个超级赌盘,所有玩家想进去玩,都必须买它的高价门票,它在以此为借口,把AI公司的市值,给抬上天! 但这个超级赌盘,美国人最怕一件事:中国人也进来玩,那这盘就崩了,所以他们专门搞了个大门槛:中国人不许进来玩!
“DS算法效率提高了40-50倍” 就是因为纯粹的马工写代码的水平高?