关注一下DeepSeek(这真不是joke)(一)

Z
Zhuzitaba
楼主 (文学城)

想下载,败也:

什么原因?暂时关闭了?还是它本身并不强大?

loser出现了:

大家看看,DeepSeek 是:

1 牛B

还是

2 不牛B

 

 

Z
Zhuzitaba
ChatGPT还不大知道DeepSeek

ChatGPT说:

Strengths of ChatGPT (me!): I’m great at holding conversations, answering a broad range of questions, and being adaptive across various topics. I also have memory, so I can remember details across interactions, which can make conversations more personalized over time. I try to keep things friendly and natural, and I aim to be helpful in whatever context you need.

DeepSeek: Without knowing the specifics, it might have a more focused or specialized function, perhaps around certain topics or tasks. Some AI tools can excel in specific domains (like search or knowledge discovery), so if it’s designed for that, it might be better suited to specific needs.

小二哥李白
目前主要是对AI资本市场的震动:人家1/30的钱就可以搞出来了,我们的钱继续以30倍烧吗?
Z
Zhuzitaba
1 or 2?
Z
Zhuzitaba
网友说

shakuras2000 发表评论于 2025-01-27 07:14:291. deepseek确实很强
2. deepseek大概率用了gpt的数据做了distill,所以脱离了更好的模型,deepseek可能做不到这么好
3. 550万是训练成本,实际成本可能高几倍,但是还是很低。
4. 有人说其实deepseek用了10000张A卡,只是因为众说周知的原因不能说,不过没证据我暂时当成谣言。
5. 这家公司是做量化的,就算deepseek不赚钱,发布配合沽空美股也能赚翻,汗

小二哥李白
资本市场需要时间来消化这个消息,目前AI资本的规模甚巨,这个震动会震死一些资本的游勇。没看见银行倒闭,我大概不会跟风。
宇之道
该来的,终究会来的。

 

Z
Zhuzitaba
Too early to tell
Z
Zhuzitaba
兄弟,你不要生孩子哟:):):)

吓人(下人)

Z
Zhuzitaba
终于进去了

宇之道
有了心理准备,才能处变不惊。
S
Seattle101
终于知道谁是Zhuzitaba

Z
Zhuzitaba
呵呵, see below from GPT

Z
Zhuzitaba
再看深求

S
Seattle101
R1 用了 OpenAI 的数据。今天又发布了 Janus Pro。不可思议!
Z
Zhuzitaba
你跟得挺快的 花了$5?
S
Seattle101
这几天到处都是DS。我现在觉得梁文锋后面是不是站着长胡子的。
Z
Zhuzitaba
长胡子 是长短的长还是生长的长
Z
Zhuzitaba
网友又说

DeepSeek把RL(unsupervised)引入LLM训练的后期阶段,取代监督微调(SFT),这是由监督学习,转向非监督学习的重要算法改进,业内称为飞轮,依靠飞轮自身转动,改进大语言模型的效率,就像AlphGo Zero那样。这套方法明显可以被OpenAI,Google,XAI等美国AI大玩家利用,改进自己现有的模型训练。简单来说,Deep Seek用1%算力,搞成了接近100%的performance。大玩家借鉴RL这个飞轮,施加100%的算力,能达到10000%的performance吗?能达成1000%也很好了啊,甚至200%也行啊。将来施加1000%的算力,就会达成2000%的效果了。感觉距离AGI越来越近了。

好像DeepSeek证明了“中国人”,从而证明了“自己”多么聪敏似的。DeepSeek完成了重要的算法改进,借鉴了LLM训练的注意力机制,AlphaGo Zero的非监督强化学习,以及模型蒸馏和浓缩技巧,这是算法上的重要改进,能把整个大模型训练提高一个台阶。但是十分明显,就像Deep Seek借鉴别人成果一样,别人也可以借鉴这一成果,加速自己模型的训练,在算法差不多的情况下,数据(数量和质量)和算力依然决定模型的性能。

5
500miles
我注册、使用没问题啊。Alexandr Wang 说Deepseek 有五万块H100 -- H100大约两三万美元一块

光这就得十亿美元了,,,翼龙还附和说“肯定的!”

 

 

Nvidia 该被查水表了。。。 老黄上周一居然不出席川总的就职典礼,更有甚者,这个老皮夹克还跑中国去了~~~

 

5
500miles
长胡子,,,,红脸,丹凤眼,绿袍,偃月刀,,,,汉寿亭侯?
Z
Zhuzitaba
后面一段话啥意思?
S
Seattle101
葡萄很酸,这哥儿们估计买了太多的NVDA股票。
S
Seattle101
最牛的是 Open Source。不信可以证伪。
S
Seattle101
文革用语。参见 https://bbs.wenxuecity.com/culturerevolution/650116.
新游客
如果不让deepseek用open ai的数据库会怎样?不懂这些之间的关系
龙湾故事会
我也过量化这一块,还有总理见面鼓励这一块。但是做量化的人和做人工智能的人本来就高度重合,所以也没啥特殊的
5
500miles
Nvidia 今天跌了17%,可以入手了吧
a
a7a8
实际上抛英伟达股票并不明智

deepseek降低了AI游戏的准入成本,并不意味着英伟达要少出芯片。而是更多小资本玩家得以涌入市场。芯片的总需求量未必会减。

真正受到冲击的应该那几个拼命砸钱用算力垄断AI赛道的公司。具体而言,微软,谷歌,Open AI商用部门,Meta,Tesla。

5
500miles
DS就像个小男孩,说皇帝们身上50B的新衣裳,其实只有0.006B的布料
油腻三脚猫
小屁孩儿不懂,皇帝穿的是比基尼。