相信吗?李开复:中国大模型与美国仅差6个月

今日头条
Toutiao
最新回复:2024年5月21日 19点58分 PT
  返回列表
52731 阅读
67 评论
AI未来指北

刚刚在上周开过发布会的零一万物创始人李开复,时隔不到一周再一次在线上亲自和小部分媒体沟通,并在沟通会的开始就表示“难掩兴奋,所以希望马上开发布会和大家分享这个消息。”

这个让李开复无比兴奋的消息就是,零一万物提交的“Yi-Large” 千亿参数闭源大模型在LMSYS Org发布的Chatbot Arena取得了总榜排名第七的成绩。

过去一年的模型能力大战中,每次新模型的发布,模型能力Benchmark评分就会作为标准动作被同时公布,来评测模型的各种综合能力。但是,究竟如何解读这些评分?哪些才是有公信力的评测标准集,行业内并没有统一的标准。

但是在Gpt-4o发布后,OpenAI CEO Sam Altman亲自转帖引用 LMSYS arena 盲测擂台的测试结果。

为什么Sam Altman会引用LMSYS 的结果?为什么在这个榜单取得成绩会让李开复兴奋不已?

LMSYS Org发布的Chatbot Arena,关键词是盲测和开放。用通俗的语言来描述就是,它的模式是通过众包的方式对大模型进行匿名评测,用户可以在官网输入问题,然后由一个或者多个用户并不知道品牌的大模型同时返回结果,用户根据自己的期望对效果进行投票。

在收集真实用户投票数据之后,LMSYS Chatbot Arena还使用Elo评分系统来量化模型的表现,进一步优化评分机制,力求公平反应参与者的实力。最后用Elo评分系统来得出综合得分。通俗地来讲,在Elo评分系统中,每个参与者都会获得基准评分。每场比赛结束后,参与者的评分会基于比赛结果进行调整。系统会根据参与者评分来计算其赢得比赛的概率,一旦低分选手击败高分选手,那么低分选手就会获得较多的分数,反之则较少。

评测界面

在海外大厂高管中,不只Sam Altman,Google DeepMind首席科学家Jeff Dean也曾引用LMSYS Chatbot Arena的排名数据,来佐证Bard产品的性能。OpenAI、Google等自身的旗舰模型发布后第一时间提交给LMSYS,本身确实显示了海外头部大厂对于Chatbot Arena的极大尊重。

美国时间2024年5月20日刚刷新的 LMSYS Chatboat Arena 盲测结果,来自至今积累超过 1170万的全球用户真实投票数:此次Chatbot Arena共有44款模型参赛,既包含了顶尖开源模型Llama3-70B,也包含了各家大厂的闭源模型。

在这个榜单上,我们也看到了中国大模型的身影,智谱GLM4、阿里Qwen Max、Qwen 1.5、零一万物Yi-Large、Yi-34B-chat 此次都有参与盲测,零一万物提交的“Yi-Large” 千亿参数闭源大模型总榜排名第七,在总榜之外,LMSYS 的语言类别上新增了英语、中文、法文三种语言评测,开始注重全球大模型的多样性。Yi-Large的中文语言分榜上拔得头筹,与 OpenAI 官宣才一周的地表最强 GPT4o 并列第一,Qwen-Max 和 GLM-4 在中文榜上也都表现不凡。

“中国大模型与OpenAI旗舰模型的差距已经从7-10年缩短到了6个月。”李开复在线上沟通会上兴奋地表达。同时,他还呼吁“无论是出于自身模型能力迭代的考虑,还是立足于长期口碑的视角,大模型厂商应当积极参与到像Chatbot Arena这样的权威评测平台中,通过实际的用户反馈和专业的评测机制来证明其产品的竞争力。这不仅有助于提升厂商自身的品牌形象和市场地位,也有助于推动整个行业的健康发展,促进技术创新和产品优化。”

同时,李开复也十分直接地抨击了“作秀式的评测方式”,他指出“相反,那些选择作秀式的评测方式,忽视真实应用效果的厂商,模型能力与市场需求之间的鸿沟会越发明显,最终将难以在激烈的市场竞争中立足。”

在简短的媒体沟通会上,李开复也坦诚回答了媒体关于模型评测的客观性、模型成本下降、全球大模型竞争差距等问题,以下为部分访谈内容实录:

Q:Yi-Large确实在中国大模型排名第一,但是确实前面还有国外大厂模型,您认为造成这个差距的原因主要是什么,是人才吗?如何追赶?

李开复:谢谢,我觉得首先我们也不能确定自己是中国第一,因为中国只有三个模型参加,我们也希望以后可以更确定的验证这一点。

但我也不是特别认为我们跟全球有差距,当然你要用他们最好的对我们最好的是有一定的差距,但是同时可能要考虑到他们比如说Google团队是2000人,OpenAI是1000人,在我们这里把模型加infrastructure加起来也不到100人,而且我们用GPU算力做这个训练不到他们的1/10,我们的模型尺寸也不到他的1/10。

换一个角度来说,如果只评估千亿模型,至少在这个排行榜上是世界第一,这些点我们还是很自豪,在一年前我们落后OpenAI跟Google 开始做大模型研发的时间点有7到10年,现在我们跟着他们差距在6个月左右,这个大大的降低。

这6个月怎么来?可以回到LMSYS 6个月以前的榜,或者今天比我们排名在前面的几家,几乎都是今年发出来的模型,去年的模型还在榜单上,我们已经打败了。

另外一个角度看,今天我们发布的这个模型在5月的时候可以打败去年11月之前的任何模型,所以我觉得也可以科学的推理出我们落后6个月。

6个月的差别我觉得不是很大,我觉得是一个不可思议的超级速度的赶追,这些方面我还是非常自豪。

如果你说美国人才有没有独特的地方?肯定是有的,从我写的《AI·未来 》这本书之后,我一直都坚持美国是做突破性科研,创造力特别强的一批科学家,在这方面在全世界是没有对手的。

但是在同一本书里我也说了,中国人的聪明、勤奋、努力是不容忽视的,我们把这7-10年降低到只有6个月,就验证了做好一个模型绝对不只是看你多能写论文,多能发明新的东西,先做或后做,做的最好的才是最强的,Google搜索比雅虎晚做很多,但是完全没得比。

所以我觉得后发有后发的优势,但同时我们特别尊敬美国这些创造性,他们的论文希望他们继续写,我们是每一篇都会仔细阅读,我们跟他们有很多学习的地方。但是比执行力,比做出一个很好的体验,做比产品,比商业模式,我觉得我们强于美国公司。

Q:现在有很多榜单,比如之前零一万物引用的斯坦福的Alpaca Eval,现在又有大模型竞技场,哪些评测会比较客观呢?

李开复:我觉得这两个都是客观公正的,Alpaca Eval是斯坦福大学用GPT4评测的,今天的LMSYS是真的几万个人评估一个模型,严格要我挑哪一个更可信的话,虽然我们在Alpaca排名更高,但是我觉得LMSYS是更可信的。

黄文灏:很多benchmark,包括我们之前大家会比MMLU、GSM8K这些,之前benchmark的题都是死的,它是有一个确定的评测集,当题目已经完全确定以后,大家可以在上面针对题目做一些合成数据,使模型在某一些方面能力变得更高。

而LMSYS它有几方面比较好,一方面是它的题是真实用户聊天当中给的题,所以这个题是动态变化的,没有人可以预测题目分布是什么样子的,就没有办法针对题目分布去对模型做单一方面的优化,所以它是overall的模型能力的反映。

第二,因为题目是动态随机,所以它的客观性可能更加高一些。

第三,它是由用户来进行打分的结果,使用GPT-4打分,会有些模型的偏好性。用户的打分和用户是更接近的,所以这个榜单也会跟实际应用当中用户的preference更接近,这跟我们做成模因一体的理念是符合的。

Q:有业内专家说过所有的基准测试都是错的,您怎么看?现在大模型发布给的测评对比有哪些价值吗?第二个问题比较,零一万物后续会推出更大参数的模型吗?现在一些企业开始做小模型,您认为现在卷参数还有意义吗?

黄文灏:先回答第一个问题,之前的benchmark的确有一些题目的动态变化性不够,所以会发生有人说的,比如说定向优化模型某项能力,我觉得不是刷榜,而是把模型某些能力做提升。这些提升在单一能力上有价值,但是比较的时候大家不知道这个模型提升了这方面能力,那个模型提升那方面的能力,所以大家在比较的时候不一定会客观公正,而LMSYS是提供一个最好的更接近于用户真实场景的一种评测方式,它的方式也是因为题目动态随机性不适合大家做优化,所以可以看作一个比较好的标准去衡量模型的能力。

第二个问题我先简单说一下,由开复老师主要讲。我觉得做更大的模型是我们会一直追求,因为我们公司使命是追求AGI,同时让它变得accessible and beneficial to all human beings(有益于人类且普惠。所以我们觉得我们会继续去做更大的模型,追求模型的能力同时和应用做更好的衔接。当然我们自己是 believe in scaling law(相信规模定律)的,所以我们在模型变得更大,或者我们用更多的计算资源的时候,我们的模型智能会逐步提升。

李开复:我补充一点,问题是有关超大模型和有些公司做小模型。我们的计划是从最小到最大的模型都希望能够做到中国最好,所以我们刚才讲了在6B、9B、34B,未来可能有更小的模型发布,它们都是同样尺寸达到业界最佳,不敢说第一,但是总体来说是第一梯队或者是最好的一两名这样的表现,而且在很多方面,在代码方面、中文方面、英文方面表现都是非常好。

我们相信就像一周前我讲的TC-PMF,永远是一个跷跷板,你要平衡你需要多强的技术,那你付不付得起这个技术所需要的成本。业界有各种不同的应用,从最简单的客服应用,到游戏,一直到非常难的推理策略、科学发现等等难度,我相信大尺寸的 scaling law,最强大地往 AGI 走的模型,在最难的问题上,大家又愿意花钱的领域里,绝对是有落地场景,而且是最有可能达到AGI。

同时我们也坦诚,有各种比较小的简单应用的机会。我们的打法是一个都不放过,我们在每一个潜在存在尺寸上发布我们能做到性能最高,而且推理成本最低,这个推理成本也会带来更好的经济价钱跟定价给开发者使用。

黄文灏:关于benchmark再补充一点,每个公司都会建自己的评测体系,我们内部也建了自己的评测体系,我们去LMSYS之前在自己的评测集上评测过所有模型,当时我们大概判断我们的模型能力的确达到世界一流,中国第一这样的水平。我们自己的评测集和LMSYS最后的结果高度吻合。而且我们的评测集都是真实场景得到的一些数据,是比较公正的。

同时我们在我们的产品中应用我们的模型之后,很多产品的用户数据都有非常好的一个提升,这个也可以看作模型能力的金标准。

Q:零一万物的GPU可能是谷歌、微软的5%,但算力对模型发展的限制是客观存在的。当榜上排名靠前的 OpenAI、Google的能力已经靠前,资源还靠前的时候,零一万物怎么应对?

李开复:这是一个动态的问题,我觉得现在来静态的看这个榜单说你还落后那几家,因此它们一定是巨大的算力做出来的。

这个我觉得更精确的应该从历史数据来看,看在过去的一两年他们提升了多少,我们提升了多少,我们是不是追得非常非常近了,这是一个客观事实。

所以我不认为他们的算力更大就表示我们绝对没有机会,当然他们的算力更大有巨大的优势,但是我觉得客观事实是我们能够把同样的一张GPU挤出更多的价值来,这是今天我们能够达到这些成果的一个重要理由。

另外是优化模型的performance表现,它不只是一个纯粹科技和算法的问题,里面还有数据的配比,还有怎么去优化,同时优化训练和influence,还有我们的模型怎么加入多模态等等各种方面的技术,我觉得我们其实在这方面是不输于美国。

我刚刚说到Google的一个VP,他觉得我们是不可思议的达到这样一个成果,所以我觉得我不会认为算力远远落后。我们算力一直远远落后,我们一年前算力也是只有Google、OpenAI的5%,现在还是,我们如果用5%的算力能够把落后快速拉近,未来我们还是期待有惊人的结果。

能不能达到第一,能不能超过,当然是一个艰难的任务,但是我们是朝着这个目标在努力,我觉得今天的结果对比一周前,对比去年11月,对比我们成立的时候,都是一个不可思议的飞跃,所以看事情要看这个事情是在上涨还是下跌,而不是说你今天还是落后,因此以后就会落后。

Q:大模型竞技场真实用户的真实 prompt ,会不会对模型评测的专业度不如专业的评测集?

黄文灏:分两方面说。一个是这个评测更接近用户的真实场景,所以模型这些能力被用户更需要。另一方面,LMSYS也考虑到这部分,因为也有很多用户用很难的问题故意,也不是故意,就是真的测试模型的智能能力,所以他们还做了hard prompt的section,刚才开复介绍的时候说是最烧脑的那个榜单,会发现我们模型在那个榜单上的排名更高,因为我们模型的智能水平在这方面有比较好的体现。

我补充一点hard prompts,大家如果上到LMSYS官网,它也是在昨天刚公布,特别针对用户深入问题里选择特别complex复杂,特别demanding,对模型的智能能力要求更高,更rigorous,它需要的能力更多样性,而且更强大,所以他们是在用户的真实输入里特别单挑了这些特别难的艰难提示词新算的分数。

当然不同的评测集有不同的侧重点,但是这是从用户真实场景、真实提问里挑出的艰难提示词的打分。

Q:您之前提过大模型行业发展不能走ofo烧钱烧钱打法,但事实是现在国内确实打起大模型价格战,在这个过程中零一万物和其他初创公司如何在竞争中跑赢大厂?

李开复:今天我们可以看到的降价我们关注到这个现象,我们的定价还是非常合理,而且我们也在花很大精力希望能够让它再降下来,我觉得一定程度整个行业每年降低10倍推理成本是可以期待的,而且必然也应该发生的。今天可能处在一个比较低的点,但是我觉得如果说以后大约以一年降价10倍来看,这是一个好消息,对整个行业都是好消息,因为今天的API模型调用还是一个非常非常低的比例,如果一年降低10倍那众多的人可以用上,这是一个非常利好的消息。

我们也认为我们今天可以看到的模型表现我们超过其他模型,也欢迎不认同的友商来LMSYS打擂台,证明我是错的。但是直到那一天发生,我们会继续说我们是最好的模型。

对要求最高的,需求最高的,需要最好模型的,他们当然用我们。100万个token花十几块还是花几块钱有很大差别吗?100万的token对很大的应用,很难的应用,我觉得我们是必然之选,我们发布之后得到国内外非常高的评价,而且我们是一个可以横跨中国和外国的API,我们对中国和外国都开放,我们有信心在全球范畴是一个表现很好性价比也很合理的一个模型。

好,这些话说完了,我知道你们的意思是说国内常看到ofo式的疯狂降价,双输的打法。我觉得大模型公司不会这么不理智,因为技术还是最重要的,如果是技术不行,就纯粹靠贴钱赔钱去做生意,我们绝对不会跟这样的一个定价来做对标,我们对自己的模型表现是非常自豪的。

就像你如果有一台特斯拉,它不会因为别的牌子的车比它卖的很便宜它就觉得它要降价,我们就是特斯拉,我们的价钱是合适值得的。

如果你再问以后可能中国就是这么卷,大家宁可赔光通输也不让你赢,那我们就走外国市场。

Q:对比海外第一梯队,中国从落后到做小差距,为什么作为后来者的千亿参数模型在scaling law上看起来能够加速的?决定Yi-Large性能提升加速的核心因素也有哪一些?在算力还是不够多的前提下让Yi-X-Large达到GPT4的水平,下一步要解决的最重要的技术问题是什么?这个问题给到模型训练负责人文灏。

黄文灏:首先我觉得我们一开始落后没有7-10年没有那么多,可能之前落后一段时间,但现在很接近了。

首先做的事情是,零一万物每一步在模型训练上的决策都是正确的,这个看起来是比较容易的事情,其实做起来是不太容易的。

包括我们一开始花了很长时间去做数据质量提升,我们去做scaling Law,没有很着急的推出第一款模型,把我们的基础做的比较好,接下来我们不停地提升数据质量,不停地在做scale up,我们在基础能力建设完以后,在scale up的中会非常顺畅。

另一方面是我们很重视infra的建设,就是算法 Infra 其实是一个 co-design 的过程,在这种情况下我们才能够把我们的算力发挥到比较好的水平。

所以我觉得因为我们前面做对了很多事情,follow这个路径下去我们和世界一流梯队之间的差距是会越来越小的。而且我们在这个过程中建立了一个非常强的人才团队,我们有自己培养的,也有被我们的使命和愿景吸引过来的人,我们一块去做这个事情。所有的人都是工程、Infra、算法三位一体,这些人才在将来也会发挥越来越大的作用。

Q:在Coding方面刚才开复老师提到了Yi-Large并没有针对Coding做专门优化,但还是位列第二。专门做优化的则排名好像没有看到上来,这是为什么?在Coding方面的优势是怎么实现的?我们给到文灏。

黄文灏:刚才提到没有专门对Coding做优化,是因为我们在LMSYS上面的模型和在我们自己的产品当中的模型的API是完全一致的。我们也分析过用户需求,Coding并不是大家非常广泛使用的场景,大家可能会在实际场景中有一些Coding问题,但是到非常专业的Coding问题还是会用一些Coding专门的模型,所以我们会有一个general的模型,因为我们觉得LMSYS是更general一些,我们提供是一个general模型的评测。惊奇的是发现它在Coding上也做的挺好的。

第二,我们有一些做Coding专项的优化,我们觉得Coding也是大模型发挥能力的一个场景,我们可能未来也会有一些相应计划在这边,所以我们做了Coding专门模型,Coding专门模型会对Coding场景,比如说代码改写、长代码续写、代码补全有非常好的性能表现。之后我们也会陆续把Coding专项模型开放出来。

Q:目前AI的训练是否遇到数据荒的情况?之前用国内的弱智吧数据训练开源版本的Yi-34B效果显著,零一万物是否会另辟蹊径的训练数据源?目前比较好的数据来源是什么啊?这个我们可以回答的尺度就可以。

黄文灏:首先我们没有碰到数据荒的问题,至少我们看到数据还有一两个数量级的增长,数据还是有很多可以挖掘的一些潜力,这里有我们很多正在进行的工作,具体不太方便透露怎么做,但是我们的确看到数据有很大潜力。而且我们最近在多模态上有一些finding,可以更进一步增加一到两个数量级的数据量。

弱智吧我们可以简单交流一下,这个工作是我们这边的intern和和一些科研机构合作的。当时是我们的想法,这些数据可以对模型训练有一些帮助,我们做数据团队一直有这种奇思妙想去开拓不同的数据场景,提高数据的质量和数据的diversity。

李开复:终于说出来了,弱智吧是我们的点子。

Q:GPT-4O开始做原生多模态模型,统一文本、音频、图像、视频的输入输出的多模态大模型会是一个确定方向吗?可否透露一下零一万物在多模态的进展。

李开复:其实跟我们交流过的媒体朋友和外界朋友会知道,我们在去年一直都认为全模态模型,omni,也就是我们挑了同样的词已经在做这个工作,这个工作不是人家出来你再跟风能够跟得上的,我们有一定的累积,我们也相信全模态是正确方向。从我们的release schedule 来说,我们只能说在今年你们可以期待一个惊喜,细节请文灏再补充。

黄文灏:对。我们一直有在做多模态,原生多模态模型,也有一些进展,但是它里面会有一些就是dependency,就是说我们需要一个很强的 language model ,或者一个 language model 训练的方法。然后接下来我们可能会 scale up多模态模型。我们其实在小的size上有一个基本上和gpt4o功能一样的,就是 any to any 的多模态模型,然后剩下的可能是scale up 的一些工作

关于它是不是确定性方向?这是一个开放问题,大家要通过实验的finding来决定它是不是一个确定性方向。因为我们的目标要提高智能上限,多模态理解和生成这两个任务是不是都在提高智能的上限。第二个是多模态模型相比文本模型能不能提高智能的上限。

我简单说一下我们在某些方向上看到一些比较promising的初期实验结果,我们是相信这个可以提高智能上限。

Q:零一万物的API价格会不会下降?

李开复:现在没有调整的消息来分享,我们现在收到的反馈还是非常正面的,而且有几个开发者一看到,马上就替换别的模型。我认为模型要看它的表现,可能有些领域,比如说一些很难收回钱的领域要看价格,反正有足够多的在选我们,我们刚上线,有这么多忠诚的爱好者加入了,我们先服务好他们,价钱再说吧。

到今天为止,我们刚宣布的性能肯定是国内性价比最高。大家可能有用千token、百万token,大家可以自己测算一下。

Q:零一万物在产品化方面未来有没有一些规划。

李开复:有,我们上周发布的产品基本是我们的方向,我觉得一方面我们已经推出了一些非常成功的海外产品,也是可以算是万知的爸爸,已经在海外得到非常好的成功,今年预期会有大概1个亿的收入,而且不是烧钱模式烧出来的。

而且我们另外还有几个其他产品在国内国外在测试中,当然万知我们也会继续努力把它越做越好,尤其我们对PPT的功能得到非常正面的反馈,因为这是一个跟国内其他大模型很大的差异点,这个是我们面对消费者consumer产品的分享。

我们也有自己在走一个企业级的模型方向,但是现在初步用户在国外,我们认为国外用户的付费意愿或者付费金额比国内大很多,所以虽然我们在中国也非常期望服务国内用户但是按照现在TO B卷的情况,几十万做POC,几百万做一单,我们做一单赔一单的生意,我们早期在AI1.0时代太多了,投多了,我们坚决不做。

Q
QZ666
1 楼
这玩意非常烧钱。
饳崆
2 楼
吹牛比美国先进一代人。
吃货2001
3 楼
一说排名,中国人就兴奋不已
z
zxbdt2
4 楼
不信,应该说领先整整十里山路
j
jw2009
5 楼
最后的场面:一地鸡毛,只有几家大公司能存活。。
j
jw2009
6 楼
但是这个技术让人类在能力上上几个台阶。。
诚信
7 楼
"不信,应该说领先整整十里山路" 人家是遥遥领先, 十万八千里山路, 而且不换肩。
l
luren_1970
8 楼
啥时候这帮马屁精都进了监狱,中国大陆媒体上全都是中国如何如何落后于世界,那中国就有希望了。
k
kdgirl
9 楼
国内应该有人信
R
Radianz
10 楼
阿Q精神,阿Q活的开心就好。 中国落后,有没人敢碰的深层次原因。 包括政治文化历史。 都世界第二大经济体了,开放也40多年了。 对当代人类开创性,革命性科技发明,一项没有,说明什么。
纷纷
11 楼
李开复这是长美帝志气,人家张维为早就说过,中国走在第四次工业革命最前沿,已经实现了清场式遥遥领先。
不允许的笔名
12 楼
这种排名上榜的有两种情况:好模型和得分高的模型。测试模型的数据都是公开的,如果用测试数据fine tuning,分数一下就上去了。真正想做好模型的人,会尽量避免类似数据。其实就是人类模拟考题,比人类更卷,因为偷模型题不犯法。
老酒喝多了
13 楼
早就遥遥领先了,怎么还差半年呢?草
z
zhongguoren8
14 楼
SB,米国的AI技术是开源的,程序对外公开。还有脸说自己“仅差6个月” 强国既没有创造力,也没有稳定的政治环境,再过100年也比不上。
g
groogle
15 楼
美国一开源 他就遥遥领先 哈哈哈 小丑一个
a
abel00001
16 楼
美帝的走狗,本来领先6个月,一定要说落后,是何居心
拾麦客
17 楼
没办法,谁让他是吃狗粮的? 要看主人颜色的。
c
chinesegod3
18 楼
AI是开源的,论文也是公开的,现在就是工程问题。但是中国绝对出不来AI教父Geoffrey Hinton,四十年终于修成正果。中国人没有一个人能坚持四年研究神经网络,在没有可见前景的情况下。
r
roliepolieolie
19 楼
不信。我过去挺信李开复的。他前几年一直说中国在人工智能世界领先。而且原因是中国有海量的数据以及没有隐私。几年下来,我们发现中国明显落后于美国。这说明李开复虽然是业内人士,也看走眼了。中国确实有海量的无隐私限制的数据,但是中文中的信息量与质量,与全世界通用的英语相比还是没法比。还有中国人的创造力没法与美国人比。一来二去,就造成了今天的美国AI红透了天,而中国只能等着美国开源。
H
HL
20 楼
李开复=张维为
莫言无语
21 楼
从文字狱开始算,数据模型差了千年。
莫言无语
22 楼
现在网上五毛没看到。是不是sleep6等待指示集中火力针对台湾520演讲部署任务。
叫啥好不好
23 楼
刚手淫完
a
ajaychen_2024
24 楼
澳洲著名反华智库的报告 ASPI《全球关键及新兴技术追踪报告》(英文) ——ASPI’s Critical Technology Tracker:The global race for future power 作者/编者:战略政策研究所(ASPI) 摘要 2023年3月2日,澳大利亚智库战略政策研究所(The Australian Strategic Policy Institute,ASPI)发布跟踪全球关键及新兴技术的报告。据该报告表示,通过跟踪防卫、太空、能源及生物科技后发现,在全球44个关键及新兴技术上,中国在37项上占据“惊人的领先”地位。该报告说,在过去五年,中国在全球尖端飞机发动机,包括高超音速上的高影响力研究文献中占据48.49%。此外,中国在全球顶尖的十大研究所中占据七个。
a
ajaychen_2024
25 楼
from the river to the sea,在美国这就叫反犹,还有各种政治正确,什么不能说 he /she,要说they,什么不能说黑字,不能说非法移民,要说无证入境者,这也是文字狱,美国才刚开始。 莫言无语 发表评论于 2024-05-21 05:47:54从文字狱开始算,数据模型差了千年
f
frombjwithlv
26 楼
刚刚用了微信ai工具,和chatgpt对比。微信的回答比copilot回答差远了,含含糊糊,而且只问了三个问题就告知今天的次数用完了,言下之意它要收费。垃圾一个。就像百度,整个一个垃圾。
T
Timberwolf
27 楼
把林副统帅“不说假话办不了大事”的指示溶化在了血液中落实在了行动上。
X
XJPbaozi
28 楼
这六个月是中国模型和美国最细小的差距,然后越来越大,再也赶不上了。 哦,我说的是中国在遥遥领先,中国已经不在银河系了。
v
viBravo5
29 楼
李开复这话反映了他情商很高,仅此而已。
A
Achilles001
30 楼
咋能差6个月,不是已经远超了吗? viBravo5 发表评论于 2024-05-21 06:26:30李开复这话反映了他情商很高,仅此而已。
还是老李
31 楼
roliepolieolie 发表评论于 2024-05-21 05:34:00 。。。中国确实有海量的无隐私限制的数据,但是中文中的信息量与质量,与全世界通用的英语相比还是没法比。还有中国人的创造力没法与美国人比。 ============== 同意,中文信息质量非常差,体现在: 1. 虚假、无用信息多,百度就是个坏例子。另外更主要的是中文世界起码95%以上是受大陆共产党管制下的信息,不distorted, biased才怪。 2. 有用信息极少。以电脑专业而言,在用中文查找相关信息的时候,哪怕是一些非常基础的“小学生水平”的知识,中文网页里也基本上是隐藏的,必须订阅、登录才能查看,相反,英文网站里铺天盖地的相关知识。 所以用中文信息训练出来的东西,从根子上就不可靠。
码农个体户
32 楼
他也要来赶这个时髦
华伦久费
33 楼
差六个月就是天朝的煞笔说法。李开复已经成了天朝典型的御用专家。
咲媱
34 楼
骗子又来想骗人了。
七戒
35 楼
叫啥好不好 发表评论于 2024-05-21 05:55:48 刚手淫完 ——— 别扯了!李开复早就没这个需求了!
l
luting
36 楼
跟后面走可以少走很多弯路,能够接近也不奇怪。而且中国人似乎在AI方向有特长,在美国的AI学者也大量是华人。长远而言,美国优势是算力,中国的优势是人力,看看谁是最后的胜利者。
封泥巴
37 楼
哈哈,唯一一点我不理解,为什么每次美国不搞中国就不搞,美国公开一个技术,中国就遥遥领先
莫言无语
38 楼
拉倒吧,现在都担心AI要取代人了,还要靠人力来取胜?
小米干饭
39 楼
科研方面的进度能精确到月?这可不是建桥盖大楼。
s
shakuras2000
40 楼
嗯。中国领先6个月,一直遥遥领先
点点点点点
41 楼
不对,应该是只领先5个月13天8小时5分48秒47
r
roliepolieolie
42 楼
其实AI也没有什么神秘的,当模型建立算力充足后,它就像一颗种子,吸取的就是土地里面的营养。或者茁壮成长,或者长成歪瓜裂枣,全靠土壤环境。中文尤其是简体中文绝大部分运载的是中国大陆的信息,是虚假信息和谣言的源头。现在“简中”已经基本上与谣言画等号。这种严重污染的土壤上怎么可能长出硕果?用脚趾头都可以想明白为何中国的人工智能起个大早赶个晚集。
t
tw1234
43 楼
"从7-10年缩短到了6个月" 主要是人家还在创造和研究,没有公开。现在公开了,模型放在那里让你用,让你看,当然一下子赶上很多。
量子纠结
44 楼
大语言模型基于transformer算法,每一次AI突破性进展都是因为一个全新的算法的发明,CNN,RNN,LSTM,GAN,deep auto-encoder, generative auto-encoder,哪一个推动AI革命性进步的算法是中国人发明的?
b
barryv
45 楼
现在中国的超级计算机就没有动静了,也不参与排名了。
d
dream_pillow
46 楼
论个体的聪明,华裔世界第一。 论集体的睿智,华裔还有很长的路要走。
a
alextelltale
47 楼
不要怀疑了,1,人家是专家,是AI的元老,在微软谷歌都工作多年。2,他是美国台湾人。所以客观公正性不容置疑。
不可以使用
48 楼
需要找个说法来对冲一下落后80年所造成的伤害,老丘还真是罪大恶极啊。
f
fishingworld
49 楼
应该是差7个月
孤岛侠客
50 楼
李开复不懂人工智能,却成了中共的吹鼓手,可悲。
n
novtim2
51 楼
META上次开源之后大家都知道会有这一天;如果META开源发布每3个月发表一次,那么差距就变成了3个月。不要为没有底线的META工作,有机会转到其他公司。
I
InNorthTexas
52 楼
小偷晒家产。
饲养员001
53 楼
台湾骗子
r
roliepolieolie
54 楼
物以类聚。台湾操守不好的人最后都投奔骗子国。抱着篮球的林毅夫,还有这个李开复。别人捂着鼻子绕过中国。他们不嫌臭,因为与他们身上的味道差不多。
汗滴米高
55 楼
大模型我不懂。 这个“奥巴马同桌”是个骗子,骗子说的我是不相信的。
兔比兰伯王
56 楼
谷歌工程师2000个人,平均一个工程50--100万美元一年(包括福利等), 一年要10-20亿美元的人工支出!
西
西湖孤山
57 楼
呵呵,他说的话你就当相声听吧,又不要票。
c
chinesegod3
58 楼
中国绝大部分的大模型都是llama架构,原因嘛懂的。
D
Diesel10
59 楼
luting 发表评论于 2024-05-21 06:51:21 跟后面走可以少走很多弯路,能够接近也不奇怪。而且中国人似乎在AI方向有特长,在美国的AI学者也大量是华人。长远而言,美国优势是算力,中国的优势是人力,看看谁是最后的胜利者。 ========================== 哈哈,华人搞AI的人头是不少,原因嘛大家都懂,因为好搞钱,但是世界范围内AI圈的核心团队华人很少却是残酷的事实,无论是OPEN AI还是谷歌都是如此。
一条小路
60 楼
說謊都不會!習思想光芒早就把世界照亮了,全世界人民都可以不換肩能寬衣。
t
triplestones
61 楼
开源就差6个月,不开源就差N年
n
novtim2
62 楼
抵制脸书 META;META就是典型的叛国贼。他自己不需要用AI赚钱就把美国的宝贵财富开源给强有力的竞争对手。
i
iask
63 楼
封泥巴 发表评论于 2024-05-21 06:53:00哈哈,唯一一点我不理解,为什么每次美国不搞中国就不搞,美国公开一个技术,中国就遥遥领先 =============================================================== 这一问有水平!
i
iask
64 楼
这位网友说的很有道理。盗窃抄袭,谄媚无原则的人操守虽差,但中共就好这一口 ======================================================== roliepolieolie 发表评论于 2024-05-21 10:20:00物以类聚。台湾操守不好的人最后都投奔骗子国。抱着篮球的林毅夫,还有这个李开复。别人捂着鼻子绕过中国。他们不嫌臭,因为与他们身上的味道差不多。
B
Biao9919
65 楼
哈哈,这就是翻墙出来的大陆人的逻辑思维。我就说中共愚民政策拉低整个民族的智商,产生大量的retard alextelltale 发表评论于 2024-05-21 08:11:00 不要怀疑了,1,人家是专家,是AI的元老,在微软谷歌都工作多年。2,他是美国台湾人。所以客观公正性不容置疑。
s
seewhatisee
66 楼
謝謝李開復,美國要警惕。立即制裁。
w
welgoindco
67 楼
五毛说,“在过去五年,中国在全球尖端飞机发动机,包括高超音速上的高影响力研究文献中占据48.49%。” 奇怪为何还不能自发研制发动机,C919还要进口霉帝么。 其实,每年清华北大的排名就靠这些假大空的论文,至今都没有一项获得诺贝尔的奖项!