在计算机技术里,AI是一个古老的学科,几十年来没有真正的突破,都是在算法上打转,AI专业人员就业困难。这一轮的AI革命起源于2016/2017年谷歌发表的一篇内部论文。这篇论文并不是讲传统的AI算法,与传统的AI论文不一样,它并没有提出一种具体的算法,而是think out of box, 提出了一种全新的理念和思路(如果有人还在谈“算法”,那他是在翻老黄历,肯定没有看懂其中的奥秘)。这篇论文对外行来讲,毫无意义,但是有几个同行看懂了其中的奥妙,试着按其精神,把它写成了程序加之公布,这帮助更多的同行看到了苗头,大家纷纷效仿,于是引发了山洪,才有了这次AI革命,这次AI革命,虽然与以前的AI都共用了AI这个字眼,其实有本质的不同,这次的AI是所谓“生成”性AI,一旦调好系统,只需要输入海量的个例,这个系统就会自行分析,归类,把其结果变成自己的“知识”,这就是所谓的调训,然后在其基础上更新,完善,而且可以365天,不舍昼夜的完善和调训自己,并且在这座不断的迅猛增大的知识的山上,自主的对面临的问题提出多种解决方案,这些方案可能是人类从来没有实行过,甚至没有想到过的方案,即所谓的“生成”性AI。特殊软件总是要有特殊的硬件来支持, 因为其特殊的性能,Nvidia幸运的成了新宠。现在各大公司都在拼命建造巨型Data Center,里面罗列了无数的超级计算机,大到电能的供应都成了问题。可以想象,如果IBM当年没有放弃超大型计算机的追求,这份殊荣可能就属于IBM了。历史就是这样,一个相当聪明,众口交誉的短期决定,十几年后可能证明是完全是亡国亡种的灾难。顺便说一句,我们可以看到,谷歌当年发表这一篇内部论文时,也只是意识到这是一种全新的理念,提出来与同行分享商酌,但是肯定没有意识到其巨大的潜力。
中国最不缺的就是数学好的。。。我工作时的确发现白人数学好的比较少。华人在算法上有很大优势。中国缺的是创新&开创性思维,所以电子工程里的DSP算法几乎都是美国发明的。但是华人数学好,理解能力强,只要有了概念,对各种算法做改进的能力是非常强的。
关于DEEPSEEK, 我相信美国限制中国AI硬件,中国可以在算法上突破用比较优化的算法大大减少GPU计算要求。DEEPSEEK应该就是这个结果。。而且即使美国限制中国AI硬件。虽然NVIDIA GPU非常快,但是中国如果把比较慢的GPU CLUSTER连起来做平行计算速度也以大大提高。中国应该会在AI 分布计算上突破,把众多的比较慢的GPU连起来一起做DISTRIBUTED COMPUTING来加快计算速度。虽然电会用得多点,但是美国的确无法限制中国AI发展。。
华为在光通讯和计算机CONTROLLER ASIC 设计上应该有能力把几万个甚至几十(or 百)万GPU Cluster 都连起来做DISTRIBUTED COMPUTING 大大提高计算速度。。。。实际上BROADCOM就在为谷哥做这个事,美国把中国逼到死,中国应该会做这个来突破美国的芯片封锁。
DEEPSEEK对美国AI行业会有什么影响,答案是显而易见的....
BTW,我不是什么粉红,我只是在叙述我自己观点而已。
看看OpenAI 里面,有多少是亚裔工程师和科学家。
在计算机技术里,AI是一个古老的学科,几十年来没有真正的突破,都是在算法上打转,AI专业人员就业困难。这一轮的AI革命起源于2016/2017年谷歌发表的一篇内部论文。这篇论文并不是讲传统的AI算法,与传统的AI论文不一样,它并没有提出一种具体的算法,而是think out of box, 提出了一种全新的理念和思路(如果有人还在谈“算法”,那他是在翻老黄历,肯定没有看懂其中的奥秘)。这篇论文对外行来讲,毫无意义,但是有几个同行看懂了其中的奥妙,试着按其精神,把它写成了程序加之公布,这帮助更多的同行看到了苗头,大家纷纷效仿,于是引发了山洪,才有了这次AI革命,这次AI革命,虽然与以前的AI都共用了AI这个字眼,其实有本质的不同,这次的AI是所谓“生成”性AI,一旦调好系统,只需要输入海量的个例,这个系统就会自行分析,归类,把其结果变成自己的“知识”,这就是所谓的调训,然后在其基础上更新,完善,而且可以365天,不舍昼夜的完善和调训自己,并且在这座不断的迅猛增大的知识的山上,自主的对面临的问题提出多种解决方案,这些方案可能是人类从来没有实行过,甚至没有想到过的方案,即所谓的“生成”性AI。特殊软件总是要有特殊的硬件来支持, 因为其特殊的性能,Nvidia幸运的成了新宠。现在各大公司都在拼命建造巨型Data Center,里面罗列了无数的超级计算机,大到电能的供应都成了问题。可以想象,如果IBM当年没有放弃超大型计算机的追求,这份殊荣可能就属于IBM了。历史就是这样,一个相当聪明,众口交誉的短期决定,十几年后可能证明是完全是亡国亡种的灾难。顺便说一句,我们可以看到,谷歌当年发表这一篇内部论文时,也只是意识到这是一种全新的理念,提出来与同行分享商酌,但是肯定没有意识到其巨大的潜力。
可以提高超大规模参数下的性能。所以归根结底还是算法的提高,然后用这个方法堆算力scaling law也是有极限的,大家基本已经确定目前已经接近或达到这个极限,再堆下去甚至负作用了。
任何算法都有其极限和适用范围,对技术一知半解的门外汉就只能靠生搬硬套的通俗讲解来想象,当然会被牵着鼻子走。
日本人也是