当然不是。我可能一辈子没见过一个充气玩具楼要倒。但我知道空气密度,重力,引力,等基本概念。不需要看见过就能判断。难道牛顿推出万有引力是他目睹了世界上所有东西掉下来,所有东西往前动被外力推了一下改变轨迹? 人们说中国古代没有产生科学是因为经验论, 没有系统提炼出底层原理,靠的是老师傅一辈子见多识广,而西方靠的是欧几里得,牛顿,伽利略从基本原理推导。 AI 就是中式的老师傅经验论,可以出成果,但上限很低。
可是它应该无法推进人类未知的知识领域。 比如-1的根号有没有意义? 是什么意思? 这种跨时代的数学定义. 它做不到的。因为在怎么排列组合,它没有办法排列完全不存在的东西。但是在知道-1根号是i的情况下。它通过强大算力,是应该也可以得出e to the I pie 等于-1. . 并且得出泰勒展开。但是在没有人告诉它这个公式用处非常非常的多,极具意义,它不会把这个组合告诉人类。(除非有程序让它知道这个组合是有意义的). 以上为画外人员认知。不知道版上大神们怎么看
You draw the conclusion after the careful observation and pondering, it's logically consistent. The comments from others are more like very superficially generated nonsense by some foolish AI. 那些没理工尤其是纯数学和计算数学背景的,请别骚扰楼主了, OK?
这不就证明了人类是有真正的智能吗? 而那些依靠统计概率论和统计数学才真的是hardcoded programming, 依然是某些人根据时代的局限依靠当时现有的知识设计出来的 an application with countless bugs in modeling per se! 注意我的各种用词: 人, 人类,某些人
adorp 发表于 2024-03-17 11:35 You draw the conclusion after the careful observation and pondering, it's logically consistent. The comments from others are more like very superficially generated nonsense by some foolish AI. 那些没理工尤其是纯数学和计算数学背景的,请别骚扰楼主了, OK?
这也解释了为啥有时候这些AI视频,图像,会出现一些匪夷所思的反常识的现象。因为它根本就没有常识。
所以别看现在这些通过大量数据训练的AI发展很快,但是也很快触及天花板,因为一开始的方法就错了,是条死路。通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
理解不正确的地方有望指正。
可能本质定义的太严格。可以理解为人对物理世界里的因果关系,在对人类生活有用的尺度内,当然是有理解的,要不然我们早死了。
说的很好,这也是我理解的,大量训练可以触类旁通,但也是高屋建瓴,没有基础。除非程序员事先把所有可能情况都给设定好,才能得出正确结论。
你完全没有理解我在说什么。我说的本质不是“宇宙真理”,从科学角度,当然人类现在的认知和真理差的十万八千里,也可能没有绝对真理。但在人类的认知范围内,我们有一套常识,而我们和人,和物的互动, 是通过这套常识,并且被不断的扩充和改善。这个AI不同,AI没有理解,只有模仿,当然是高级高精度的模仿,在很多情况下可以以假乱真,但是你能很快看出他只不过是鹦鹉学舌而已。
因果关系的逻辑模块是硬件ROM, genetic code在大脑里的。
属于最基础的脑功能,低级生物就具备了。不具备的就被淘汰了。
当然不是。我可能一辈子没见过一个充气玩具楼要倒。但我知道空气密度,重力,引力,等基本概念。不需要看见过就能判断。难道牛顿推出万有引力是他目睹了世界上所有东西掉下来,所有东西往前动被外力推了一下改变轨迹?
人们说中国古代没有产生科学是因为经验论, 没有系统提炼出底层原理,靠的是老师傅一辈子见多识广,而西方靠的是欧几里得,牛顿,伽利略从基本原理推导。
AI 就是中式的老师傅经验论,可以出成果,但上限很低。
这个叫做generalization…
民科真的就算了😐
您对什么是真正的智能可否下个定义?
据我所知,抛开宗教因素,人类是否有自由意志都难说。而人类对世界的理解,大部分都是不完全归纳,或者是基于不可证明的公理假设。
依我看,AI是否具有智力,就和判断某些软体动物(比如章鱼)是否有智力一样,完全取决于你怎么定义智力。
人脑和AI的计算方式是不一样的啊
然而仅仅通过那些物理条件并不能做出100%的判断,因为你不知道充气玩具的具体状态。也许充气的气体密度比空气大很多,或者玩具材料的支撑强度不足,导致最后玩具大楼也会倒下。实际上你的大脑是被游乐场上的充气玩具训练了,所以得出了大楼不会倒的结论。 至于牛顿,正式因为他的观察不全面,所以他的很多公式在宇宙尺度和微观尺度并不成立。
一个智力正常的儿童,2岁半,就知道猫是什么样子了,他看过的猫不超过10次,识别准确率极高,吊打AI。
世界上很多事情是没有那么多数据给你训练的。在小数据,甚至0数据的情况,请问AI如何判断,如何认知?
是一样的,现在的AI就是模拟人脑的神经网络工作模式建立的
只不过我们的神经网络是模拟信号系统,和底层硬件(神经元)绑定,mortal的
AI是数字信号,是immortal 的。 AI个体可以完美复制(数字系统, hardware independent)
隔壁帖子明面讲的是AI,科技巨头的阴谋。实际上张口闭口trump,实则想影响版上华人的选票。实际讨论偏向于科幻片,不必当真。
有啥不一样的都是由神经元网络加上简单的电信号传输和接受外接信息。你如何解释人脑就是靠那一点点的电信号传输形成了意思,无非就是脑神经元多呗,换成ai,不就是的运算能力吗和数据么。
人也根本不需要"对物理世界底层原理的理解,知道力学,引力,这些基本概念",才能推测出“大楼倾斜有倒塌风险”。一个没上过一天学的文盲看见一个摩天大楼慢慢在倾斜,都会预测,这楼要倒了!
那说明神经元还不够底层
现在很多人在炒vectordb的冷饭啊,不知道similarity search能不能做出模糊识别
Again,现在的计算机很可能永远没办法模拟人脑
量子计算机可以
通过大量前人的经验统计(training data) ,AI会知道知道太阳每天会升起、落下,也知道持续加热水会沸腾,也能简单预测天气很冷时会下雪结冰,但他能通过这些观察,自己抽象出引力、电磁相互作用力、强相互作用、弱相互作用力、相变这些基本物理规律吗,甚至更高层次的物理规律,并且用数学语言(或者更高层次的概念)定义和表达,然后揭示或者准确拓展人类现有物理理论吗?
如果能,那就说明AI是有思维能力的,如果不能,说明就是一高级的经验统计工具。我的预测是,用现在的所谓LLM的技术道路,是没戏的。
仅就这个例子来说,吊打AI不奇怪。两岁半的儿童,看猫十次,但可不是看了十次照片,而是三维的实物且是不同角度的,还有时间长度的。剩下的时间都没看猫,我觉得这训练远超过万亿张照片了。
再一个,人眼比照相机还是牛太多了。
确实,AI的底层逻辑或者理论基础未知太多,现在还大都是black box
还有,我一个人一天需要消耗多少焦耳的能量?AI需要多少?AI能不能一个两节AA电池就能干CHATGPT的活?
这个例子和三维二维没有关系
大脑的话大概每天吃一个馒头就够了
哈哈,很欣赏楼主的思辨
楼主,几点想法,希望能拓展你的思维: 1. 现在大家都在谈论的AI 是用大量数据训练出来的巨大的神经网络,参数动辄上亿,这个级别的神经网络作出的预测,现在还无法解释输入和输出之间的因果关系,因为过于复杂。对于一个给定的输入,即使做出模型的人也无法直接说出模型的输出是什么,也得运行一遍这个模型才知道输出。这也是现在研究领域大家都很关注的一个问题,因为这个不确定性会引起很多安全性和道德方面的问题。反过来,也不能简单地说这样的模型不理解物理规律。巨大且复杂的神经网络里面,也有可能隐藏了物理规律。所以你的结论过于草率。 2 现在已经有很多人试着把物理规律驱动的模型和数据驱动的模型结合在一起,这样的模型有可能会集成两者的优点,自然也会使用物理规律做出预测。所以,你提到的AI的缺点,很快就会被克服。
让AI产生意识其实非常容易。
这觉得 浓浓的 民科味
同意 明早醒来公司又又又裁员了
这个只是时间问题。 你现在的手机比几十年前的超算还快,能量消耗可能只是它的万分之一
你说的这种判断,AI是可以完成的。所有你所知道的所谓基本原理,概念,都可以加入到算法里。人类的思维,完全可以被AI吊打。就是你能够用大脑做的思考判断分析,AI都可以做到,现在没做到的,很快就能做到了,而且会做得更好,更快,更全面。
AI无法做到的,是人类的直觉。直觉有时候是反常识的,是和主流判断相反的,但是对的,好的。还有就是灵感,是昙花一现的,不是从思考中得来的,神来之笔,AI无法做到。所有人类通过学习得来的能力,AI早晚都能得到,而且能力更高。
这是我的两分钱。
你说的认识世界本质,那是超智能。
那是因为小孩的脑神经经过了几亿年的进化,已经在一个很好的初值上了,不需要那么大的训练集。如果人刚生出来时候的大脑神经网络也是随机数胡乱连的,只怕还不如AI,让他看多少猫的图片也是白痴一个
ANN (Artificial Neural Network) 也就是受人脑结构启发起了这么个听起来很牛的名字,实际过程和人脑工作方式相差十万八千里。人脑到底怎么工作的,目前地球上没有人能清楚的解释,更别说去模拟人脑了。 真正有人脑那样的意识的AI,依赖于认知科学的重大理论突破,而不是计算机科学。
这就像现在的AI,有上限,而且很难突破,达到AGI。
目前的AI只能在人类已有的知识理论框架下,以更快的速度解决人类也可以解决的问题。 AI放到日心说之前,它不会提出地球绕太阳转的想法 AI放到牛顿之前,它不能解释为啥苹果会掉下来 AI放到爱因斯坦之前,它也看不到“完美”解释了物理世界几百年的牛顿力学的局限性
所以你的neutral Network 最后有多强,还是要看给它学习什么是对的,相关的的东西越是精确,那它的回答就会越来越好。 (感觉LLM 就是bunch of math , 然后越来越接近你要的0 , 就是它可以展现许多排列组合,然后根据程序知道那些组合是没有意义的,哪些组合是有意义, 选出最可能和问题有关联的组合给你- 这也是为什么初期GPT会闹许多笑话。现在也还在闹笑话但少许多的原因吧).
有了这些基础(知道什么组合对于提问者书有意义,有关联的,算力够,它真的就是可以做许多许多的事情代替人类。 这个没法辩)
比如-1的根号有没有意义? 是什么意思? 这种跨时代的数学定义. 它做不到的。因为在怎么排列组合,它没有办法排列完全不存在的东西。但是在知道-1根号是i的情况下。它通过强大算力,是应该也可以得出e to the I pie 等于-1. . 并且得出泰勒展开。但是在没有人告诉它这个公式用处非常非常的多,极具意义,它不会把这个组合告诉人类。(除非有程序让它知道这个组合是有意义的).
以上为画外人员认知。不知道版上大神们怎么看
Yes, you get it!
两岁半的小孩可能看猫不超过十次,但每次给他所接受的都是每秒不知道多少帧,每帧不知道多少分辨率的猫的三维立体数据。
人工智能从这一角度算力还有局限性
You draw the conclusion after the careful observation and pondering, it's logically consistent.
The comments from others are more like very superficially generated nonsense by some foolish AI.
那些没理工尤其是纯数学和计算数学背景的,请别骚扰楼主了, OK?
这不就证明了人类是有真正的智能吗?
而那些依靠统计概率论和统计数学才真的是hardcoded programming, 依然是某些人根据时代的局限依靠当时现有的知识设计出来的 an application with countless bugs in modeling per se!
注意我的各种用词: 人, 人类,某些人
You get it!
你的例子就和这个AI(Artificial Intelligence)一样只是量变,根本和质变不搭介.
Artificial: 来自于古拉丁语 artificiālis, 意思是 技能和手工制造. 现在的意思是:人造的,假的
所以永远是假的智能 !非常机械的、呆板的、无智能的耗能极大的编程的死计算。这个程序和建模就是如来佛的掌心和它的局限。
有推荐的吗
AI完全可以有你说的这些常识。我们把它输入就行了。比如我们做药物代谢的模型,就有好几种,一种是完全基于“常识”的,一种是完全基于数据的,一种是给它一些常识加一些数据。
基于“常识”的这种,会需要提供很多很多的参数,但是很多参数都无法测量,只能估计,其实大多数情况都不实用。完全基于数据的反而是最常用的,也就是你说的大数据training出来的AI。但是有时也不好用,那就用常识加数据这种模型,我们通常称为改进后的AI模型
1931年数学家库尔特·哥德尔(Kurt Gödel)在一篇论文《Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme》中正式发表了不完备性定理。
1951年,哥德尔获得爱因斯坦勋章,冯 · 诺依曼评价说:「在现代逻辑中的成就是非凡的、不朽的 -- 他的不朽甚至超过了纪念碑,他是一个里程碑,是永存的纪念碑。」
没错,这楼里几个对楼主冷嘲热讽的人其实自己是半桶水。当然楼主有些讨论偏题了不在重点上。 那些说AI有意识的人,麻烦去问下chatgpt,人类意识的产生和本质是什么。
支持这个说法
楼主再想想,实际上你所说的反而能证明AI是可以有用的。
比如说中式老师傅的经验,如果重复次数足够多,并且整理归纳下来,那么就是原理了;而AI的能力就是基于大量数据集来整理经验,一个老师傅一件原理也许一辈子不会见到超过1000次,他不能基于这1000次的结果概括原理,但是他如果见到了10万次,概括出原理的可能性就大很多;很多先贤的能力是也许就见到一次就能概括出原理,牛顿就被苹果砸了一次就能分析出重力,但是显然被苹果砸了很多次的人并不少,但是假设有人有一点物理学知识,然后被苹果砸了无数次,那么分析出重力存在的可能性就大很多,当被砸的次数多了以后,理解重力存在的可能性就趋近于1了,而AI靠数据就可以被砸无数次。
古人没有飞机,现代人有了,这个过程是因为有空气动力学提供了理论基础,如果把空气动力学从人类知识体系拿出去,飞机仍然只是现代人的幻想。 人类能不能让AI产生意识?在目前的人类知识理论体系下,绝无可能。注意我说的是目前的知识体系下,将来如果认知科学有重大理论突破,能发展出类似麦克斯韦方程组、相对论这种级别的划时代理论,或许可以,但是目前讨论AI能不能产生意识这种无法证伪也无法证实的问题,纯属浪费时间。
同意,楼主说得没错
现在的AI本质上和Word没有区别,几百万字的文档,你用纸笔来写,想要替换其中一个词的某个字,把所有的都替换,要花多少时间,用word,半分钟的事情,几百万字的文档,你自己去读了写个总结,要花多少时间,用AI一分钟,AI就是一个更强大的tool,但它终究还是个tool,不是主体
“How emotions are made: the secret life of the brain” https://www.amazon.com/How-Emotions-Are-Made-Secret-ebook/dp/B00QPHURT6
re 人从小到大的学习过程,和ai差不多, ai比人更理性,没有本能
说到世界的本质, 因为人类的局限,我们可能永远都无法确定,这个世界到底是不是物理存在的,还是有可能就是虚拟数据 人眼看到的世界,也是局限于大脑对光的反射,和眼球和大脑的构造,鸡和昆虫的眼睛看到的颜色和世界就和人看到的不同,到底那个是真实的. be open minded
大部分人都不能通过这些观察,自己抽象出引力,相互作用力等吧,大部分人的这个知识都是通过看书上课等得到的,也就是训练得到的,你这个例子最多证明AI不够聪明,只能到达普通人群水平
不需要几千万张,几十张就够了
wow, llya 作为chatgpt的创始人之一,采访都说chapgpt的能力是一种发现,而不是创造, 所以人类作为只能感知到四维世界的一种生物还是保持谦虚比较好