王垠:我为什么不在乎人工智能

M
MoneyPort
楼主 (未名空间)
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情

有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。

有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning +
Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向最新的,吹得神乎其神的研究,比如微软的 Robust Fill……

我谢谢这些人的关心,然而其实我并不在乎,也不看好人工智能。现在我简单的讲一下我的看法。

机器一样的心

很多人喜欢鼓吹人工智能,自动车,机器人等技术,然而如果你仔细观察,就会发现这些人不但不理解人类智能是什么,不理解人工智能有什么局限性,而且这些“AI 狂人
”们的心,已经严重的机械化了。他们或多或少的失去了人性,仿佛忘记了自己是一个人,忘记了人最需要的是什么,忘记了人的价值。这些人就像卓别林在『大独裁者』最后的演讲里指出的:“机器一样的人,机器一样的心。”

每当提到 AI,这些人必然野心勃勃地号称要“取代人类的工作”,“节省劳动力开销
”。暂且不讨论这些目标能否实现,它们与我的价值观,从一开头就是完全矛盾的。一个伟大的公司,应该为社会创造实在的,新的价值,而不是想方设法“节省”什么劳动力开销,让人失业!想一下都觉得可怕,我创造一个公司,它最大的贡献就是让成千上万的人失业,为贪得无厌的人节省“劳动力开销”,让贫富分化加剧,让权力集中到极少数人手里,最后导致民不聊生,导致社会的荒芜甚至崩溃……

我不可想象生活在那样一个世界,就算那将使我成为世界上最有钱的人,也没有了意义。世界上有太多钱买不来的东西。如果走在大街上,我看不到人们幸福的笑容,悠闲的步伐,没有亲切的问候,关爱和幽默感,看不见甜蜜浪漫的爱情,反而看见遍地痛不欲生的无家可归者,鼻孔里钻进来他们留下的冲人的尿骚味,走到哪里都怕有人抢劫,因为人们实在活不下去了,除了偷和抢,没有别的办法活……

如果人工智能成功的话,这也许就是最后的结果。幸运的是,有充足的证据显示,人工智能是永远不会成功的。

我的人工智能梦

很多人可能不知道,我也曾经是一个“AI 狂热者”。我也曾经为人工智能疯狂,把它
作为自己的“伟大理想”。我也曾经张口闭口拿“人类”说事,仿佛机器是可以跟人类相提并论,甚至高于人类的。当深蓝电脑战胜卡斯帕罗夫,我也曾经感叹:“啊,我们人类完蛋了!” 我也曾经以为,有了“逻辑”和“学习”这两个法(kou)宝(hao)
,机器总有一天会超越人类的智能。可是我没有想清楚这具体要怎么实现,也没有想清楚实现了它到底有什么意义。

故事要从十多年前讲起,那时候人工智能正处于它的冬天。在清华大学的图书馆,我偶然地发现了一本尘封已久的 Peter Norvig 的大作『Paradigms of Artificial
Intelligence Programming』(PAIP)。像个考古学家一样,我开始逐一地琢磨和实现其中的各种经典 AI 算法。PAIP 的算法侧重于逻辑和推理,因为在它的年代,很多 AI 研究者都以为人类的智能,归根结底就是逻辑推理。他们天真地以为,有了谓词逻辑
,一阶逻辑这些东西,可以表达“因为所以不但而且存在所有”,机器就可以拥有智能。于是他们设计了各种基于逻辑的算法,专家系统(expert system),甚至设计了基
于逻辑的程序语言 Prolog,把它叫做“第五代程序语言”。最后,他们遇到了无法逾
越的障碍,众多的 AI 公司无法实现他们夸口的目标,各种基于“神经元”的机器无法解决实际的问题,巨额的政府和民间投资化为泡影,人工智能进入了冬天。

我就是在那样一个冬天遇到了 PAIP,它虽然没能让我投身于人工智能领域,却让我迷
上了 Lisp 和程序语言。也是因为这本书,我第一次轻松而有章法的实现了 A* 等算法,并且理解到里面的真谛。也是因为 PAIP,我第一次理解到了程序的“模块化”是什
么,我开始在自己的程序里使用小的“工具函数”,而不再担心很多人忧心忡忡的“函数调用开销”。PAIP 和 SICP 这两本书,最后导致了我投身于程序语言领域,并且有
幸获得这个领域鼻祖们的指点。

在 PAIP 之后,我又迷了一阵子机器学习(machine learning),因为有人告诉我,机器学习是人工智能的新篇章。然而我逐渐的意识到,所谓的人工智能和机器学习,跟真正的人类智能,关系其实不大。相对于实际的问题,PAIP 里面的经典算法其实相当幼
稚,复杂度很高,根本不可能解决大规模的实际问题。最重要的问题是,我看不出
PAIP 里面的算法跟“智能”有任何关系。而“机器学习”这个名字,完全就是一个幌
子。很多人都看出来了,机器学习说白了就是统计学里面的“拟合函数”,换了一个具有迷惑性的名字而已。

吓人的外衣之下

人工智能的研究者们总是喜欢抬出“神经元”一类的名词来吓人,跟你说他们的算法是受了人脑神经元工作原理的启发。注意了,“启发”是一个非常模棱两可的词,由一个东西启发得来的结果,可以跟这个东西毫不相干。比如我也可以说,Yin 语言的设计是受了九阴真经的启发 :P

世界上这么多 AI 研究者,有几个真的研究过人脑,解刨过人脑,拿它做过实验,或者读过脑科学的研究成果?最后你发现,几乎没有 AI 研究者真正做过人脑或者认知科学的研究。著名的认知科学家 Douglas Hofstadter 早就在接受采访时指出,这帮所谓“AI 专家”,对人脑和意识(mind)是怎么工作的,其实完全不感兴趣,也从来没有深
入研究过,却号称要实现“通用人工智能”(Artificial General Intelligence, AGI),这就是为什么 AI 直到今天都只是一个虚无的梦想。

纵观历史上机器学习能够做到的事情,都是一些字符识别(OCR),语音识别,人脸识
别一类的,我把这些统称为“识别系统”。当然,识别系统是很有价值的,我经常用手机上的语音输入法,人脸识别对于警察和间谍机关,显然意义重大。虽然很重要,识别系统跟真正的“智能”,却相去非常远,而且这些识别系统的普及,导致了人工智能的能力被严重的神化。说白了,这些识别系统,也就是统计学的拟合函数能做的事情:输出一堆像素或者音频,输出一个个的单词文本。很多人分不清“文字识别”和“语言理解”的区别。OCR 和语音识别系统,虽然能依靠统计的方法,知道你说的是哪些字,却不能真正理解你在说什么。

聊一点深入的话题,看不懂的人可以跳过这一段。“识别”和“理解”的差别,就像程序语言里面“语法”和“语义”的差别。程序语言的文本,首先要经过词法分析器(
lexer),语法分析器(parser),才能送进解释器(interpreter),只有解释器才能实现程序的语义。类比一下,自然语言的语音识别系统,其实只相当于程序语言的词法分析器(lexer)。大部分的 AI 系统,连语法分析器(parser)都没有,所以主谓宾
,句子结构都分析不清楚,更不要说理解其中的含义了。IBM 的语音识别专家
Frederick Jelinek 曾经开玩笑说:“每当我开掉一个语言学家,识别率就上升了。” 其原因就是语音识别仅相当于一个 lexer,而语言学家研究的是 parser 以及
interpreter。当然了,你们干的事情太初级了,所以语言学家帮不了你们,但这并不
等于语言学家是没有价值的。

各大公司最近叫得最响亮的“AI 技术”,就是 Siri,Cortana,Google Assistant,
Amazon Echo 一类含有语音识别功能的工具,叫做“个人助手”。这些东西里面,到底有多少可以叫做“智能”的东西,我想用过的人都应该明白。我每一次试用 Siri 都被它的愚蠢所折服,可以让你着急得砸了水果手机。那另外几个同类,也没有好到哪里去。很多人被“微软小冰”忽悠过,咋一看真能理解你说的话,然而聊一会你就发现,小冰不过是一个“网络句子搜索引擎”而已。它只是按照你句子里的关键字,随机搜出网上已有的句子。大部分这类句子出自问答类网站,比如百度知道,知乎,等等。一个很简单的实验,就是反复发送同一个词给小冰,比如“智能”,看它返回什么内容,然后拿这个内容到 Google 或者百度搜索,你就会找到那个句子真正的出处。人都喜欢自欺欺人,看到几个句子回答得挺有“诗意”,就以为它是在跟你对话,而其实它是牛头不对马嘴,所以你才感觉有“诗意”。大部分人跟小冰对话,都喜欢只把其中“符合逻辑”的部分截图下来,然后惊呼:“哇,小冰好有趣!” 他们没有告诉你的是,没贴出
来的对话,几乎全都是鸡同鸭讲。

我并不是说这些产品完全没有价值。我用过 Siri 和 Google Assistant,我发现它们
还是有用的,特别是在开车的时候。因为开车时操作手机容易出事,所以我可以利用语音控制。比如我可以对手机说:“导航到最近的加油站。” 然而实现这种语音控制,
根本不需要理解语言,你只需要用语音识别输入一个函数调用:导航(加油站)。个人助手在其它时候用处都不大。我不想在家里和公共场所使用它们,原因很简单:我懒得说话,或者不方便说话。点击几下屏幕,我就可以精确地做到我想要的事情,这比说话省力很多,也精确很多。个人助手完全不理解你在说什么,这种局限性本来无可厚非,然而各大公司却拿这些个人助手来煽风点火,各种夸大,闭口不提他们的局限性,让外行们以为人工智能就快实现了,这就是为什么我必须鄙视一下他们。

由于有了这些“个人助手”,有些人就号称类似的技术可以用来制造“机器客服”,使用机器代替人作为客服。他们没有想清楚的是,客服看似“简单工作”,跟这些语音控制的玩意比起来,难度却是天壤之别。客服必须理解公司的业务,必须能够精确地理解客户在说什么,必须形成真正的对话,要能够为客户解决真正的问题,而不能只抓住一些关键字进行随机回复。另外,客服必须能够从对话信息,引发现实世界的改变,比如呼叫配送中心停止发货,向上级请求满足客户的特殊要求,拿出退货政策跟客户辩论,拒绝他们的退货要求,抓住客户心理,向他们推销新服务等等,各种需要“人类经验”才能处理的事情。所以机器能不但要能够形成真正的对话,理解客户的话,它们还需要现实世界的大量经验,需要改变现实世界的能力,才可能做客服的工作。由于这些个人助手全都是在忽悠,所以我看不到有任何希望,能够利用现有的技术实现机器客服。

很多人看到 AlphaGo 的胜利,以为所谓 Deep Learning 终究有一天能够实现人类级别的智能。在之前的一篇文章里(http://www.yinwang.org/blog-cn/2016/03/09/alpha-go),我已经指出了这是一个误区。很多人以为人觉得困难的事情(比如围棋),就是体现真正人类智能的地方,其实不是那样的。我问你,心算除法(23423451345 / 729)难不难?这对于人是很难的,然而任何一个傻电脑,都可以在 0.1 秒之内把它算出来。围棋,国际象棋之类也是一样的原理。这些机械化的问题,根本不能反应真正的人类智能,它们只需要蛮力。

纵观人工智能领域发明过的吓人术语,从 Artificial Intelligence 到 Artificial
General Intelligence,从 Machine Learning 到 Deep Learning,…… 我总结出这
样一个规律:人工智能的研究者们特别喜欢制造吓人的名词,当人们对一个名词失去信心,他们就会提出一个不大一样的,新的名词,免得人们把对这个名词的失望,转移到新的研究上面。然而这些名词之间,终究是换汤不换药。因为没有人真的知道人的智能是什么,所以也就没有办法实现“人工智能”。

生活中的每一天,我这个“前 AI 狂热者”都在为“人类智能”显示出来的超凡能力而感到折服。甚至不需要是人,任何高等动物(比如猫)的能力,都让我感到敬畏。我发自内心的尊重人和动物。我不再有资格拿“人类”来说事,因为面对这个词汇,任何机器都是如此的渺小。

自动编程是不可能的

现在回到有些人最开头的提议,实现自动编程系统。我现在可以很简单的告诉你,那是不可能实现的。微软的 Robust Fill 之类,全都是在扯淡。我对微软最近乘着 AI 热
,各种煽风点火的做法,表示少许鄙视。不过微软的研究员也许知道这些东西的局限,只是国内小编在夸大它的功效吧。

你仔细看看他们举出的例子,就知道那是一个玩具问题。人给出少量例子,想要电脑完全正确的猜出他想做什么,那显然是不可能的。很简单的原因,例子不可能包含足够的信息,精确地表达人想要什么。最最简单的变换也许可以,然而只要多出那么一点点例外情况,你就完全没法猜出来他想干什么。就连人看到这些例子,都不知道另一个人想干什么,机器又如何知道?这根本就是想实现“读心术”。甚至人自己都可以是糊涂的,他根本不知道自己想干什么,机器又怎么猜得出来?所以这比读心术还要难!

对于如此弱智的问题,都不能 100% 正确的解决,遇到稍微有点逻辑的事情,就更没有希望了。论文最后还“高瞻远瞩”一下,提到要把这作法扩展到有“控制流”的情况,完全就是瞎扯。所以 RobustFill 所能做的,也就是让这种极其弱智的玩具问题,达到“接近 92% 的准确率”而已了。另外,这个 92% 是用什么标准算出来的,也很值得怀疑。

任何一个负责的程序语言专家都会告诉你,自动生成程序是根本不可能的事情。因为“读心术”是不可能实现的,所以要机器做事,人必须至少告诉机器自己“想要什么”,然而表达这个“想要什么”的难度,其实跟编程几乎是一样的。实际上程序员工作的本质,不就是在告诉电脑自己想要它干什么吗?最困难的工作(数据结构,算法,数据库系统)已经被固化到了库代码里面,然而表达“想要干什么”这个任务,是永远无法自动完成的,因为只有程序员自己才知道他想要什么,甚至他自己都要想很久,才知道自己想要什么……

有句话说得好:编程不过是一门失传的艺术的别名,这门艺术的名字叫做“思考”。没有任何机器可以代替人的思考,所以程序员是一种不可被机器取代的工作。虽然好的编程工具可以让程序员工作更加舒心和高效,任何试图取代程序员工作,节省编程劳力开销,克扣程序员待遇,试图把他们变成“可替换原件”的做法(比如 Agile,TDD),
最终都会倒戈,使得雇主收到适得其反的后果。同样的原理也适用于其它的创造性工作:厨师,发型师,画家,……

所以别妄想自动编程了。节省程序员开销唯一的办法,是邀请优秀的程序员,尊重他们,给他们好的待遇,让他们开心安逸的生活和工作。同时,开掉那些满口“Agile”,
“Scrum”,“TDD”,“软件工程”,光说不做的扯淡管理者,他们才是真正浪费公司资源,降低开发效率和软件质量的祸根。

傻机器的价值

我不反对继续投资研究那些有实用价值的人工智能,然而我觉得不应该过度夸大它的用处,把注意力过分集中在它上面,仿佛那是唯一可以做的事情,仿佛那是一个划时代的革命,仿佛它将取代一切人类劳动。我的个人兴趣,其实不在人工智能上面。那我要怎么创业呢?很简单,我觉得大部分人其实不需要很“智能”的机器,“傻机器”才是对人最有价值的。所以设计新的,可靠的,造福于人的傻机器,应该是我创业的目标。当然我这里所谓的“机器”,包括了硬件和软件。

只举一个例子,有些 AI 公司想研制“机器佣人”,可以自动打扫卫生做家务。我觉得这问题几乎不可能解决,还不如直接请真正智能的——阿姨来帮忙。我可以做一个阿姨服务平台,方便需要服务的家庭和阿姨进行配对。给阿姨配备更好的工具,通信,日程,支付设施,让她工作不累收钱又方便,让家庭也省心放心,那岂不是两全其美?哪里需要什么智能机器人,难度又高,又贵又不好用。显然这样的阿姨服务平台,结合真正的人的智能,轻而易举就可以让那些机器佣人公司死在萌芽之中。

当然我不会真去做个阿姨服务平台,我只是举个例子。许许多多对人有用的傻机器,还在等着我们去发明。这些机器设计起来虽然需要灵机一动,然而实现起来难度却不高,给人带来便利,经济上见效也快。这些东西不对人的工作造成竞争,反而可能制造更多的就业机会,可以说是利国利民。利用人的智慧,加上机器的蛮力,让人们又省力又能挣钱,才是最合理的发展方向。
g
guvest
2 楼
没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,
一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有
本事的老中太多了。
【 在 MoneyPort (MoneyPort) 的大作中提到: 】
: 来源:王垠
: www.yinwang.org/blog-cn/2017/04/23/ai
: 如有好文章投稿,请点击 → 这里了解详情
: 有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
: ,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
: 自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
: 热”拉到投资。
: 有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
: 最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
: ...................
w
walkrandom
3 楼
说的很不错
M
MoneyPort
4 楼
我还是看了他写的东西。
有一个问题,他觉得人工智能不可能做到知道人想要什么,-- 这个其实很值得讨论,
其实人想要什么并不是不可model的,人的需求是根据各种信息推测的。

往大了说,人的需求是受客观环境决定的,人要生存,要衣食住行。。。

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
: 没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,
: 一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有
: 本事的老中太多了。
b
bullogger
5 楼
我觉得写的挺好的

比如关于自动编程那一段,比如你在leetcode上看到一个题目,首先得理解他让你干什么,它给几个简单的例子,你就能推广到一般的情况甚至考虑到很多corner case 而你要让机器理解你要做的事情,就得给他一堆规则 而你写这堆规则的过程其实就已
经把程序给编出来了

【 在 guvest(我爱你老婆Anna) 的大作中提到: 】

: 没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,

: 一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有

: 本事的老中太多了。
m
magliner
6 楼
写的太精彩了 不愧是编程的大师。
我不懂编程,一个月前也写过类似文章, 《机器不太可能完全取代人》。
g
guvest
7 楼
AI算法是很有实用价值的,我非常确定ai算法在工业过程控制,以及军工中的用途。
屁股做不对,就全错了。

但是有用以后往往名字就改了。例如1980年代的专家系统什么的,
现在叫decision service system.

自动编程也并不一定就完全不可能。其实很多年前就有人玩过了。例如
自动生成炒股策略的代码。

【 在 bullogger (黯然销魂饭) 的大作中提到: 】
: 我觉得写的挺好的
: 比如关于自动编程那一段,比如你在leetcode上看到一个题目,首先得理解他让你干什
: 么,它给几个简单的例子,你就能推广到一般的情况甚至考虑到很多corner case
: 而你要让机器理解你要做的事情,就得给他一堆规则 而你写这堆规则的过程其实就已
: 经把程序给编出来了
:
: 没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,
:
: 一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有
:
: 本事的老中太多了。
:
verdelite
8 楼
基本不赞成啊。他说:“世界上这么多 AI 研究者,有几个真的研究过人脑,解刨过人脑,拿它做过实验,或者读过脑科学的研究成果?最后你发现,几乎没有 AI 研究者真正做过人脑或者认知科学的研究。”别人我不太清楚,我便是走的“读脑科学的研究成果”这条路。慢慢来吧,成功之前肯定是有很多人论证不可能的。
g
guvest
9 楼
deepmind那哥们本来就是成名程序员然后去读的神经科学吧
【 在 verdelite (石头) 的大作中提到: 】
: 基本不赞成啊。他说:“世界上这么多 AI 研究者,有几个真的研究过人脑,解刨过人
: 脑,拿它做过实验,或者读过脑科学的研究成果?最后你发现,几乎没有 AI 研究者真
: 正做过人脑或者认知科学的研究。”别人我不太清楚,我便是走的“读脑科学的研究成
: 果”这条路。慢慢来吧,成功之前肯定是有很多人论证不可能的。
realwhz
10 楼
这篇文章写得不错!
TheMatrix
11 楼
犀利:

所以别妄想自动编程了。节省程序员开销唯一的办法,是邀请优秀的程序员,尊重他们 ,给他们好的待遇,让他们开心安逸的生活和工作。同时,开掉那些满口“Agile”, “Scrum”,“TDD”,“软件工程”,光说不做的扯淡管理者,他们才是真正浪费公
司 资源,降低开发效率和软件质量的祸根。

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
: 来源:王垠
: www.yinwang.org/blog-cn/2017/04/23/ai
: 如有好文章投稿,请点击 → 这里了解详情
: 有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
: ,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
: 自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
: 热”拉到投资。
: 有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
: 最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
: ...................
f
fantasist
12 楼
他的观点很不错啊,提出了AI不能通过有限的描述“理解”人类想要做什么。
他认为不可能,大家可能不同意,反正是对还是错不重要。
e
echoisles
13 楼
作为一个AI Researcher 我可以背书他说的东西都在点子上
AI陷入逻辑学的冬天 所谓的人工智能无非是统计和概率拟合函数而已
所以根本上来说这个时代的人工智能 只能称得上人工 称不上智能

领域里一边研究AI一边研究人脑的professor其实是有的 但是盖不住人脑的研究太肤浅 比起数学和统计方法 出不了太大的成果

所以 真正搞过AI的和Deep Learning之类的 其实都知道 现在吹的尼玛这些智能 什么
alphago 和人脑比起来 连屎都称不上 AI的真正的未来在于neuroscience 而不是整天
捣鼓那些数学函数

可惜商业驱动的社会 并不关心这个

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
digua
14 楼
"我问你,心算除法(23423451345 / 729)难不难?这对于人是很难的,然而任何一个傻电脑,都可以在 0.1 秒之内把它算出来。"

哪里需要0.1秒,4 GHz的处理器,做一个整形运算,最快0.25个纳秒。除法多花些时间,
十几个纳秒够了。

现在想要找一个几百Hz的处理器,真心不容易了。:)
e
echoisles
15 楼
这年代活的冒烟的什么Deep Learning, 大部分核心的算法上个世纪60-80年代全部都搞出来了 CNN RNN LSTM等等
神经网络真正的崛起跟AI和Machine Learning的研究基本上没半毛钱关系, 反而是硬件牛B了 分布式系统做好了. 大规模的特别是分布式training能够快速实现了. 所以结果就NB了.
在这期间的30年, 大部分的Machine Learning Research都在run SVM. 这东西就是在一段时间内(90年代到2007年之前)因为结果比神经网络好, 神经网络就被彻底遗弃了. 懂这玩意的都知道这tm太可笑了, 就捣鼓几个kernal函数, 用kernel trick把数据
project到高维空间, 有点常识的人都知道这种结构复杂度能有多少, 用什么kernel函
数也不可能获得高复杂度的智能. 可惜大家要毕业, 要发paper, 要找工作, 要混饭吃, 这些都无所谓.

作为一个搞AI Research混饭的屌丝, 我的理解是, 这一行真正搞"AI"的人没几个.

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
dumbCoder
16 楼
你们第一线搞AI的,说说现在神经网络那种分层灌数据,
产生多层feature提取的pattern detector,然后再合起来用的, 是否有前景?
感觉所谓神经网络, 要有各种hierarchy或者graph的结构,才感觉有搞头.
研究单个拟合函数,肯定没搞头,能有好理论分解/组合拟合的pattern就不同了.

【 在 echoisles (echoisles) 的大作中提到: 】
作为一个AI Researcher 我可以背书他说的东西都在点子上
AI陷入逻辑学的冬天 所谓的人工智能无非是统计和概率拟合函数而已
所以根本上来说这个时代的人工智能 只能称得上人工 称不上智能
领域里一边研究AI一边研究人脑的professor其实是有的 但是盖不住人脑的研究太肤浅
比起数学和统计方法 出不了太大的成果
所以 真正搞过AI的和Deep Learning之类的 其实都知道 现在吹的尼玛这些智能 什么
alphago 和人脑比起来 连屎都称不上 AI的真正的未来在于neuroscience 而不是整天
捣鼓那些数学函数
可惜商业驱动的社会 并不关心这个
j
jackw
17 楼
问题是你现在知道人脑的具体工作机制吗?各种认知功能和障碍又是具体怎么回事?

【 在 verdelite (石头) 的大作中提到: 】
基本不赞成啊。他说:“世界上这么多 AI 研究者,有几个真的研究过人脑,解刨过人
脑,拿它做过实验,或者读过脑科学的研究成果?最后你发现,几乎没有 AI 研究者真
正做过人脑或者认知科学的研究。”别人我不太清楚,我便是走的“读脑科学的研究成
果”这条路。慢慢来吧,成功之前肯定是有很多人论证不可能的。
cxu123
18 楼
现在人类技术和生物的技术差距太大

不要说智能了,图像识别,一点智能含量都没有,纯粹比算法水平,连个苍蝇的天生算法都比不过
c
cocoa2009
19 楼
王垠自作聪明,总以为别人不知道他说的东西。但这些和人工智能能否取代人类的工作屁关系没有。
c
cocoa2009
20 楼
“让机器理解你要做的事情,就得给他一堆规则” 没这个必要。

【 在 bullogger (黯然销魂饭) 的大作中提到: 】
我觉得写的挺好的
比如关于自动编程那一段,比如你在leetcode上看到一个题目,首先得理解他让你干什
么,它给几个简单的例子,你就能推广到一般的情况甚至考虑到很多corner case
而你要让机器理解你要做的事情,就得给他一堆规则 而你写这堆规则的过程其实就已
经把程序给编出来了

没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,

一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有

本事的老中太多了。
verdelite
21 楼
具体工作机制那是不知道,但是也有很多知道了的东西。比如学习是发生在synapse层
面,不需要量子力学。也有许多想法,需要写程序验证。

【 在 jackw(jackw) 的大作中提到: 】
问题是你现在知道人脑的具体工作机制吗?各种认知功能和障碍又是具体怎么回事?
c
cocoa2009
22 楼
人其实也不能通过有限的描述确认其他人要做什么。都是一种统计猜测。

【 在 fantasist (疯) 的大作中提到: 】
他的观点很不错啊,提出了AI不能通过有限的描述“理解”人类想要做什么。
他认为不可能,大家可能不同意,反正是对还是错不重要。
verdelite
23 楼
他把机器和人对立起来,这是不对的。机器取代一些人的工作,那是解放了人类,让人类可以去做别的更有意思的工作。

【 在 cocoa2009(贪吃猫) 的大作中提到: 】
王垠自作聪明,总以为别人不知道他说的东西。但这些和人工智能能否取代人类的工作
屁关系没有。
c
cocoa2009
24 楼
这人不是哗众取宠,就是读书读傻了。
w
wooluba
25 楼
他说的技术方面对不对暂且不论,就看他一方面在客观上通过“一个人的罢工”帮助了99.9%,另一方面在这个帖子里表现出了和99.9%站在一起的勇气和智慧,这就是个有担当的码工。即使他低估了AI,他也比别的很多码工更有希望引领99.9%避开AI的副作用。

【 在 cocoa2009 (贪吃猫) 的大作中提到: 】
王垠自作聪明,总以为别人不知道他说的东西。但这些和人工智能能否取代人类的工作
屁关系没有。
oOOo
26 楼
机器也许从模拟人开始,但是不用拘泥于人脑的工作原理。机器完全有可能从基本的
building blocks进化为人脑不能理解的智能形式。到时候要理解人心里想什么已经不
是问题,因为机器不关心这个。
c
calman
27 楼
你那就不叫人工智能
我觉得王垠性格有缺陷
但这篇写的不错

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,
一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有
本事的老中太多了。
S
SLE
28 楼
人工智能也不必要模仿人脑,就好比飞机不用模仿飞鸟。
S
SLE
29 楼
飞机也没有模仿飞鸟。
verdelite
30 楼
【 在 SLE (嗯,就这样定了。) 的大作中提到: 】
人工智能也不必要模仿人脑,就好比飞机不用模仿飞鸟。
人工智能搞成的那一天,一半的神经科学家的funding就申请不到了。剩下的一半是搞
疾病的,癫痫,帕金森,亨亭顿,ADHD之类。
g
guvest
31 楼
我基本肯定这个贴的回帖里面。没有几个人做过基本的
文献review,也没有刷过kaggle,看过slides.

悲剧往往就是这么诞生的。现在这波ML,DL,AI。
不更新知识的一定会后悔。我们十年后再看。

【 在 guvest(我爱你老婆Anna) 的大作中提到: 】
<br>: 没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,
<br>: 一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有
<br>: 本事的老中太多了。
<br>
xiaoju
32 楼
制约CNN的不是硬件而是sigmoid函数,制约NN的也不是硬件而是局部鞍点或者极小点

这些东西2010年代后才搞明白,不然上世纪80年代也冒烟了

【 在 echoisles (echoisles) 的大作中提到: 】
这年代活的冒烟的什么Deep Learning, 大部分核心的算法上个世纪60-80年代全部都搞
出来了 CNN RNN LSTM等等
神经网络真正的崛起跟AI和Machine Learning的研究基本上没半毛钱关系, 反而是硬件
牛B了 分布式系统做好了. 大规模的特别是分布式training能够快速实现了. 所以结果
就NB了.
在这期间的30年, 大部分的Machine Learning Research都在run SVM. 这东西就是在一
段时间内(90年代到2007年之前)因为结果比神经网络好, 神经网络就被彻底遗弃了. 懂
这玩意的都知道这tm太可笑了, 就捣鼓几个kernal函数, 用kernel trick把数据
project到高维空间, 有点常识的人都知道这种结构复杂度能有多少, 用什么kernel函
数也不可能获得高复杂度的智能. 可惜大家要毕业, 要发paper, 要找工作, 要混饭
吃,
...................
c
cocoa2009
33 楼
说的没错,不过前些日子好像你不建议跳这个坑?

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
我基本肯定这个贴的回帖里面。没有几个人做过基本的
文献review,也没有刷过kaggle,看过slides.
悲剧往往就是这么诞生的。现在这波ML,DL,AI。
不更新知识的一定会后悔。我们十年后再看。

没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么
北极星,

一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮
。北美有

本事的老中太多了。
xiaoju
34 楼
是啊,王垠受众

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
我基本肯定这个贴的回帖里面。没有几个人做过基本的
文献review,也没有刷过kaggle,看过slides.
悲剧往往就是这么诞生的。现在这波ML,DL,AI。
不更新知识的一定会后悔。我们十年后再看。
<br>: 没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么
北极星,
<br>: 一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮
。北美有
<br>: 本事的老中太多了。
<br>
...................
g
guvest
35 楼
技术指标看一看。看看别人库的设置。不要深究算法。
不然报纸都要看不懂了。

【 在 cocoa2009(贪吃猫) 的大作中提到: 】
<br>: 说的没错,不过前些日子好像你不建议跳这个坑?
<br>
g
guvest
36 楼
你说的是deep network

我非常肯定最基本的neural network有奇效,可以用在
工业上。本身就是数字滤波器往前一小步。

以前是成本低,懂的人少。
这波泡沫过后,成本就下来了。

我觉得只要会的人多
用的就会多一些
这个跟js一样的
【 在 xiaoju(可爱的龙猫) 的大作中提到: 】
<br>: 制约CNN的不是硬件而是sigmoid函数,制约NN的也不是硬件而是局部鞍点或者极
小点
<br>: 这些东西2010年代后才搞明白,不然上世纪80年代也冒烟了
<br>: 吃,
<br>
g
guvest
37 楼
都是有学位的
为什么不坐下来做一点基本的文献功夫

老王现在彻底废了
居然连图像的突破都不知道
他以为是siri什么的带动的

【 在 xiaoju(可爱的龙猫) 的大作中提到: 】
是啊,王垠受众
oOOo
38 楼
你贡献几个文献吧

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
都是有学位的
为什么不坐下来做一点基本的文献功夫
老王现在彻底废了
居然连图像的突破都不知道
他以为是siri什么的带动的
verdelite
39 楼
三天不学习,赶不上刘少奇。这里可能数我读文献最多,我基本上全职读文献读了两年多。差不多每天读8个小时?

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
都是有学位的
为什么不坐下来做一点基本的文献功夫
老王现在彻底废了
居然连图像的突破都不知道
他以为是siri什么的带动的

是啊,王垠受众
wdong
40 楼
写的很好。“根本不可能”有点武断。但是我同意如果只是这一波技术,
确实是“根本不可能”。我之前在这个版鼓吹AI,我的信心来自于对这
一波技术的投资激发出下一波技术。王垠从技术上来说,我觉得水平还
是很高的,对技术问题看得也比较准。不过还是对社会期望过高,三观
有点问题。

根本不可能我再说细点,就是能写程序的AI不可能在tensorflow上做出来。
这一代技术,其实就是解决了个pattern recognition问题。没有能力
做logic,也没有knowledge base。有些看着很像的东西,比如LSTM,
我觉得并不是很powerful,因为目标超出了pattern recognition的范畴。
我自己觉得,存储memory和knowledge这些的数据结构,更可能是类似于
graph的数据结构。我觉得AI的下一个突破可能就是对王垠说的逻辑算法
和专家系统的现代化。

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
n
neversee
41 楼
synapse 有发生变化吧?变化是怎么引起的?为啥这样而不是那样,原子、电子...离
不开量子力学。
【 在 verdelite (石头) 的大作中提到: 】
具体工作机制那是不知道,但是也有很多知道了的东西。比如学习是发生在synapse层
面,不需要量子力学。也有许多想法,需要写程序验证。

问题是你现在知道人脑的具体工作机制吗?各种认知功能和障碍又是具体怎么回
事?
w
wooluba
42 楼
“不过还是对社会期望过高,三观有点问题。”

我觉得关键不是三观的问题,而是能否逐步改造社会的问题。看得出王垠有这个勇气愿望,
也掌握着先进生产力,还有一定的领导能力。如果能有更多的人在行动上支持他,他的理想(也是很多人的理想)还是有可能实现的。

【 在 wdong (万事休) 的大作中提到: 】
写的很好。“根本不可能”有点武断。但是我同意如果只是这一波技术,
确实是“根本不可能”。我之前在这个版鼓吹AI,我的信心来自于对这
一波技术的投资激发出下一波技术。王垠从技术上来说,我觉得水平还
是很高的,对技术问题看得也比较准。不过还是对社会期望过高,三观
有点问题。
根本不可能我再说细点,就是能写程序的AI不可能在tensorflow上做出来。
这一代技术,其实就是解决了个pattern recognition问题。没有能力
做logic,也没有knowledge base。有些看着很像的东西,比如LSTM,
我觉得并不是很powerful,因为目标超出了pattern recognition的范畴。
我自己觉得,存储memory和knowledge这些的数据结构,更可能是类似于
...................
j
jumbo
43 楼
看下来王垠没啥本事,有本事的早做东西去了,自己知道没希望了才瞎bb跟方舟子似的,名声大主要是因为马公和编程门槛很低,f2都能搞,低智商群众太多,这就是为什么马公是被老印虐的重灾区
namdog
44 楼
丑。

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
hnpc
45 楼
说的很到位

【 在 echoisles (echoisles) 的大作中提到: 】
这年代活的冒烟的什么Deep Learning, 大部分核心的算法上个世纪60-80年代全部都搞
出来了 CNN RNN LSTM等等
神经网络真正的崛起跟AI和Machine Learning的研究基本上没半毛钱关系, 反而是硬件
牛B了 分布式系统做好了. 大规模的特别是分布式training能够快速实现了. 所以结果
就NB了.
在这期间的30年, 大部分的Machine Learning Research都在run SVM. 这东西就是在一
段时间内(90年代到2007年之前)因为结果比神经网络好, 神经网络就被彻底遗弃了. 懂
这玩意的都知道这tm太可笑了, 就捣鼓几个kernal函数, 用kernel trick把数据
project到高维空间, 有点常识的人都知道这种结构复杂度能有多少, 用什么kernel函
数也不可能获得高复杂度的智能. 可惜大家要毕业, 要发paper, 要找工作, 要混饭
吃,
...................
n
neversee
46 楼
也基本不赞成,用不着太久王会后悔持这样的观点。但肯定一点,现在的Deep
Learning 快变旧衣服了。
【 在 verdelite (石头) 的大作中提到: 】
基本不赞成啊。他说:“世界上这么多 AI 研究者,有几个真的研究过人脑,解刨过人
脑,拿它做过实验,或者读过脑科学的研究成果?最后你发现,几乎没有 AI 研究者真
正做过人脑或者认知科学的研究。”别人我不太清楚,我便是走的“读脑科学的研究成
果”这条路。慢慢来吧,成功之前肯定是有很多人论证不可能的。
g
guvest
47 楼
现在是postmodern时代。narrow narrative一定赢。
老王情怀太多,没看到有什么进步。

Evolutionary programming是旧衣服了。
求矩阵的逆这种程序无法演化出来。
炒股的程序之类的东西,是可以演化出来的。
基本上就是演化出来一些谁也说不清的buy sell操作。

【 在 wdong (万事休) 的大作中提到: 】
写的很好。“根本不可能”有点武断。但是我同意如果只是这一波技术,
确实是“根本不可能”。我之前在这个版鼓吹AI,我的信心来自于对这
一波技术的投资激发出下一波技术。王垠从技术上来说,我觉得水平还
是很高的,对技术问题看得也比较准。不过还是对社会期望过高,三观
有点问题。
根本不可能我再说细点,就是能写程序的AI不可能在tensorflow上做出来。
这一代技术,其实就是解决了个pattern recognition问题。没有能力
做logic,也没有knowledge base。有些看着很像的东西,比如LSTM,
我觉得并不是很powerful,因为目标超出了pattern recognition的范畴。
我自己觉得,存储memory和knowledge这些的数据结构,更可能是类似于
...................
xiaoju
48 楼
deep的不可替代啊,3层的可以被优化过的算法取代掉

50层的网络不说能不能找到这个算法,连此类算法存在与否都说不清楚

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
你说的是deep network
我非常肯定最基本的neural network有奇效,可以用在
工业上。本身就是数字滤波器往前一小步。
以前是成本低,懂的人少。
这波泡沫过后,成本就下来了。
我觉得只要会的人多
用的就会多一些
这个跟js一样的
<br>: 制约CNN的不是硬件而是sigmoid函数,制约NN的也不是硬件而是局部鞍点
或者极
...................
g
guvest
49 楼
什么便宜用什么
什么东西会的人多就用的人多

例如将来完全可能小日本的高级电饭锅
不用模糊控制
改用ann了

尽管都是软计算
既然ann多更新了一代
那就可能占优

有很多应用领域
传统硬计算的方法不适合表达
用户的需求,倒不一定是算法问题
软计算很多都是复杂点的look up table
这种最管用

飞机控制也很喜欢神经网
非常多文章

DL起到了很好的宣传和降成本的作用
我可以肯定ann在其他领域会发展的
成本低了嘛
【 在 xiaoju(可爱的龙猫) 的大作中提到: 】
<br>: deep的不可替代啊,3层的可以被优化过的算法取代掉
<br>: 50层的网络不说能不能找到这个算法,连此类算法存在与否都说不清楚
<br>
l
lestrois2000
50 楼
完美主义者,您以为吹ai的人不懂吗?有生之年能抓住的商业机会干嘛不抓?您以为搞金融的暴利就是实力所致?无非是有知杀无知,只要大方向对,IT吹啥都永远比金融值得人类发展。

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
M
MoneyPort
51 楼
对啊,换个piecewise线性大家竟然用了十几年的时间。

【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
制约CNN的不是硬件而是sigmoid函数,制约NN的也不是硬件而是局部鞍点或者极小点: 这些东西2010年代后才搞明白,不然上世纪80年代也冒烟了
吃,
wdong
52 楼
正因为知道自己不行,这一拨要是过了就啥都不是,所以才会捞得这么狠。
其实吃肉的人并不多。大多数人还是得有活到老学到老的觉悟。

【 在 lestrois2000 (lestrois2000) 的大作中提到: 】
完美主义者,您以为吹ai的人不懂吗?有生之年能抓住的商业机会干嘛不抓?您以为搞
金融的暴利就是实力所致?无非是有知杀无知,只要大方向对,IT吹啥都永远比金融值
得人类发展。
TheMatrix
53 楼
同意。

【 在 wdong (万事休) 的大作中提到: 】
写的很好。“根本不可能”有点武断。但是我同意如果只是这一波技术,
确实是“根本不可能”。我之前在这个版鼓吹AI,我的信心来自于对这
一波技术的投资激发出下一波技术。王垠从技术上来说,我觉得水平还
是很高的,对技术问题看得也比较准。不过还是对社会期望过高,三观
有点问题。
根本不可能我再说细点,就是能写程序的AI不可能在tensorflow上做出来。
这一代技术,其实就是解决了个pattern recognition问题。没有能力
做logic,也没有knowledge base。有些看着很像的东西,比如LSTM,
我觉得并不是很powerful,因为目标超出了pattern recognition的范畴。
我自己觉得,存储memory和knowledge这些的数据结构,更可能是类似于
...................
g
guvest
54 楼
二位,这个piecewise可以帮助减少局部最优的说法有文献吗?我学习下。

我们EE的人真做项目的,很多时候能用查表就查表算exp。
因为很多芯片没有乘法硬件,exp算起来很贵。
【 在 MoneyPort (MoneyPort) 的大作中提到: 】
对啊,换个piecewise线性大家竟然用了十几年的时间。
g
guvest
55 楼
这波确实有点狠了。很多老流氓都出来了。套路就是
批评ann/deep learning/dl不是智能,他的啥啥啥更智能。

王垠尽管这个贴很多地方驴头不对马嘴。
但是至少没有说自己的淫语言更智能。这点值得欣赏。
【 在 wdong (万事休) 的大作中提到: 】
正因为知道自己不行,这一拨要是过了就啥都不是,所以才会捞得这么狠。
其实吃肉的人并不多。大多数人还是得有活到老学到老的觉悟。
l
lestrois2000
56 楼
皮之不存毛将焉附,我们喝汤的一点也不嫉妒吃肉的。泡沫过后总会留下些什么的,不担心。当年的dotcom潮水刚退Google就崛起了,未来也会精彩。

【 在 wdong (万事休) 的大作中提到: 】
正因为知道自己不行,这一拨要是过了就啥都不是,所以才会捞得这么狠。
其实吃肉的人并不多。大多数人还是得有活到老学到老的觉悟。
dracodoc
57 楼
我同意他的各种具体批评,尤其是各种被吹嘘的地方。
那些用AI取代人作为创业口号的批评也很对,这方面说的很好,其实证明不是不懂社会怎么运行。

不过把AI一耙子全否定肯定过激了,当然越过激越会有反响,我猜这已经成为他潜意识倾向了,因为他出名就是靠过激,所以有意无意就时不时过激一把。

还有就是看别人清楚,看自己难,评估自己的时候老是偏了点,至少吹出来的话没法让许多人真的信服他很牛,这个吹牛就是失败的。
chunjuan
58 楼
这次文章当中一段挺好的
开头结尾还是他的老风格
不过我觉得最近他是不是开始注意营销自己这个形象了?

另外。。他这个帖子和你们那么多回帖看下来
我怎么觉得满眼的文字都在说一句话“21世纪是生物的世纪”?
【 在 dracodoc (david) 的大作中提到: 】
我同意他的各种具体批评,尤其是各种被吹嘘的地方。
那些用AI取代人作为创业口号的批评也很对,这方面说的很好,其实证明不是不懂社会
怎么运行。
不过把AI一耙子全否定肯定过激了,当然越过激越会有反响,我猜这已经成为他潜意识
倾向了,因为他出名就是靠过激,所以有意无意就时不时过激一把。
还有就是看别人清楚,看自己难,评估自己的时候老是偏了点,至少吹出来的话没法让
许多人真的信服他很牛,这个吹牛就是失败的。
SwiftDove
59 楼
不在乎不要紧,关键是他能有‘alternative’突破吗?还是觉得除了他的有极小影响
‘yin’语言,他的贡献真的太少了。
mmca
60 楼
说实话,王垠在不骂他东家的时候他的文章写的还是很好的。这篇讲的其实很有道理,就是认清楚现在所谓人工智能的边界在哪里,set the right expectation。

吹泡泡捞钱是另外一回事。
I
IAmGuilty
61 楼
我怎么没看出来他把AI一耙子全否定了。这篇文章写得还是比较有分寸的

【 在 dracodoc (david) 的大作中提到: 】
我同意他的各种具体批评,尤其是各种被吹嘘的地方。
那些用AI取代人作为创业口号的批评也很对,这方面说的很好,其实证明不是不懂社会
怎么运行。
不过把AI一耙子全否定肯定过激了,当然越过激越会有反响,我猜这已经成为他潜意识
倾向了,因为他出名就是靠过激,所以有意无意就时不时过激一把。
还有就是看别人清楚,看自己难,评估自己的时候老是偏了点,至少吹出来的话没法让
许多人真的信服他很牛,这个吹牛就是失败的。
b
bhold
62 楼
虽然我不是很懂,但就觉得你说的顺眼。

【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
制约CNN的不是硬件而是sigmoid函数,制约NN的也不是硬件而是局部鞍点或者极小点: 这些东西2010年代后才搞明白,不然上世纪80年代也冒烟了
吃,
m
meadude
63 楼
说的不错,人工智能用的就是简单的统计,线性代数,就是GD,神经元就是ReLU。但是想过没有,量变引发质变。
U
UnivVill
64 楼
It should be theoretically possible to train a deep learning network such
that it can produce corresponding code for certain input, with supervised
training given big enough of high quality training examples. There are
several practical difficulties, however. First how to define the training
examples, and second how to collect enough training examples. In other
words, the difficulty mainly lies with the practice of being able to collect sufficiently big amount of training data for the "artificial programmer" to be useful.

The other perspective is that for "routine" code there is already mechanism to write the code once and share the code. The cost of training an "
artificial programmer" to be able to produce such "routine" code is most
likely much higher. From this perspective, the idea of "artificial
programmer" may never become commercially feasible.
dracodoc
65 楼
他所针对的具体事情,具体现象批评的很到位,但不能用大部分AI研究代表了所有AI研究,用大部分AI研究者代表所有AI研究者。

【 在 IAmGuilty (uselessly talented) 的大作中提到: 】
我怎么没看出来他把AI一耙子全否定了。这篇文章写得还是比较有分寸的
verdelite
66 楼
我想象中的人工智能,是需要像人一样教育的。带个终端在身边,带她东看西看,
回答各种问题;带她去上学,学习语文数学,教她看书,学习。然后可以教她学习编程。训练集?不用现在视觉识别那些annotated data sets,而是用日常生活所看所听。就是人用的那些。我觉得这是一条正路,似乎还会更容易实现。

【 在 UnivVill(None) 的大作中提到: 】
<br>: It should be theoretically possible to train a deep learning
network
such
<br>: that it can produce corresponding code for certain input, with
supervised
<br>: training given big enough of high quality training examples.
There
are
<br>: several practical difficulties, however. First how to define
the
training
<br>: examples, and second how to collect enough training examples.
In
other
<br>: words, the difficulty mainly lies with the practice of being
able to
collect
<br>: sufficiently big amount of training data for the "
artificial
programmer" to
<br>: be useful.
<br>: The other perspective is that for "routine" code there is already
mechanism
<br>: to write the code once and share the code. The cost of training an "
...................
<br>
i
ilmpnl
67 楼
有思想。这些吓人的名词不都是忽悠么,跟global warming和现在的global changing
一样,忽悠。

顺便说一句,我在本科读书的时候就对单细胞生物充满敬畏,甚至蛋白质的折叠,不需要达到高等生物这个层次。
NeverLearn
68 楼
HOHOHO,说到底还是一厢情愿,他不在乎不等于别人做不出来。
stoppingtime
69 楼
没啥新东西啊。

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
N
Nehalem
70 楼
靠,你咋也到本版混

【 在 stoppingtime (停时) 的大作中提到: 】
没啥新东西啊。
floatmeeting
71 楼
没有人觉得敬畏/害怕吗?
人工智能如果不能发展出真正的“智能”,具备自我学习,自我修复,自我进化能力,就不能给人类提供好的服务。
可是一旦机器发展出真的智能,凭借超强的学习能力和复制进化能力,没几年就把人类给灭了。或者灭掉99%,留下一点儿当动物园的熊猫做观赏研究用。还真指望着脑电波
能做生物电池?
l
lovepursuer
72 楼
问题是这个人不在乎人工智能,就像有人说施一公都在做垃圾。
但是,你还是没有办法阻止别的人在做人工智能,你也无法阻止很多人的确想知道自己研究的蛋白的结构。
你更没有办法阻止人工智能未来一定会取代很多工作,也无法阻止蛋白结构是未来生物的大方向。

别太把自己当回事。
m
magicknight
73 楼
做生物的千老?hoho。你这个类比是拿一个没人知道没人care的东西来类比一个至少很多人在关注的东西,没你这么做比较的,方向就反了。

【 在 lovepursuer (lovepursuer) 的大作中提到: 】
问题是这个人不在乎人工智能,就像有人说施一公都在做垃圾。
但是,你还是没有办法阻止别的人在做人工智能,你也无法阻止很多人的确想知道自己
研究的蛋白的结构。
你更没有办法阻止人工智能未来一定会取代很多工作,也无法阻止蛋白结构是未来生物
的大方向。
别太把自己当回事。
m
magicknight
74 楼
xiaoju这人跟很多阿三相似,拿一些自己也不怎么了解的名词来忽悠。
【 在 bhold (bhold) 的大作中提到: 】
虽然我不是很懂,但就觉得你说的顺眼。
p
photonics
75 楼
一个自以为聪明的码工哪里懂什么AI。不说别的,自动驾驶现在是激光雷达等硬件贵了些,不过很快
也要实现了。估计再过十年左右就会买到不那么贵的自动驾驶汽车了。
TheMatrix
76 楼
我同意东看西看,要有概念体系。

【 在 verdelite (石头) 的大作中提到: 】
我想象中的人工智能,是需要像人一样教育的。带个终端在身边,带她东看西看,
回答各种问题;带她去上学,学习语文数学,教她看书,学习。然后可以教她学习编程
。训练集?不用现在视觉识别那些annotated data sets,而是用日常生活所看所听。就
是人用的那些。我觉得这是一条正路,似乎还会更容易实现。

It should be theoretically possible to train a deep learning
network
such

that it can produce corresponding code for certain input, with
supervised

training given big enough of high quality training examples.
...................
w
wooluba
77 楼
"别太把自己当回事。"

也别妄自菲薄。社会就是由个体构成的,只要一些个体能够组织起来就可能改变社会。在这方面码工有得天独厚的优势,但首先得觉悟,否则不过是“码”蚁罢了。

【 在 lovepursuer (lovepursuer) 的大作中提到: 】
问题是这个人不在乎人工智能,就像有人说施一公都在做垃圾。
但是,你还是没有办法阻止别的人在做人工智能,你也无法阻止很多人的确想知道自己
研究的蛋白的结构。
你更没有办法阻止人工智能未来一定会取代很多工作,也无法阻止蛋白结构是未来生物
的大方向。
别太把自己当回事。
xiaoju
78 楼
这个主要是解决梯度消失

局部最优的东西现在时研究前沿啊,我印象中只有经验规律,说是深度好于广度。

【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
二位,这个piecewise可以帮助减少局部最优的说法有文献吗?我学习下。
我们EE的人真做项目的,很多时候能用查表就查表算exp。
因为很多芯片没有乘法硬件,exp算起来很贵。
xiaoju
79 楼
relu和sigmoid区别是DL入门常识,不懂就说自己没常识不要说别人忽悠你。

【 在 magicknight (I am always love you baby.) 的大作中提到: 】
标 题: Re: 王垠:我为什么不在乎人工智能
发信站: BBS 未名空间站 (Fri Apr 28 19:00:24 2017, 美东)

xiaoju这人跟很多阿三相似,拿一些自己也不怎么了解的名词来忽悠。
: 【 在 bhold (bhold) 的大作中提到: 】
: 虽然我不是很懂,但就觉得你说的顺眼。



--
l
lovepursuer
80 楼
虽然个体可以让某些事情的发展变快,但是基本改变不了大方向。
该被人发现的,就会被人发现。只是早晚的问题。
所以,由于大家追求利益,追求领先。你不研究人工智能,别人会研究。你不造原子弹,别人会造。根本就不可能禁止,也不会因为一个傻逼说no,就让别人不干。而且,制定政策的,大钱,都在这些新技术后面背书。逆潮流而动,只能说他自己没眼光没能力认怂。
【 在 wooluba () 的大作中提到: 】
"别太把自己当回事。"
也别妄自菲薄。社会就是由个体构成的,只要一些个体能够组织起来就可能改变社会。
在这方面码工有得天独厚的优势,但首先得觉悟,否则不过是“码”蚁罢了。
b
believeme
81 楼
爱。你读过几篇review, don't speak like an expert. frankly, I have same
feeling on you as the previous guy. Dl 的起飞最基本的原因是硬件和data.
RELU 比sigmoid好这种奇淫能被发现的前提(和动力)都是硬件和data。。
这些个基本的东西review里都说了啊。
【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
relu和sigmoid区别是DL入门常识,不懂就说自己没常识不要说别人忽悠你。
b
believeme
82 楼
王的文章有道理。但我觉得王应该没有接触过reinforcement learning.
Reinforcement learning 是最接近general intelligence 的东西。alphago 的核心是rl. 不是简单的pattern recognition 和暴力搜索。Rl 加上dl (deep CNN , Rnn ...)是deepmind 的创造,在通往general intelligence 的路上是有意义的里程碑性质的东西。
xiaoju
83 楼
你什么都不懂就敢装啊

没有几个重要的方法突破,你用天河也是屁也做不出来的,几百万维空间比黑洞厉害多了,全宇宙的计算机也算的粉身碎骨

现在深度学习几个突破,实际上靠的是没完没了的试错而不是砸计算力搞出来的,常识啊常识

今年是2017年了,迷信计算力的第一代老前辈都纷纷被fire掉了

【 在 believeme (smile) 的大作中提到: 】
爱。你读过几篇review, don't speak like an expert. frankly, I have same
feeling on you as the previous guy. Dl 的起飞最基本的原因是硬件和data.
RELU 比sigmoid好这种奇淫能被发现的前提(和动力)都是硬件和data。。
这些个基本的东西review里都说了啊。
xiaoju
84 楼
王垠文章向来是一面镜子,觉得他有道理的需要深刻反省

【 在 believeme (smile) 的大作中提到: 】
王的文章有道理。但我觉得王应该没有接触过reinforcement learning.
Reinforcement learning 是最接近general intelligence 的东西。alphago 的核心是
rl. 不是简单的pattern recognition 和暴力搜索。Rl 加上dl (deep CNN , Rnn ...)
是deepmind 的创造,在通往general intelligence 的路上是有意义的里程碑性质的东
西。
e
echoisles
85 楼
私以为那几个所谓的重要突破 其实还就是一些奇技淫巧 就跟过去几十年那些所谓的AI研究一心扑到SVM上一个德行 难道你信了人脑里面也装了ReLU? 学术界就是这样 不搞
些噱头怎么发paper怎么拉funding怎么评tenure 你要是主流的paper都过了一遍 在看
看上个世纪80年代的paper 其实没尼玛多大的区别. 到就还是Jeff Dean弄的玩意挺nb
的. 然而也不是朝着人脑的方向走

【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
你什么都不懂就敢装啊
没有几个重要的方法突破,你用天河也是屁也做不出来的,几百万维空间比黑洞厉害多
了,全宇宙的计算机也算的粉身碎骨
现在深度学习几个突破,实际上靠的是没完没了的试错而不是砸计算力搞出来的,常识
啊常识
今年是2017年了,迷信计算力的第一代老前辈都纷纷被fire掉了
runPython
86 楼
老王这篇写的很好

【 在 MoneyPort (MoneyPort) 的大作中提到: 】
来源:王垠
www.yinwang.org/blog-cn/2017/04/23/ai
如有好文章投稿,请点击 → 这里了解详情
有人听说我想创业,给我提出了一些“忽悠”的办法。他们说,既然你是程序语言专家
,而现在人工智能(AI)又非常热,那你其实可以搞一个“自动编程系统”,号称可以
自动生成程序,取代程序员的工作,节省许许多多的人力支出,这样就可以趁着“AI
热”拉到投资。
有人甚至把名字都给我想好了,叫“深度程序员”(DeepCoder = Deep Learning + : Coder)。口号是:“有了 DeepCoder,不用 Top Coder!” 还有人给我指出了这方向
最新的,吹得神乎其神的研究,比如微软的 Robust Fill……
...................
xiaoju
87 楼
奇技淫巧随便找个人一天能想出10个,好用的才算数

目前深度学习是典型的实践跑到理论前面了,你这都看不出来那就是没入门啊

【 在 echoisles (echoisles) 的大作中提到: 】
私以为那几个所谓的重要突破 其实还就是一些奇技淫巧 就跟过去几十年那些所谓的AI
研究一心扑到SVM上一个德行 难道你信了人脑里面也装了ReLU? 学术界就是这样 不搞
些噱头怎么发paper怎么拉funding怎么评tenure 你要是主流的paper都过了一遍 在看
看上个世纪80年代的paper 其实没尼玛多大的区别. 到就还是Jeff Dean弄的玩意挺
nb
的. 然而也不是朝着人脑的方向走
e
echoisles
88 楼
哎 我确实没入门
【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
奇技淫巧随便找个人一天能想出10个,好用的才算数
目前深度学习是典型的实践跑到理论前面了,你这都看不出来那就是没入门啊
AI
nb
dumbCoder
89 楼
求教 "Jeff Dean弄的玩意挺nb" 是指啥

【 在 echoisles (echoisles) 的大作中提到: 】
私以为那几个所谓的重要突破 其实还就是一些奇技淫巧 就跟过去几十年那些所谓的AI
研究一心扑到SVM上一个德行 难道你信了人脑里面也装了ReLU? 学术界就是这样 不搞
些噱头怎么发paper怎么拉funding怎么评tenure 你要是主流的paper都过了一遍 在看
看上个世纪80年代的paper 其实没尼玛多大的区别. 到就还是Jeff Dean弄的玩意挺
nb
的. 然而也不是朝着人脑的方向走
b
believeme
90 楼
你入门了。看到前面面同学前言不搭后语地说什么Local optimization就想笑。relu
也就forward nn 好用,一个activation function 算不上什么突破。 我估计前面的同学读过和imagenet有关的的东西就以为这是dl 的全部了。echoisles (
echoisles) 的大作中提到: 】
哎 我确实没入门
b
believeme
91 楼
Reinforcement learning 和你想的这个so far 最接近。可以看看deep reinforcement learning , deep q learning, policy gradient based learning什么的。
Ml 分三大类: supervised learning, unsupervised learning, reinforcement
learning. Reinforcement learning 介于supervise 和unsupervised 之间
【 在 verdelite (石头) 的大作中提到: 】
我想象中的人工智能,是需要像人一样教育的。带个终端在身边,带她东看西看,
回答各种问题;带她去上学,学习语文数学,教她看书,学习。然后可以教她学习编程
。训练集?不用现在视觉识别那些annotated data sets,而是用日常生活所看所听。就
是人用的那些。我觉得这是一条正路,似乎还会更容易实现。

It should be theoretically possible to train a deep learning
network
such

that it can produce corresponding code for certain input, with
supervised

training given big enough of high quality training examples.
...................
n
neversee
92 楼
这说得正中要害!
【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
目前深度学习是典型的实践跑到理论前面了
nb
b
believeme
93 楼
就没想过实践为什么跑到理论前面去拉?old 理论still works. it is just because old hardware/data cannot handle the long wanted practice.

New theory based on the new practice may or may not emerge down the road.
Wang thinks new theory will not emerge .... Others think new theory will
emerge.... I hope it will merge...
n
neversee
94 楼
DL的这场戏有两点会last forever,看看都有谁抓住了。
b
believeme
95 楼
前面的同志说过拉:

飞机比鸟飞的好。 我们不一定对鸟飞行的机理都搞清拉。
有没有必要都搞清才能把飞机搞出来?

-------------------
发信人: verdelite (石头), 信区: Programming
标 题: Re: 王垠:我为什么不在乎人工智能
发信站: BBS 未名空间站 (Thu Apr 27 21:15:23 2017, 美东)

具体工作机制那是不知道,但是也有很多知道了的东西。比如学习是发生在synapse层
面,不需要量子力学。也有许多想法,需要写程序验证。

【 在 jackw(jackw) 的大作中提到: 】
问题是你现在知道人脑的具体工作机制吗?各种认知功能和障碍又是具体怎么回 事?
n
neversee
96 楼
DL与量子力学搭不上杠?灯泡与量子力学的关系得在这说说了。
从灯泡发明到电灯的普及,没量子力学什么事吧?结果是,为了制造更好的灯泡,不得不搞量子力学。如果不是为了搞出更高效率的灯泡,普朗克就不会成为现代物理奠基人之一,不会有量子力学,电子计算机...
b
believeme
97 楼
别人在说飞机你非扯灯泡。

General ai 出现并不依赖把人脑搞透就象灯泡的出现不依赖于量子力学

致于general ai 出现后是否要把人脢都搞透才能让它进一步是另外的topic

【 在 neversee(山知了) 的大作中提到: 】
DL与量子力学搭不上杠?灯泡与量子力学的关系得在这说说了。
从灯泡发明到电灯的普及,没量子力学什么事吧?结果是,为了制造更好的灯泡,不得
不搞量子力学。如果不是为了搞出更高效率的灯泡,普朗克就不会成为现代物理奠基人
之一,不会有量子力学,电子计算机...
n
neversee
98 楼
DL就是一旧灯泡,量子力学的颠覆性突破将改变AI实践跑在理论前面的状况。mark my words.
xiaoju
99 楼
old理论屁用没有

几百万参数都填对了,拟合出来的是整个宇宙的真理大脑,可惜上帝也不知道怎么填参数

【 在 believeme (smile) 的大作中提到: 】
就没想过实践为什么跑到理论前面去拉?old 理论still works. it is just
because
old hardware/data cannot handle the long wanted practice.
New theory based on the new practice may or may not emerge down the road.
Wang thinks new theory will not emerge .... Others think new theory will : emerge.... I hope it will merge...
b
believeme
100 楼
assuming you are correct, DL is simply data fitting as you claimed. data
fitting is not only about parameters and its number, it is also about the
best group of functions to be fitted.

all the different nn architectures: cnn, rnn, lstm,is about what group of
functions to pick to fit. These architectures were developed before 2000.
We did not have the computation power to test these arthitectures in large
amount of data until 2012.

【 在 xiaoju (可爱的龙猫) 的大作中提到: 】
old理论屁用没有
几百万参数都填对了,拟合出来的是整个宇宙的真理大脑,可惜上帝也不知道怎么填参数
because
b
believeme
101 楼
assuming you are correct, DL is simply data fitting as you claimed. data
fitting is not only about parameters and its number, it is also about the
best group of functions to be fitted.

all the different nn architectures: cnn, rnn, lstm,are about what group of functions to pick to fit. These architectures were developed before 2000. We did not have the computation power to test out these arthitectures with large
amount of data until 2012.

if old architectures have no use, you can develop a "shit" new fundamentally different nn architecture and fit it
with billions parameters to see whether it works or not.
c
cocoa2009
102 楼
不在于人脑里面是否装了ReLU。而在于能够估计算法改进还有多少潜力。

【 在 echoisles (echoisles) 的大作中提到: 】
私以为那几个所谓的重要突破 其实还就是一些奇技淫巧 就跟过去几十年那些所谓的AI
研究一心扑到SVM上一个德行 难道你信了人脑里面也装了ReLU? 学术界就是这样 不搞
些噱头怎么发paper怎么拉funding怎么评tenure 你要是主流的paper都过了一遍 在看
看上个世纪80年代的paper 其实没尼玛多大的区别. 到就还是Jeff Dean弄的玩意挺
nb
的. 然而也不是朝着人脑的方向走
n
neversee
103 楼
“还有多少潜力”非常正确!
【 在 cocoa2009 (贪吃猫) 的大作中提到: 】
不在于人脑里面是否装了ReLU。而在于能够估计算法改进还有多少潜力。
AI
nb
c
cocoa2009
104 楼
https://arxiv.org/pdf/1510.06356.pdf
这篇有没有道理

【 在 neversee (山知了) 的大作中提到: 】
DL与量子力学搭不上杠?灯泡与量子力学的关系得在这说说了。
从灯泡发明到电灯的普及,没量子力学什么事吧?结果是,为了制造更好的灯泡,不得
不搞量子力学。如果不是为了搞出更高效率的灯泡,普朗克就不会成为现代物理奠基人
之一,不会有量子力学,电子计算机...
wdong
105 楼
用MNIST做evaluation的paper一律可以忽略。
如果这种都看,世上的paper是看不过来的。
数学家和物理学家都觉得他们可以来掺一脚,
其实不是那样的。CS有CS的套路。
看paper主要是看evaluation。

【 在 cocoa2009 (贪吃猫) 的大作中提到: 】
https://arxiv.org/pdf/1510.06356.pdf
这篇有没有道理
hci
106 楼
"看paper主要是看evaluation" =》 正解

CS要成为Science,这才是正确的路数。

【 在 wdong (万事休) 的大作中提到: 】
用MNIST做evaluation的paper一律可以忽略。
如果这种都看,世上的paper是看不过来的。
数学家和物理学家都觉得他们可以来掺一脚,
其实不是那样的。CS有CS的套路。
看paper主要是看evaluation。
lightroom
107 楼
这个是一层一层train,5年前就公认没前途。没法搞深的

【 在 cocoa2009 (贪吃猫) 的大作中提到: 】
https://arxiv.org/pdf/1510.06356.pdf
这篇有没有道理
xiaoju
108 楼
同意这个:
数学家和物理学家都觉得他们可以来掺一脚,其实不是那样的。CS有CS的套路。

【 在 wdong (万事休) 的大作中提到: 】
用MNIST做evaluation的paper一律可以忽略。
如果这种都看,世上的paper是看不过来的。
数学家和物理学家都觉得他们可以来掺一脚,
其实不是那样的。CS有CS的套路。
看paper主要是看evaluation。
L
Liber8
109 楼
啥叫公认没前途
谁签字了?
【 在 lightroom (吃一条鱼,思考一个问题,法号三丰) 的大作中提到: 】
这个是一层一层train,5年前就公认没前途。没法搞深的
n
neversee
110 楼
想想生物基因大数据,超级计算机都还吃力,大自然一点不费劲,分明就是量子计算。Gerard 't Hooft说宇宙就是量子计算机!CS搞的一套在上帝面前就不好意思了。
L
Liber8
111 楼
quantum brain
人脑就是量子计算
【 在 neversee (山知了) 的大作中提到: 】
想想生物基因大数据,超级计算机都还吃力,大自然一点不费劲,分明就是量子计算。
Gerard 't Hooft说宇宙就是量子计算机!CS搞的一套在上帝面前就不好意思了。
k
kkkuai
112 楼
古偷你与王神有仇?

【在 guvest(我爱你老婆Anna)的大作中提到:】
:没脑子。我家三个拖地板的机器人。还说没用。那个Mint导航系统叫什么北极星,
:一看就是老中做的。Mint没几年,irobot就被迫收购。包子有肉不在表皮。北美有
nfnmd
113 楼
可是怎么知道人脑不是靠类似拟合的方式认知的呢?
【 在 echoisles (echoisles) 的大作中提到: 】
作为一个AI Researcher 我可以背书他说的东西都在点子上
AI陷入逻辑学的冬天 所谓的人工智能无非是统计和概率拟合函数而已
所以根本上来说这个时代的人工智能 只能称得上人工 称不上智能
领域里一边研究AI一边研究人脑的professor其实是有的 但是盖不住人脑的研究太肤浅
比起数学和统计方法 出不了太大的成果
所以 真正搞过AI的和Deep Learning之类的 其实都知道 现在吹的尼玛这些智能 什么
alphago 和人脑比起来 连屎都称不上 AI的真正的未来在于neuroscience 而不是整天
捣鼓那些数学函数
可惜商业驱动的社会 并不关心这个
gaodi
114 楼
当年汽车刚出来的时候,也有人写过文章:为什么汽车不能替代马车。
ReedToBe
115 楼
没觉得他驴头不对马嘴啊,基本上都说对了,尽管未必那么有深度。难道我思维混乱?【 在 guvest (我爱你老婆Anna) 的大作中提到: 】
这波确实有点狠了。很多老流氓都出来了。套路就是
批评ann/deep learning/dl不是智能,他的啥啥啥更智能。
王垠尽管这个贴很多地方驴头不对马嘴。
但是至少没有说自己的淫语言更智能。这点值得欣赏。
ReedToBe
116 楼
你界定一下学习能力,界定清楚了,大概你的疑问也就解决了。
【 在 floatmeeting (羊羊羊) 的大作中提到: 】
没有人觉得敬畏/害怕吗?
人工智能如果不能发展出真正的“智能”,具备自我学习,自我修复,自我进化能力,
就不能给人类提供好的服务。
可是一旦机器发展出真的智能,凭借超强的学习能力和复制进化能力,没几年就把人类
给灭了。或者灭掉99%,留下一点儿当动物园的熊猫做观赏研究用。还真指望着脑电波
能做生物电池?
ReedToBe
117 楼
啥故事啊?普朗克和提高电灯效率有啥关系?
【 在 neversee (山知了) 的大作中提到: 】
DL与量子力学搭不上杠?灯泡与量子力学的关系得在这说说了。
从灯泡发明到电灯的普及,没量子力学什么事吧?结果是,为了制造更好的灯泡,不得
不搞量子力学。如果不是为了搞出更高效率的灯泡,普朗克就不会成为现代物理奠基人
之一,不会有量子力学,电子计算机...
ReedToBe
118 楼
那是惠勒说的。唉。
【 在 neversee (山知了) 的大作中提到: 】
: 想想生物基因大数据,超级计算机都还吃力,大自然一点不费劲,分明就是量子计算。
: Gerard 't Hooft说宇宙就是量子计算机!CS搞的一套在上帝面前就不好意思了。