有些圈外人以为AI就是deep learning

iDemocracy
楼主 (未名空间)

很多中国年轻人听说deep learning是从AlphaGo开始的,其实AlphaGo所需要的一切数
学知识早在一百多年前就奠定好了,时代发展到这里,现实终于具备了使用这些数学理论的数据规模和工程能力。如果没有当代互联网普及程度和低廉的计算成本,即使有这个模型也用不上。事实上deep learning的理论成熟于90年代末,直到2010年代才真的
派上用场。如果90年代末没听说过deep learning,那么现在的最新技术仍然不会听到
,媒体新闻比一线科研论文晚十年是至少的。综上,AI的能力远不止于deep learning
,很多理论的应用还要等工程技术上去才能一睹风貌,deep learning只是AI所有能力
的冰山一角。
c
cfgatw

阿法狗当年战胜围棋之后不是说要战胜股市嘛

这要是成功了,美国就垮了。股市只能关门大吉
d
dhzmvd

阿法狗战胜围棋后,大陆山寨公司确实声称要山寨阿法狗来战胜大陆股市,于是他们买了茅台。

【 在 cfgatw (cfgatw) 的大作中提到: 】
: 阿法狗当年战胜围棋之后不是说要战胜股市嘛
: 这要是成功了,美国就垮了。股市只能关门大吉

WLion

有些圈外人以为flower就是tulip
x
xiaoxu

私立名校理工科phd曾从事多年科研看过很多早年ai paper的老马大牛出现了,敬
仰敬仰

s
straybird02

莎纶,how is your mama? Is she very proud of how you're spending most of
your time here?
f
fbgmail

alphago 主要是reinforcement Learning, 数学很简单(微积分),deep learning 有贡献。

【 在 iDemocracy (DEMO) 的大作中提到: 】
: 很多中国年轻人听说deep learning是从AlphaGo开始的,其实AlphaGo所需要的一切数
: 学知识早在一百多年前就奠定好了,时代发展到这里,现实终于具备了使用这些数学理
: 论的数据规模和工程能力。如果没有当代互联网普及程度和低廉的计算成本,即使有这
: 个模型也用不上。事实上deep learning的理论成熟于90年代末,直到2010年代才真的
: 派上用场。如果90年代末没听说过deep learning,那么现在的最新技术仍然不会听到
: ,媒体新闻比一线科研论文晚十年是至少的。综上,AI的能力远不止于deep
learning
: ,很多理论的应用还要等工程技术上去才能一睹风貌,deep learning只是AI所有能力
: 的冰山一角。

c
canhelp2007

阿尔法狗最大的特点是自己跟自己下棋来学习,不再学人的棋谱,最后把人打的满地找牙。目前最成功应用deep learning 的两个领域是computer vision和nature language processing

【 在 fbgmail (comment) 的大作中提到: 】
: alphago 主要是reinforcement Learning, 数学很简单(微积分),deep learning 有
: 贡献。
: learning

t
threepig

那为啥翻译的文章基本也还是根本没法看?更不要说计算机写小说了?我觉得计算机写小说才是人工智能的圣杯。

【 在 canhelp2007 (Tomorrow) 的大作中提到: 】
: 阿尔法狗最大的特点是自己跟自己下棋来学习,不再学人的棋谱,最后把人打的满地找
: 牙。目前最成功应用deep learning 的两个领域是computer vision和nature
language
: processing

b
bud

我这个外行看了一下AI。突然发现就是一个优化问题?咋给整了个这么牛的词,AI。
emoryustc


迭代与收敛,核心仅此而已

【 在 bud(BUD) 的大作中提到: 】

: 我这个外行看了一下AI。突然发现就是一个优化问题?咋给整了个这么牛的词,AI。

c
canhelp2007

你是太久没用google translate 了吧。你现在拷一段话去翻译,准确性很高,比普通
人做的要好了。

【 在 threepig () 的大作中提到: 】
: 那为啥翻译的文章基本也还是根本没法看?更不要说计算机写小说了?我觉得计算机写
: 小说才是人工智能的圣杯。
: language

m
matrixj

股市不需要deep learning, 有钱砸就是庄
c
crazycloud

工程问题,本质不就是优化么。但是怎么优化也是一门学问。
b
bud

没错。但这伙人太能起名了。我最近因某些原因不得不了解下AI。读些材料。居然还能读懂。因为之前做过优化。

【 在 crazycloud (crazycloud) 的大作中提到: 】
: 工程问题,本质不就是优化么。但是怎么优化也是一门学问。

f
fbgmail


所以说它的主要成功之处来自于reinforcement learning 在2000-2010年的发展。但如果没有deep learning(deep neural networks) 的发展,alphago 只能玩到业余5段。加上networks, 就成超人了。

【 在 canhelp2007 (Tomorrow) 的大作中提到: 】
: 阿尔法狗最大的特点是自己跟自己下棋来学习,不再学人的棋谱,最后把人打的满地找
: 牙。目前最成功应用deep learning 的两个领域是computer vision和nature
language
: processing

f
fbgmail


Google translate 中译英, 比中国普通大学毕业生肯定水平高很多了。

【 在 threepig () 的大作中提到: 】
: 那为啥翻译的文章基本也还是根本没法看?更不要说计算机写小说了?我觉得计算机写
: 小说才是人工智能的圣杯。
: language

f
fbgmail


从优化的数值解法上说,deep networks 比过去容易多了,从博士生的水平降到了大一的微积分。

进步主要来自学习的模型(参数多了千百万倍),数据的规模(也是千百万倍),和机器的算力。

【 在 crazycloud (crazycloud) 的大作中提到: 】
: 工程问题,本质不就是优化么。但是怎么优化也是一门学问。

t
threepig

搜了段经济学人。Google翻译是还可以,不过很多意思被曲解了。

For president joe biden to sign a $1.9trn stimulus bill this week was an
economic gamble—on inflation, the Federal Reserve and the capital markets. But politically, it was a dead cert. The Democrats, though in control of
Congress and the White House, can pass only rare budgetary bills, under a
procedure known as reconciliation. Any other legislation could be blocked by a filibuster, which requires a bill to muster a supermajority of 60 Senate votes. Because covid-19 is unpredictable, the stimulus had to be big enough to deal with new variants. Because the administration might not get another chance, the plan smuggled in pet priorities. Because, under the rules, it
was not subject to scrutiny in Senate committees, Republicans made no
contribution. It is a terrible way for the world’s leading democracy to
pass laws.

上周,拜登总统签署了一项1.9亿美元的刺激法案,这是一场涉及通货膨胀,美联储和
资本市场的经济赌博。 但是从政治上讲,这是无生命的证明。 尽管民主党人控制着国会和白宫,但他们只能通过和解程序来通过罕见的预算法案。 反对派可能会阻碍其他
任何立法,后者需要通过法案才能在参议院获得60票的多数票。 由于covid-19难以预
测,因此刺激必须足够大以应对新的变体。 由于政府可能再也没有机会了,因此该计
划将宠物列为优先事项。 因为根据规则,参议院委员会不需要对其进行审查,所以共
和党没有做出任何贡献。 这是世界主要民主国家通过法律的可怕方式

【 在 canhelp2007 (Tomorrow) 的大作中提到: 】
: 你是太久没用google translate 了吧。你现在拷一段话去翻译,准确性很高,比普通
: 人做的要好了。

F
FightWtMM

AI范围更广,包括machine learning, ML 里包含deep learning. 但DL现在是最火的。

当然不只是优化问题。

首先是模型 (NN; CNN; RNN)
然后是loss function (包括regularization)
最后才是优化

【 在 emoryustc (至尊宝) 的大作中提到: 】
: 迭代与收敛,核心仅此而已
:
: 我这个外行看了一下AI。突然发现就是一个优化问题?咋给整了个这么牛的词,
: AI。
: