美东时间周六凌晨,马斯克在推特上表示:我曾经醉心数字货币,但现在钟情人工智能了。
https://csrankings.org/#/fromyear/2020/toyear/2022/index?ai&vision&mlmining&nlp&inforet&us
注意FILTER用过去三年,而不能用过去10年。AI这个行业发展太快了。
#Institution Count Faculty
1 Carnegie Mellon University
2 Univ. of Illinois at Urbana-Champaign
不得不说就是第一!
的课程,上几门网课就够了。
https://airankings.org/
这些方向的几个强校的PHD program 竞争很大
本科 CS+数学 的话,就更好
AI理论到头,实践应用还没影儿呢
https://csrankings.org/#/fromyear/2020/toyear/2022/index?ai&vision&mlmining&nlp&inforet&world
要想AI达到3,4岁小孩的智力都极其难
比如,给3,4岁小孩看一个小狗以后,他们会认识各种小狗,黑白灰,躺着坐着跑着的。。。
但是现在的“AI”就不行,你要给它喂上亿的图形数据,才能做到这种能力
深度神经网络有很多层,一般参数都很大,几十亿的参数常见。几十亿甚至上百亿个参数意味着模型本身的存储量是非常大的。
比如用神经网络来做语言模型,给出的训练数据集大概有十亿个网页的量级。 如果用循环神经网络去训练一个语言模型,它需要用到的模型的大小大概是80G到100G的大小,已经远远超过一个GPU卡的容量,那么就需要做分布式的运算,还要做模型并行,这里就有很多技术难度在里面。
假设有一个GPU卡,能够放下这80G或100G的模型,这些数据过一遍也可能要用上百年的时间。。。
中国近十年AI之风刮的如火如荼,大有盖过美国的势头。前几年看到一个报道,据研究说当年的大地主刘文彩其实也是一位AI专家。刘文彩没有文化,不太识字,但是他极有商业意识,白手起家,游走在当时的政,商,匪,黑各种势力之间,如鱼得水,赚的满盆满罐。据说他毕生的经验都总结在一个长达十分钟才能背完的口诀里。这个口诀把当时的各种可能影响生意的因素都统一考虑在一起,有点像棋谱,非常灵动,列举出数百种可能出现的pattern和他应当考虑的策略等等,有人把这个口诀应用到现代AI的神经网络上,据说相当精到。唯一不方便的是这个口诀里有很多旧的说法,比如衙门,县太爷等等,但是如果把这些旧的说法换成现代语,比如把衙门换成县政府,把国民党换成共产党,把县太爷换成县委书记照样说的过去。所以那些读AI的学子,在读完了美国的大学之后,不要忘了再去刘文彩的收租院进修一把。
美东时间周六凌晨,马斯克在推特上表示:我曾经醉心数字货币,但现在钟情人工智能了。
https://csrankings.org/#/fromyear/2020/toyear/2022/index?ai&vision&mlmining&nlp&inforet&us
注意FILTER用过去三年,而不能用过去10年。AI这个行业发展太快了。
#Institution Count Faculty
1 Carnegie Mellon University
2 Univ. of Illinois at Urbana-Champaign
3 Cornell University 4 Univ. of California 5 University of Maryland - College Park 6 Stanford University 6 Univ. of California - San Diego 8 University of Michigan 9 Rutgers University 10 Univ. of California - Berkeley不得不说就是第一!
的课程,上几门网课就够了。
https://airankings.org/
这些方向的几个强校的PHD program 竞争很大
本科 CS+数学 的话,就更好
AI理论到头,实践应用还没影儿呢
https://csrankings.org/#/fromyear/2020/toyear/2022/index?ai&vision&mlmining&nlp&inforet&world
要想AI达到3,4岁小孩的智力都极其难
比如,给3,4岁小孩看一个小狗以后,他们会认识各种小狗,黑白灰,躺着坐着跑着的。。。
但是现在的“AI”就不行,你要给它喂上亿的图形数据,才能做到这种能力
深度神经网络有很多层,一般参数都很大,几十亿的参数常见。几十亿甚至上百亿个参数意味着模型本身的存储量是非常大的。
比如用神经网络来做语言模型,给出的训练数据集大概有十亿个网页的量级。 如果用循环神经网络去训练一个语言模型,它需要用到的模型的大小大概是80G到100G的大小,已经远远超过一个GPU卡的容量,那么就需要做分布式的运算,还要做模型并行,这里就有很多技术难度在里面。
假设有一个GPU卡,能够放下这80G或100G的模型,这些数据过一遍也可能要用上百年的时间。。。
中国近十年AI之风刮的如火如荼,大有盖过美国的势头。前几年看到一个报道,据研究说当年的大地主刘文彩其实也是一位AI专家。刘文彩没有文化,不太识字,但是他极有商业意识,白手起家,游走在当时的政,商,匪,黑各种势力之间,如鱼得水,赚的满盆满罐。据说他毕生的经验都总结在一个长达十分钟才能背完的口诀里。这个口诀把当时的各种可能影响生意的因素都统一考虑在一起,有点像棋谱,非常灵动,列举出数百种可能出现的pattern和他应当考虑的策略等等,有人把这个口诀应用到现代AI的神经网络上,据说相当精到。唯一不方便的是这个口诀里有很多旧的说法,比如衙门,县太爷等等,但是如果把这些旧的说法换成现代语,比如把衙门换成县政府,把国民党换成共产党,把县太爷换成县委书记照样说的过去。所以那些读AI的学子,在读完了美国的大学之后,不要忘了再去刘文彩的收租院进修一把。