看一下alphago的resource allocation吧。MC search需要48个GPU,40个threads。你所谓的CNN才8个GPU。如果不需要算那么深,不需要算那么多步就不需要那么多GPU了。那么多GPU还是输给李世石一局,因为漏算了一步优先不高的一步棋。 How to run the MCTS? To run MCTS efficiently, the searches (simulation) are run on 48 CPU in 40 threads. The policy and value evaluations run on 8 GPU. https://jonathan-hui.medium.com/alphago-how-it-works-technically-26ddcc085319
看一下alphago的resource allocation吧。MC search需要48个GPU,40个threads。你所谓的CNN才8个GPU。如果不需要算那么深,不需要算那么多步就不需要那么多GPU了。那么多GPU还是输给李世石一局,因为漏算了一步优先不高的一步棋。 How to run the MCTS? To run MCTS efficiently, the searches (simulation) are run on 48 CPU in 40 threads. The policy and value evaluations run on 8 GPU. https://jonathan-hui.medium.com/alphago-how-it-works-technically-26ddcc085319 睿 发表于 2021-03-30 12:46
看一下alphago的resource allocation吧。MC search需要48个GPU,40个threads。你所谓的CNN才8个GPU。如果不需要算那么深,不需要算那么多步就不需要那么多GPU了。那么多GPU还是输给李世石一局,因为漏算了一步优先不高的一步棋。 How to run the MCTS? To run MCTS efficiently, the searches (simulation) are run on 48 CPU in 40 threads. The policy and value evaluations run on 8 GPU. https://jonathan-hui.medium.com/alphago-how-it-works-technically-26ddcc085319 睿 发表于 2021-03-30 12:46
比赛过程不停地在说狗子的棋奇怪又没意义,但不知不觉中突然发现阿尔法狗已经赢了
🔥 最新回帖
有问题吗?你又要给大家刷低你的知识了吗?npl不是用了理解对方的话,然后回馈,然后对方继续对与这个话题交谈,不是chat吗?
NPL AI = chatbot
wow
既然AI的chatbot那么牛了,那做客服没有问题吧。为啥没有任何公司做chatbot代替客服呢?每个客服可以省多少工资?如果有这个科技,开个公司,我不是说过可以轻轻松松成为全世界首富之一吗?
Siri是干啥用的?是设闹铃问天气用的,不是用来跟你聊天的。你吐槽Siri聊天不自然,那当然了,人家本身定位就是virtual assistant,不是话痨。
投行的语言AI更加不是用来跟你聊天的了,那个普通人根本接触不到,是大资本家赚钱用的工具。
投行不是sell side吗?我有说错吗?
AI chatbot不是很差吗? 我有说错吗?
那么简单家喻户晓的知识都不知道,还说我不了解?你真逗啊,哈哈哈。
🛋️ 沙发板凳
中盘倒反而更能体现出棋手的真正实力的,因为毕竟开始短兵相接,要比计算能力了。
》比赛过程不停地在说狗子的棋奇怪又没意义,但不知不觉中突然发现阿尔法狗已经赢了 如果不是那神之一手,五局都这样 AI在几个月的时间内,远远的把人类甩到后面去了。
国际象棋也是一样,现在抓网上作弊的都是有人下一步非常匪夷所思的棋,而那一步是几十步后演变最佳的棋,就可以判定他是作弊了。当然有人会说是碰巧,可是有两次以上就远远超过碰巧的机率了。
不管什么棋,人类只能看懂比你厉害一点点的棋,如果水平差太多,就完全看不懂了。这个也可以用在数学,差太多就完全听不懂。
“AI能看到各种几万步后发展的棋盘”。
这个你说的不准确,当然,围棋走不到几万步,但问题的实质不是这里,而是围棋的AI实际上不是硬算多少步之后的变化。
围棋的AI,实际上是凭感觉,也就是说,某种“样子”的局势,AI根据“感觉”得出在各点落子的胜率。这个“感觉”,是通过convolutional neural network(CNN)算出,而CNN的参数,是通过自我学习来不断修正的。
所以大家都用AI训练以后,柯洁统治力就下降了。看好小申今年横扫棋坛。
如果让ai和ai下会是什么后果呢?
看哪个AI更厉害了,势均力敌最后就是和棋或者差半目。国象的顶级对局,最后经常就是和棋
现在本来就有AI和AI的比赛。实力接近的AI,自然胜负参半。
我前面说的只是简化的描述,事实上AlphaGo Zero在CNN之上,还会有MonteCarlo Tree Search (MCTS)。不过这个MCTS并不是真的随机走不同的branch,走完棋局根据输赢给某步棋加/减分,而是在建立Tree的过程中,对每个节点,根据CNN算出的,这个节点以及下面走过的节点的价值,进行优化。
所以,确实,在优化上花的轮数越多,结果越优(当然,这是假设network-也就是之前训练出的参数们-强度类似)。但严格来说,这确实不是像以前大家知道的国际象棋的那种硬算多少步的方式。
现在大家已经开始用Deep Learning设计其他各种棋类或者游戏的AI了,这个真的能做的很强。
刚醒来,我写的不够准确,AI算的是几万步不同变化。
如果你玩过围棋AI,就会知道你说的每个局势的落子胜率只是AI考虑选择点优先而已,所有的优先高的点还是会通过Monte Carlo算出几万步后最佳的状况。如果不用Monte Carlo,只靠“感觉”和AI以前靠经验定义的落字胜率,水平只能到初段。这个alphago的paper都有说到。玩AI围棋,都要设calculation threads,要多少个来计算,还要设多少秒。
以前比较旧的显卡2080的一秒8000步,一般设10秒AI走一步,也就是8万步选一步。
即使是最初阶段和李世石下的alphago, 大多数的每一步也是5秒?如果不需要大量计算,根本不需要那么久,可以秒拍。
现在最最厉害的katago和人类顶尖高手下,让3个子差不多水平。4个子katago输的就比较多了。
以前没有AI,高手认为如果围棋有神的话最多让2子,现在看来差不多,3子。4子开始太悬殊了,到一定悬殊的情况神都救不了。
我的意思是,不会像以前国际象棋的AI那样,算的那么深。
简单描述一下AlphaGo Zero的MTCS的过程: 当前状态的节点作为tree的root,之后所有可以走的位置,都是这个root的child。每一轮MTCS,就是从节点往下走,遵循这个原则: (1)如果有没加入tree成为leaf的悬空child,那么加之(如果多于一个可选,有一定算法加哪个)。 (2)如果全部child都已经成为leaf,那么选择一个leaf(有具体算法去选择),往下走,重复(1)(2) visit每个节点的时候,会更新本节点以及其parent的visit值。
围棋一般一个状态(节点),会有上百个child可以选择。当然MTCS并不是每个节点都visit同样次数,但就算这样,你也可以看出,这种search,不会走得很深。如果算,比如,8万轮,那么能往下深入四五层就算不错的了。
柯洁好歹也八次冠军了,不至于是小丑,但是他的确人品有问题。
李世石年轻时也愤世嫉俗,但是对李昌镐还是恭恭敬敬。柯洁不知哪里来的勇气看不起李世石。
看时间设置,每秒一步的话,估计可以让职业棋手九子。前几天野狐网有个职业被让四子输了,30秒的棋。
如果是每方两三小时,一分钟读秒,大概是让两子或三子。
8万步是家庭版主机,alphago用的可不是家庭版单个GPU电脑。对付业余棋手家庭版已经够了。
听起来有趣,油管上有回播吗?
是的,我说的是慢棋。快棋当然人类更加被吊打。
职业选手之间也差好多的,高职业和低职业也可以让二子。
对付职业棋手家庭版也够用。现在职业棋手都用AI训练,家庭电脑就足够,比如中国棋手用绝艺。。。
基本上来说,MTCS与CNN结合,“深度”不是太需要追求的东西。
绝艺是云计算啊,前面只是个UI。你如果会下围棋,就不会说深度不是太追求的东西。只看目前下的棋局是没法通过经验下出最好的一手,一定要用算法。如果深度不需要追求,alphago和人下就不需要服务器了,和李世石下棋的博士用手上的笔记本就可以了。
CNN让树变的更窄,这样才可以算的更深,才可以打败人类。CNN的用途还是为了能算的更深。
我的意思是阿尔法狗和自己下会怎么样?会不会锁死?
传说古力把某女棋手打到让六子,好像是十秒的快棋。
人类和人类比快棋相差不大,和AI比相差太大了,1秒AI那么多步已经可以想到非常优的棋,棋手只能想到比较好的棋。时间越久对与AI来说区别没有人类来的大。譬如长考,人类还可以继续想下去一步步的变化。AI想的非常深,每深一步得更多exponential成长的大量计算,所以过了一定时间AI来说被硬件限制住了就没有用了。
确实是。柯洁因为不忿阿法GO请了李世石没请他下,解说的时候各种阴谋论啊。多次说李世石是明显故意下坏棋让着阿发狗是拿钱帮助谷歌炒作。
为啥会锁死?AlphaGo Zero就是通过自己和自己下,开始只知道规则,没有任何对“策略”上的了解,然后学习成长的。
我的医生有次对我说,他要回自己办公室查查电脑才能回答我的问题。
医生还是很有用的,让我搜,我根本不知道该用什么关键字。
我这样说比较好吧:以alphaGo zero为例(开源的katago应该也是这个算法),它的MCTS的算法就是我上面描述的,在选择leaf的时候,自然会根据它的CNN算出来的价值来做选择(具体公式我就不谈了)。最后选择哪一手,是看算了这么多轮后,哪一步被visit的最多。
那么究竟会算多深,只是算多少轮的副产品。也就是说,不像以前的象棋AI,以前,算的深本身就是目的,因为算的深你就能更好的预测这一手最后的结果是好还是坏,你算到的最后一层的价值,才是决定性的价值。
现在CNN加MCTS,说白了,就是在CNN的指导下我往下建立/走这个tree,看root之下的第一层节点,哪个点被选择的次数最多。而在这个点下任何一个leaf的好和坏(也就是CNN算出的价值),都能直接贡献到这个节点的visit数。换个方式说“最后一层”的价值并不是决定性的价值,在最后一层和第一层之间所有节点,都有贡献。这也是为什么“深”的意义,没有以前那么大。
当然,算的多自然就更深,这一点是显然的。
现在冠军数量比柯洁多的有李昌镐、李世石、曹薰铉,古力也是八个冠军,但是亚军比柯洁多。
有申真谞在,柯洁以后不知还能拿几个。
如果不需要算的深,就不需要CNN做priority优先的下棋点来收窄选择支点,也不需要用server服务器来算。这两点开发都是为了算的更深。
要是年轻的李昌镐能和阿尔法下三盘,一定是经典。
不过话说回来,柯洁棋下的还是不错的,后来有一盘慢棋是经典中的经典。
你这是叶公,哈哈,现在的围棋很有创新,比以前千篇一律的下法好看多了。
这个目的不是为了算的更深,是为了不去花时间算那些价值很低的点。当然,既然AlphaGo Zero的MCTS最后选点的方式,是选出那个visit最多的点来下子儿,那么这个(花更多时间去算价值高的点)基本上就既是原因也是结果。实质上的,是在几个CNN算出了价值接近但都比较高的节点之间的比较。
实际上,现在的下法才比较千篇一律。比如,点三三。。。
只不过比以前的下法有些不同而已。至于“新招”,基本上请AI指点就知道好不好了,所以大家的开局其实比以前还窄了(当然,这可能说明以前的有些变化,被AI判断出不好,所以大家就不去尝试了)
乐视体育里有嘉宾说是25步,主持人貌似还挺不屑的,其实25步已经需要很多计算量了,假设每一步有10个选点(我觉得狗子考虑的选点应该远多于10个,因为狗子的大局观比较好),就是10的25次方。我家娃自己说,他只能算最多6步(定势不算)。
家庭医生那种, 不用AI, 也可以取代了。
看一下alphago的resource allocation吧。MC search需要48个GPU,40个threads。你所谓的CNN才8个GPU。如果不需要算那么深,不需要算那么多步就不需要那么多GPU了。那么多GPU还是输给李世石一局,因为漏算了一步优先不高的一步棋。
How to run the MCTS? To run MCTS efficiently, the searches (simulation) are run on 48 CPU in 40 threads. The policy and value evaluations run on 8 GPU.
https://jonathan-hui.medium.com/alphago-how-it-works-technically-26ddcc085319
我怎么觉得(借用吴清源的话),那盘棋狗子还是输了好
算的轮数越多越好,这是毫无疑问的。
我只是说,这里面,“深”不是个关键问题。因为不像以前的象棋AI啥的。
现在创新都是AI去干,人类就是跟着模仿。上百年积累的定式有一大半都淘汰了,变化少了好多。
如果不需要深,MCTS就完全不需要那么多个gpu. 你的opinion敌不过fact。alphago 放那么多gpu不是摆设。
实际上人和AI真正的差距,还是中盘与官子的具体计算。因为这种交战或者接近终盘时的漏算,那是代价重大的。有时下出个勺子,基本上就输定了。但中盘与官子,你很难“学”AI。
而布局时,就算与AI有一定偏差,影响也未必那么明显。很少听说谁布局下出个勺子来的。但既然是比赛,大家谁都想能占一点儿优势就多占一点儿优势,而且布局比较好学AI (因为盘面形势相对简单,比较容易照搬)于是布局也越来越AI流了。。。
MCTS需要的是多算,这咋就不需要computing power了?至于是不是深,当然要看具体这个tree的组成。一般情况下算的多自然就深,我只是说与以前的象棋AI之类的比,这个“深”没有以前的意义大(以前大家说起啥啥象棋软件,谈到就就是能算多少步。现在围棋AI很明显不是以这个为评判方式的)。
不为了算的深,就不需要CNN来减少树的宽度了,下一手有优先分别就是为了减少下一步的选择量,减少树的宽度,为什么要减少宽度?就是为了算的更深。
和以前象棋比,现在算的更多,硬件一直在进步。如果真的按你说的算的没有意义了,还需要48个最新的GPU做search!?
对李世石那个阿法狗用了48个TPU,可能TPU比GPU更适合深思的算法,也可能是谷歌不想给英伟达免费做广告。
对柯洁那个阿法狗只用了四个TPU。据说训练神经网络时需要资源多,一旦参数出来了,实战需要的资源相对较少。
有次看阿法狗和周俊勋的模仿棋,AI说执黑这么模仿最后盘面2.5目,贴不出目。
百年前吴清源也推算过模仿棋,说天元那颗黑子价值只有三目,不贴目模仿棋可以赢。
如果没有追责这种事,医生其实超级容易被取代啊。药剂师第一个被取代。什么药物之间相互反应这种人类哪能有机器记性好。 现在主要是追责制度挡着路而已。
我觉得因为possible move太多,围棋AI算法不能无限追求深算。不像简单的棋,直接算到底就完了。 当然太浅也是不行的。所以用policy/value network减宽,减少CPU深算的load。
》3子。4子开始太悬殊了,到一定悬殊的情况神都救不了 意思是AI已经逼近理论极限了吗?
哪个computer给错药了,就把它拆了。算不算追责。。。🤣
就把写程序的马工揍一顿就好
本来就是blackbox,要追到谁那去?
何出此言?
这样的project, 马工, 测试, PM几十上百人, 打谁
围棋的确被玩残了,以后看谁植入的芯片版本新。
记得当时阿法狗带来的震撼太多了,很多都是关于人类和机器的哲学探讨,大多其实都是跑题的。尤其是在韩国,弥漫着很强的悲观情绪。慢慢在一些采访中,DM公司一些人强调阿法狗其实很简单,根本不算人工智能。后来狗子输了一局后,整个氛围都友好了很多,虽然第五局李世石又输了,但明显大家对阿法狗接纳多了。
记得有个媒体采访问起伦理道德的问题,DM的哈萨比斯强调我们自己也很关注,在这个问题的前沿云云,当时没觉得有什么特别的,但不知如何,这段采访一直在记忆里印象深刻。
跟伦理道德有什么关系?
不理解和追责有什么关系。 如果一个国家只有几个医疗公司, 用几台超级计算机, 肯定误诊的概率比几十万个医生要低。 而且电脑从错误中学习超快, 比几十万个医生学习快多了
药剂师是非常容易给取代的,毕竟就是按处方发药,顺便检查一下药物之间的冲突,和AI可以说没有关系。
医生就不一样的,范围太广,从看CT片到各种检查报告,到病人自己的感觉等等,即使都做了各种数据输入后如果有错误,人也没法调节,因为都是NN参数,人是没法调节的。你要强制去扩大一个case正确的影响力反而会出更多其他case的错误。
毕竟19*19格算气的围棋和现实生活中各种医疗case来比是小巫见大巫了。
不必勺子, 李世石这样的顶尖高手下一步缓手, 对人类棋手还能搬回来, 对电脑就game over 了
记得有一局, 李在左上补了一子,砌了一道墙, 大概就是想厚一点, 从此再无机会
讲真,现在真能追责医生吗?实际上AI更能追责,反正医疗服务提供者买保险赔偿即可。
现在问题的本质是立法垄断。医疗业者对全民进行忧虑营销。
这么说吧,有些开局,你走错一点点,AI已经显示有90%的赢率,人类怎么走都没法搬回来的。
至少家庭医生可以取代。
家庭医生的case就更广了,反而比专科的case多的多了。如果先要下手还是应该应该专科的。
“毕竟19*19格的围棋和现实生活中各种医疗case来比是小巫见大巫了。”
当然是19x19的围棋更难,每一步有300多落点,预计要落子100轮左右。医生诊断第一轮差不多1-5个病因猜测,都不准的话,再来第二轮,还不行就抓瞎。而且医生如果不给力,病人看不出来,就说病毒太狡猾。棋手不给力就是输棋,没有躲避余地。
主要围棋输了也就输了,最贵的一个世界大赛也就几十万美元。 医疗事故就没那么轻易了。
错,家庭医生只分析已知的典型病情并refer,这个AI太容易。专科会触及未知领域,未知的东西难以编到CNN里面。好比发现幽门螺旋杆菌这种不是AI能搞出来的。
人类对电脑就不用考虑了,以现在AI的水平,人类从一开始就是game over(当然,说的是分先)。
人类对人类,走缓手是常见的。开局的缓手,比起战斗中或者收官的大勺子来说,挽救的机会还是大得多的。
是的 dm 团队还号召所有搞这个的team联合起来做一些伦理道德方面的讨论和guideline
围棋是可预见的一个游戏,下那一步都是可以马上看到结果的。看诊是不可预见的,而且很多中年以上的病是引发病,不是病因。药的效果也是百分比的疗效,什么时候停药换药,AI还要有时间观念和病情的严重化的对比观念,这个不是decision tree那么简单的。
以后人类永远无法公平竞争打败AI, 任何棋。
你又露怯了,说的越多越暴露你即不懂围棋也不懂AI.
》医生就不一样的,范围太广,从看CT片到各种检查报告,到病人自己的感觉等等,即使都做了各种数据输入后如果有错误,人也没法调节,因为都是NN参数,人是没法调节的。你要强制去扩大一个case正确的影响力反而会出更多其他case的错误。
AI/ML到一定程度以后,人就不能判断它是不是错误的了。因为它的判断(即便不完美)已经超过世界上所有人。 医疗AI会逐步进入医生的诊断过程,直到最终完全代替。 不止医生,其他各行各业都一样。
你要讨论就说事实,不需要戴帽子。
可预见的意思是你可以simulate,可演变以后的变化来得到下一步走哪里的好坏。这个可以用AI演算变化来得到那一步最佳。看诊没法simulate以后怎么样,目前AI只能看统计。AI可能可以categorize或者group某些case在一起,可是有两个问题。
1。刚才我说的用药,用过哪些药多久不工作,如果病情严重,要换用那些更强的药。这些统计里没有很好的详细内容和量化。还有我说的其他隐患基础病或者正在服用的药物引起的新病,这些好多都是逻辑问题,不是统计问题,目前AI没法学习大量生活中逻辑方面的知识。
2。医疗用的新药和新治疗仪器,和新的治疗方法没几年都在更新,所以这些治疗的患者数据非常少,还是要靠医生的逻辑,可这个目前AI没法达到。没有人愿意用旧的治疗方法,都是要用最新最有效的方法。所以旧信息对于医疗患者不是非常有用。
这样说吧,生活中的逻辑,AI非常差,连5岁的知识都没有,目前的AI对话bot, 惨不忍睹,说过的前一个场景,后面再提起来,AI根本不记得。目前ML,DL,NN局限性非常的大,不需要夸大它们现在的能力。连一个5岁智力都没有的AI,要去做非常复杂的事情,要有时间观念,病人的作息观念,病情恶化观念,饮食观念等等, 运动观念,可能吗?
AI用于医疗诊断的前途不错,如果数据库够大, 症状输入后,很快能缩小检测范围,有效降低了误诊的概率
如果人类刚发现市场上一种药会导致心脏病患者更容易引发,因为刚发现的,NN参数怎么改!?
玩电竞,围棋输了可以拼命train到它赢,新知识加到旧知识里面怎样加?NN是靠数量来慢慢加大或减少一个NN参数。一个新知识点在NN里没法用。
加入data set,让它继续自学就可以了。
》人类刚发现xxx 这也是一个学的过程,不是absolute truth 而AI/ML学的比人快
没有case,加啥data set? 自己编造的case?不是实际的case?如果太多这样的case加进去,后果和现实可能就越来越远。
没case怎么“发现”??
case不够多,从几个病人的发病做假设,然后看历史sample发现超过统计正常值。
你别以为现在AI那么强,现在连个货车是云还是货车都搞不清楚。小环境AI没有问题,到现实生活中,AI就趴下了。
AI可以自我对战。AI的对局数据库除了和人类对局外,大部分是自我对局出来的。 人类一生能下几万盘棋就顶天了,而顶尖的AI比如绝艺,自我对局数超过30亿。 通过海量的数据库可以进一步优化算法。所以下到后面,已经不是人类能不能赢AI的 问题,而是会被AI让几个子的问题,目前看AI让顶尖人类3子差不多是极限了, 毕竟棋盘大小只有19x19,AI对人类的优势有一个阈值
AI写诗词也能写得像模像样啊,现在网上不都有么?
你说那种除了字数平仄哪儿都不对的?歪歪撇嘴说:没有灵魂。
医生不也花了一年时间才搞清楚要不要戴口罩吗?
围棋是可以不用多少时间自己生成的,病和新药物的作用没法自己生成,要靠真实的数据。
歪歪贵在真诚,最近估计连诗都不写了吧。。反正好久没有看他秀现代诗了。也不知道在忙啥。。
》case不够多,从几个病人的发病做假设,然后看历史sample发现超过统计正常值 dataset一样,AI/ML学的比较快,可以发觉人发觉不了的correlation AI/ML的知识判断及时进步,而从dataset 到给医生们的guideline有时间差
》现在连个货车是云还是货车都搞不清楚 AI/ML觉得困难的往往跟人脑觉得困难的不同 人脑做“现实生活”的工作(eg.辨识云)已经有百万年的经验/进化 人脑做先进科学方面的工作相对来说时间非常短,其实优势不大