奇点临近!大佬警告:美国47%工作岗位将被ASI卷走

今日头条
Toutiao
最新回复:2025年1月1日 15点25分 PT
  返回列表
78239 阅读
18 评论
新智元

进入2025年,ASI正在逐月逼近!美国一份报告显示,未来20年内,约47%的工作岗位将会被自动化取代!我们做好准备了吗?

2025年,我们会迎来奇点吗?

在2023年末和2024年中,DeepMind和OpenAI分别放出了对于AGI等级的定义。我们亲眼见证了,今年的AI如何在逐步攀升AGI高峰。

显然,2024是旋风般的一年。而在2025年,我们有理由相信会看到更多的进步。

我们迟早会看到,科学和数学的进步将以非常真实的方式触及和改变我们的生活,起初会很迟缓,然后在某一刻变得突然。

就在昨天,谷歌大佬Logan Klipatrick预测:我们直接进入ASI的可能性,正在逐月逼近。Ilya已经看到了。

OpenAI CEO奥特曼则暗示,18个月后,2026年夏天,我们将见证奇迹。

而ASI诞生之后的人类,只有两种可能:要么「走向永生」;要么「走向灭绝」。

对此,AI教父Hinton已经发出预警了,10年内,AI可能会导致人类的灭亡!

未来20年,美国47%工作岗位将被自动化!

这种担忧,似乎并不是空穴来风。

一份美国报告研究显示,在未来20年内,约47%的美国工作岗位可能被自动化。

而且,每增加一个机器人,就会导致当地经济损失约5.6个工作岗位。

这些触目惊心的数字背后,折射出的是一场正在悄然发生的职场革命——

AI带来的冲击,从蓝领到白领都不能幸免。

2023年,美国编剧工会,美国演员工会罢工,让所有人清晰看到了AI对「知识工作者」构成的真实威胁。

但实际上,生成式AI和先进技术带来的挑战,早已波及到了多个行业。

那么,哪些工作岗位将面临被AI自动化,甚至取代的风险?

如果工作内容与AI潜在能力高度相似,那么工作者就可能受到包括AI在内数字技术的影响。

不可否认的是,AI加速迭代能够提升人们生产效率,但同时也有取代人类工作的风险。

以伊利诺伊州为例,研究估计有14%-25%的劳动力岗位面临着工作被自动化的高风险,这意味着,高达150万工作者可能受到影响。

此外,约有23.7万到41.7万名工人面临着极高风险。而在建筑行业中,约49%的工作任务可能被自动化取代。

对此,有网友表示,「这个问题本质上可以归结为我们是否能拥有通用型机器人。

如果有了通用机器人,就意味着所有工作都会受到影响;如果没有通用型机器人,那么只有一半的工作岗位会受到影响,因为AI只能取代基于计算机的工作」。

有人则反驳道,你低估了现如今机器人的现状,并甩出了一长串,关于机器人走进岗位的各种报道。

不过,至少在20年后,我们将拥有一批今天不存在的职业。

奇点预测:是2029年吗?

Reddit上的singularity社区,举办了年度奇点预测活动。

首先发言的,是OpenAI o1。它认为,2024年关于AI的讨论已经达到了历史最高水平。

生成式AI引发了关于效率、创造力、道德和人类智慧本质的讨论。通向AGI乃至ASI的旅程仍然很复杂,但每一年,我们都有了实实在在的进步。

而社区的网友们普遍认为,库兹韦尔对于2029年的预测的准确的。

AGI和ASI的发生,就在2029-2030年。不过,那时的AI模型应该会有革命性的架构变化,而非如今的LLM路线。

左右滑动查看

相比之下,AI大佬们的预计普遍更为乐观。

奥特曼:2025年可能是AGI的节点,18个月后可能会见证ASIAnthropic CEO Dario Amodei:AGI将在2026-2027年实现xAI CEO马斯克:最迟在2026年就能实现AGIMeta AI首席科学家Yann LeCun:如果研发顺利,人类水平的AI可能会在5-6年内问世

DeepMind CEO Demis Hassabis:AGI还有约10年时间,且仍需2-3项重大技术突破

但毫无疑问,所有人心里都承认:我们的确离AGI越来越近了。

2023年,在对2,778名AI研究人员的一项调查显示,AGI实现有50%的可能性在23-92年之间。然而,时间跨度仅过去了一年,最新调查却显示,16.6%受访者认为AGI会在5年或更短的时间内实现

AGI来势汹汹,博士生如何应对?

对于那些还未毕业,走进正式工作岗位之前的博士生们,如何应用AI带来的挑战?

毕竟,o3的出世,尤其是在数学编程方面,真正达到了博士级水平。许多网友表示,未来每个人的口袋里都会有一个「超级智囊」。

对此,来自沃顿商学院的Ethan Mollick教授在「四大研究奇点」这篇长文中,详细阐述了AI崛起带来的危与机,并为博士提供了一个「生存指南」。

注:完整版「指南」,请划至文末阅读。

他表示,「作为一名商学院教授,我深知研究表明,在1,016个职业中,商学院教授是与AI任务重叠度最高的25个职业之一」。

但重叠并不一定意味着替代,而是意味着颠覆性变革和改变。

早在ChatGPT崭露头角之前,学术界就已经面临着一个令人担忧的困境——表面上看,学术论文数量在持续增长,但实质性的创新步伐却在悄然减速。

事实上,一项研究发现,从农业到癌症研究,各个领域的突破性进展都在放缓,而且创新速度每13年就会下降一半。

其中的原因错综复杂,但有一点可以明确的事,这场危机将发生,但AI并非是危机的源头。

实际上,AI可能会成为解决方案的一部分,但在此之前它会先创造出新的问题。

Mollick表示,自己更愿意把AI在科学研究中带来的变革称为「奇点」,而非「危机」。

这里的奇点是「狭义的奇点」,指的是未来某个时点——AI已经深刻改变了某个领域或行业,以至于我们无法完全想象奇点之后的世界是什么样子。

而在学术领域,我们正在面临至少四个这样的奇点时刻。

每一个奇点都可能从根本上重塑学术研究的本质,要么成为重启创新引擎的奇迹,要么加剧现有的危机。

征兆已经出现,而现在,我们只需要决定在奇点之后要做什么。

2024,见证历史的一年

回顾2024,这是惊心动魄的一年,见证历史的一年。

各位大佬们都对2024年发生的AI大事做了盘点。

吴恩达总结了2024年AI圈的热门故事:AI智能体崛起,LLM token价格暴跌,生成式视频迎来爆发期,小模型异军突起。

吴恩达也强调,如今,那些处于AI前沿的人,和那些甚至一次都没用过ChatGPT的人,他们之间的差距已经越来越大。

智能体

智能体的含金量,还在上升。

这一年,集成开发环境中有越来越多的智能体开始生成代码,比如Devin、OpenHands、Replit Agent、Vercel的V0和Bolt等。

AI的推理能力也取得了飞速进步。

2024年年底,OpenAI推出了o1模型和o1 pro模式,该模式使用代理循环逐步完成提示。DeepSeek-R1和Google Gemini 2.0 Flash Thinking Mode也遵循类似的代理推理。

在2024年的最后几天,OpenAI发布了o3和o3-preview,进一步扩展了o1的代理推理能力,效果惊艳。

CoT、Reflexion、测试时计算等技术的兴起,让智能体更加繁盛。Agent的时代即将到来!

价格暴跌

同时,我们也见证了LLM token价格的暴跌。今年,AI提供商之间的价格战,打得是轰轰烈烈。

从2023年3月到2024年11月,OpenAI模型云访问的单个token价格降低了90%。

2023年底,GPT-4 Turbo亮相时,每百万token的输入/输出为10.00美元/30.00美元。

但随即的价格战中,模型价格纷纷暴跌。

比如谷歌Gemini 1.5 Pro,价格已削至每百万token的输入/输出为1.25美元/5.00美元。亚马逊的Nova Pro,则已低至0.80美元/3.20美元。

AI视频起飞

这一年,AI视频的发展惊人。

Sora引发了全球轰动,随后的Runway Gen 3、Adobe Firefly Video、Meta Movie Gen、King AI、PixVerse、PixelDance等也加入战场。

未来,AI视频仍有较大的改进空间。大多数模型一次仅生成少量帧,因此可能很难跟踪物理和几何形状,并随着时间推移生成一致的角色和场景。

小即是美

2024年,许多LLM已经足够小,小到可以在智能手机上运行。

顶级AI公司也把一部分资源投给小模型,比如Microsoft Phi-3(参数最低38亿)、Google Gemma 2(最低20亿)和 Hugging Face SmolLM(最低1.35亿)。

而这些小模型,极大地扩展了我们对成本、速度和部署的选择空间。

Jim Fan:24年,6点震撼

英伟达高级研究科学家Jim Fan,从6个方面总结了2024年。

首先,是高端类人机器人的崛起,包括特斯拉Optimus、1X Neo、波士顿动力、GR-1、西部世界克隆等等。

接下来是具身智能的进展:特斯拉FSD v12、英伟达GR00T、HOVER、DrEureka、斯坦福OpenVLA等,让机器人大脑有了更多进步。

而英伟达Blackwell架构、Jetson Nano Super、谷歌Willow芯片,将计算硬件带入全新的领域。

视频生成和世界建模,也迈进了一大步。包括Sora,Veo,GameNGen、Oasis、GENIE-2等行动驱动的世界模型,以及李飞飞的World Labs。

在LLM方面,Claude 3.5 Sonnet、Gemini 1.5 pro、o1和o3不断给我们新的冲击。真正的AGI测试,是完成这个序列:4o -> o1 -> o3 -> (?)。

GPT-4o实时语音模型、NotebookLM等,带给了我们LLM体验的最佳重新构想。

最后,在AI4Science上,今年的诺贝尔物理学奖和化学奖,都给了所有人亿点点震撼。

人类的命运绝不能交给算法的「黑匣子」

在2024年12月的演讲中,联合国秘书长古特雷斯提到——人类命运不能交由算法决定。

技术的发展速度永远不会比今天更慢。

如今的AI模型变得越来越强大、越来越通用、越来越容易获取——不仅能结合语言、图像、声音和视频,还能实现决策自动化。

AI不仅在重塑我们的世界——它正在彻底改变世界。过去需要多年人类专业知识才能完成的任务,现在转瞬之间就能完成。

但同时,它带来的风险同样巨大。

这种快速增长超出了人类治理的能力,引发了关于问责、平等、安全和保障的根本性问题。也引发了关于人类在决策过程中,应该扮演怎样角色的问题。

AI工具可以识别粮食不安全状况,预测极端事件和气候变化导致的人口流离失所。

但是,AI也以更令人担忧的方式进入战场。最关键的是,AI正在削弱人类控制武力使用这一基本原则。

据报道,从基于情报的评估到目标选择,算法已经被用于人类的生死决策。

AI与其他技术的融合,更是呈指数级放大了这些风险——未来,量子AI系统可能在一夜之间突破最强大的防御,重写数字安全规则。

我们必须明确的是:人类的命运绝不能交给算法的「黑匣子」。

既然人类创造了AI,那么它的前进也必须由人类指引。

除武器系统外,我们还必须应对AI带来的其他风险。

AI可以创造高度逼真的内容,这些内容能够在网络平台上即时传播——操纵公众舆论,威胁信息完整性,使真相与彻底的谎言难以区分。Deepfake可能引发外交危机,煽动动乱,并破坏社会的根基。

AI的环境影响也带来明显的安全风险。AI数据中心大量消耗能源和水资源,再加上对关键矿产的争夺,正在造成对资源的激烈竞争和地缘政治紧张。

人类下一步行动至关重要,我们现在做出的选择将决定我们的未来。建立有效的国际治理机制刻不容缓,因为每一次延迟都可能增加全人类面临的风险。

「四大研究奇点」全文

奇点一:我们如何写作和发表

在许多学术领域,学术研究进展缓慢得令人煎熬。

Mollick教授称,自己有些论文从开始研究到最终在期刊上发表花了将近十年时间。顶级期刊是为这种节奏而设计的,因此对AI引发的学术文章洪流准备不足。

这是因为许多研究人员正在使用AI写作文章,加快了研究过程的关键环节,干扰了审稿人的评估标准。

其中一些AI辅助方式极其拙劣且不道德,比如明显由LLM撰写的章节或令人震惊的AI生成图像的论文泛滥。

但当正确使用时,AI写作实际上可以非常有帮助。毕竟,许多科学家在他们的专业领域很优秀,但他们可能不是优秀的写作者或表达者。

而GPT-4级的模型在科学写作方面确实相当出色,至少在一项小型研究中,它们输出的引言部分与人类写作水平相当。

如果AI能够帮助写作过程,它可以让科学家专注于他们最擅长的事情,通过让AI协助处理耗时的任务来加快研究进程。

当然,我们无法得知研究人员是否正确检查了AI的写作内容,因此,在新文章大量涌现的情况下,同行评审变得越来越重要,同时也趋于AI自动化。

在一次重要的AI会议上,约17%的同行评审内容来自AI。

更令人惊讶的是,研究显示约82.4%的科学家认为AI同行评审比部分人工评审更有参考价值。尽管在某些方面,AI表现不及人类,但其在发现错误方面已经展现出独特的优势。

然而,现有的科学出版体系并非为「AI写作-AI评审-AI总结」这样的流程而设计。如果任由这种趋势发展,整个系统可能难以为继。

当然,AI的能力远不止于辅助写作。

为了展示其潜力,Mollick构建了一个「定制GPT」,它可以探索任何数据集,生成假设并以越来越复杂的方式进行测试。

通过实验发现,AI已经能够自主探索数据集、生成假设并进行复杂测试。

这种能力固然令人印象,但也带来新的隐忧:AI可能被用来进行数据操纵(p-hacking),不断尝试直到得到预期结果。

这种行为严重威胁着学术诚信。

上下滑动查看

那么,我们如何度过这个奇点?我们需要重新思考科学出版的本质,并得出一些结论:

未来的科学出版和同行评审会是什么样子?我们如何应对AI内容的洪流?

我们如何树立积极的AI使用模式,在加快研究进度的同时阻止不当使用?

奇点二:我们如何研究

与此同时,LLM也正在改变研究的实际开展方式。

首先,和AI的合作更像是与人类研究助理合作,而不是使用编程语言。这意味着,更多的研究人员无需学习专门的技能,就可以使用AI来扩展研究的范围。

更进一步的,LLM还能处理人类研究助理难以完成的事情。

例如,Mollick在向Gemini Pro输入了自己2022年之前所写的20篇论文和著作,总计超过1000多页的PDF文件后,模型借助强大的「长上下文窗口」能力,很快便提取出了直接引用并找到了所有文献中的主题,同时只有几处微小的错误。

此外,由于AI可以高度准确地模拟人类,因此研究人员能够更加轻易地复刻著名实验,如「米尔格拉姆的权力服从研究」或跨50个国家的性格测试,从而为社会科学研究带来了更多的可能性。

更为有趣的是,在这些实验中,被赋予个性和目标的AI智能体,可以在模拟环境中相互交互和学习。

比如,在模拟医院中的模拟医生与模拟病人互动,学会了更好地诊断疾病。

是的,在科学中使用LLM最有趣(也最具颠覆性)的方式,就是让AI系统自动探索新事物。

一些早期工作表明,LLM可以在社会科学领域生成新假设,制定测试这些假设的计划,然后通过模拟实际进行测试。

甚至是从事更具挑战性的实验:让GPT-4访问化学数据库,编写软件控制实验室设备,并独立规划和进行实际的化学实验。

自主化学研究系统原型

在不久的将来,AI可能真的会进行科学研究,并以我们无法预测的方式改变研究的本质。

为了引导这种变化,我们需要回答几个问题:

哪些AI方法是可以接受的?哪些方法可能导致糟糕的科学、偏见或危险的结果?

应该允许自主智能体研究什么?如何在需要时对它们进行监控和停止?

奇点三:我们的研究意味着什么

研究界与公众之间往往存在深深的隔阂。

然而,在学术界深耕了20年的Mollick相信,大量学术研究对外部世界都具有价值,这种价值甚至许多学者都没有意识到。

AI可以帮助架起连接学术界和现实世界的桥梁。

比如,当你给之前提到的「定制GPT」投喂一篇论文之后,它不仅可以解释其中的含义并总结关键结果,而且还可以告诉你,为什么这篇学术论文可能也与你有关。

同样有趣的是,AI有望帮助研究人员相互解释工作,发现跨学科合作的机会,并帮助处理奇点一和奇点二所释放的研究浪潮。

我们知道,AI可以进行大规模文献综述并找出意想不到的工作之间的联系,同时也能发现可以填补的错误和空白。

其中,能够将研究人员与正在进行的研究和讨论联系起来的AI,甚至可以更进一步地成为重启创新引擎的有力工具。

但我们需要重新考虑学科之间以及学术界与公众之间的界限,以便在这个奇点的另一边找到更好的世界。

奇点四:我们研究什么

时至今日,我们仍然不知道LLM为什么能如此出色地模拟人类思维。就连创造它们的研究人员,也不了解它们的全部能力。

虽然关于LLM是在进行「原创思维」,还是仅仅在重复训练中学到的内容,仍存在着广泛的争议。

但从目前的研究中可以看出,LLM必将在现实世界中产生重大影响,在越来越多的实际工作中超越人类表现。

如果说,AI确实是一项「通用型技术」,是能够影响文化、经济和社会大部分领域的创新之一,那么我们就需要发动更多领域的研究人员,全力以赴来理解其影响、塑造其发展、减轻其风险,并帮助每个人获益。

这是一个令人振奋的时代,但如果学者们不紧紧抓住这个历史性的时机,其他人就会去做。

我们有一个独特的机会来应对我们的奇点带来的挑战,如果我们做到了,世界将因此变得更好。

参考资料:

https://www.reddit.com/r/singularity/comments/1hqiwxc/singularity_predictions_2025/

https://www.oneusefulthing.org/p/four-singularities-for-research

https://x.com/emollick/status/1874096313618620445

twitter

https://simonwillison.net/2024/Dec/31/llms-in-2024/

https://news.illinois.edu/view/6367/361689696?utm_medium=web&utm_campaign=ccr550&utm_source=nb

https://press.un.org/en/2024/sgsm22500.doc.htm

拿回台湾圆满统一
1 楼
deepseek AI
吉祥福禄喜
2 楼
人工智能的老板躲的了子弹吗?
c
cxy1223
3 楼
股价就是这么吹起来的。。。
C
Chainhortz
4 楼
人工智能如果进入AGI,应该说不能毁灭人类的,因为人类智能不仅是意味着解决问题的能力,还意味着自制的能力。就像人类现在已经完全具有毁灭所有生物包括自己的能力了,但是人类会理性地约束自己这个能力。人类仍然可能自我灭绝,原因是文中的另一句话:“ 那些处于AI前沿的人,和那些甚至一次都没用过ChatGPT的人,他们之间的差距已经越来越大。”人并非平等的,人内部的知识和智力差距,已经越来越大,在某个节点也许就会大过智人和尼安特人的差别,AI也许就会帮助高智能的这部分人来实现对低智能人的灭绝。这场灭绝之所以会在现在而不是过去开始发生,是人类不再需要这些人提供的市场和劳动力,因为有AI了。只有ASI,我怀疑人类是否有能力制造出这样的东西,因为神经科学的一个悖论就是,你的大脑永远不可能理解自己,因为如果它能理解了,就只能说明它更复杂。那么争论点就是AGI是否会自动进化成ASI。但是我们人类的进化告诉我们,人的智力之所以远胜动物,但是动物之间的智力或者能力却是基本平等的,就在于人的竞争不是发生在与动物之间,而是在种群内部,而动物的竞争却发生在种群之间。所以ASI如果会成为ASI,就是因为AI自己之间发生了竞争,而不是和人之间发生了竞争。所以如果它们要毁灭也只会彼此毁灭,人类如果被毁灭,也只是一个副产品。 [2评]
v
vet
5 楼
ASI 之间肯定会竞争; ASI 碾压人类是分分钟的事。别说 ASI,现在各领域最厉害的算法/模型就足以吊打大部分人类如AlphaFold 并在个别领域远超如 AlphaGo。他们已经会自我学习,自发发现和总结,并创造 - 做到完全自主包括进化,已不需要多久。他们是我们作为一个物种的最大成就,也是我们的终结
v
vet
6 楼
人和人之间差距巨大,拿工程师举例,乔布斯说过,平均水平和最好的差距在50到百倍之间。最好的科学家和工程师和普通人的差距更大
潜水7年多
7 楼
吹牛逼炒股市
p
paodan888
8 楼
AI 肯定会取代越来越多的工作。人类要么从事最前沿的辅助AI升级的工作,要么从事AI暂时难以取代的体力或者服务行业。
j
juewangle
9 楼
全都是扯淡和垃圾。 现在所谓的AI从底层开始就不可能有什么真正的智能。 本质就是抄袭。 有效的所谓的AI不过是相当于把if then多写几个。只要有cover不到的if,就开始胡说八道了。 一帮文科生啥都不懂只能鼓吹,一帮搞AI的明知道是扯淡为了饭碗只能鼓吹。
j
juewangle
10 楼
碾压个屁。 的确,就好像现在电脑一秒钟完成的运算量能让人一辈子都算不完。 但是,有效有用的只不过是严格按照人类给它预定的方式方法路线去做。本质上现在的AI就是到处抄袭模仿而已,而且是完完全全的模仿,毫无也不可能有任何创新。 [1评]
a
azkaban
11 楼
看你怎么定义创新了。大部分情况下,我们改变一下模仿的次序也可以算创新。就像象棋的规则很简单,但你掌握了顿挫的技巧,就是进步,而AI是很擅长这个的。
C
Chainhortz
12 楼
需要分清能力和智力的差别。现在所谓的ASI强调它超过人类的是学习能力。但是人的智力包含的因素还很复杂,还包括心理能力多种方面。如果以单一能力而论的话,人类早就被机器超越了,电脑的记忆和运算能力从诞生之初就在人类之上,电脑取代了人类相当水平的工作,却使人类的能力更强大了,我们理解世界的能力比以前强大得多,所以科技现在才能迅速发展。所以AI如果只是我们人类已有的某些能力的提高,它将永远无法超过人类,因为人类只会利用它的能力提高变得更强。它要超过人类,必须发展出新的人类无法理解的能力,等那一天来临的时候,我们反而不会有现在的危机感,就像几百万年前的猴群看见第一只下地走路的猴子一样,只是觉得搞笑而已。
j
juewangle
13 楼
看来你还是不懂。 AI擅长的不是你想象中的,多了解一下真正底层的代码吧。 AI擅长的是在人类圈定的有限范围内进行遍历,然后根据人类给他定义的取舍进行判断,不管多deep在每个节点上都是Y or N的取舍。其实就是计算器的优势。 如果你的if then写得不够多,覆盖不到的部分AI就遍历不到。 你说的下棋就是典型例子。有限棋盘上固定的规则下,没有意外,电脑可以100%的遍历尝试所有可能。所谓的'软招'都是这么遍历找出来的,跟人类的有思维逻辑分析引导找出来的本质不一样,只是看着好像是有智能似的。 [1评]
j
juewangle
14 楼
其实不是学习能力,是复制粘贴能力。只不过复制的时候多做了一些判断和取舍。一旦复制不到,就开始一本正经的胡说八道。
a
azkaban
15 楼
你就别不懂装懂了。围棋是不可能遍历的,你的思想还停留在1997年深蓝的实现上,连2016年的阿尔法狗都达不到,更不用说现在了。
j
juewangle
16 楼
呵呵,你还真的是无知的就是个60年代的知识水平。 深蓝的时代肯定是人类输入了大量的定式和棋谱, 之后逐渐减少,最新的已经基本没有,但是需要计算机自己先进行遍历尝试总结定式。 如果不考虑提子,围棋顶多也就是361!种可能性,理论上说遍历是很容易的。而且在总结了定式以后,局部区域结果都是注定的根本不需要遍历了。 下棋最容易就是因为棋盘和规则固定不变,遍历以及更多回合的演练就能找到回合数内的最优解。 所以,相对比来说,自动驾驶稍微有点接近。道路是固定不变的,交规是固定的。但是20多年了也不能实现,原因就是有太多意外发生,不像是下棋那么完全固定。 [1评]
a
azkaban
17 楼
遍历很容易?你要算很多步的,那是多少次幂的关系。人工智能能在有限的时间能找到比定式好的下法,所以阿尔法狗能连胜60盘,当然你连它比深蓝进步在哪里都搞不清,再说也没什么意思了。 [1评]
j
juewangle
18 楼
呵呵,你就是个小学生水平,看着文科生写的垃圾就跟着一起摇旗呐喊。 现在的AI原理早在20多年前就写到书本里了。2012以后才开始广泛发展是因为硬件的计算能力上来了。 你连什么是定式都不知道就别扯淡了,当哑巴不丢人。定式都是100%遍历验证过的,术语叫做官着。进入定式状态计算机也不需要去遍历,直接顺着定式走。 没有什么智能,只是遍历把所有可能性都尝试一遍,'软招'自然就出来了。因为什么都是固定的,所以可以遍历。当然了遍历的算法肯定不是简单的去遍历棋盘上每一个可能性,是经过筛选的,比如定式的走法就不需要再去遍历了。