人工智能带来的新恐惧:当自主杀人机器人成为军方工具

今日头条
Toutiao
最新回复:2023年5月10日 6点36分 PT
  返回列表
54298 阅读
12 评论
纽约时报中文网

尽管科技高管正在尽力限制AI的风险,但新技术在开发、控制武器方面的能力尚属未知,人工智能系统甚至可能加速或误导战场决策。目前各国尚未协商出一个共同的军控规则。https://t.co/4Z1SRSISq1

— 纽约时报中文网 (@nytchinese) May 9, 2023

去年10月宣布严格限制向中国出售最先进的计算机芯片时,拜登总统给出的解释是,这一定程度上是为了给美国工业一个恢复竞争力的机会。

但在五角大楼和国家安全委员会,还有另外一个议程:军备控制。

从理论上说,如果中国军方拿不到芯片,可能会放慢研发人工智能武器的努力。这将让白宫和世界有时间制定出一些关于传感器、导弹和网络武器中使用人工智能的规则,终极目标则是防范好莱坞设想的那种噩梦——把自己的人类创造者关在门外的自主杀手机器人和计算机——变成现实。

现在,围绕着广受欢迎的ChatGPT聊天机器人和其他生成式人工智能软件的恐惧迷雾让限制中国获取芯片看起来只是一个权宜之计。上周四,拜登在白宫参加了一个科技高管会议,这些高管们正在想方设法限制这项技术的风险。拜登的第一句话是,“你们正在做的事情具有巨大的潜力和巨大的危险。”

他的国家安全助手表示,这是对最近有关这项新技术可能颠覆战争、网络冲突以及——在最极端的情况下,颠覆核武器使用决策的机密简报所做的反应。

但就在拜登发出警告的同时,五角大楼官员在科技论坛上表示,他们认为暂停开发下一代ChatGPT和类似软件六个月的想法是个坏主意:中国人不会等,俄罗斯人也不会等。

“如果我们停下来,猜猜谁不会停下来:海外的潜在对手,”五角大楼的首席信息官约翰·舍曼上周三表示。“我们必须继续前进。”

他的直白突显了当今整个国防界的紧张气氛。没有人真的清楚这些新技术在开发和控制武器方面的能力,而且也不了解什么样的军备控制制度(如果有的话)可能奏效。

这种预感虽然还不明确,但令人深感担忧。ChatGPT会让那些以前不容易接触到破坏性技术的坏人得逞吗?它是否会加速超级大国之间的对抗,以致没有时间进行外交和谈判?

“这个行业并不愚蠢,你已经看到了自我监管的努力,”谷歌前董事长埃里克·施密特说,他曾在2016年至2020年担任国防创新委员会首任主席。

“因此,该行业现在正在进行一系列非正式对话——所有这些都是非正式的——探讨人工智能的规则会是什么样的,”施密特说,他与前国务卿亨利·基辛格合作撰写了一系列文章和书籍,探讨人工智能颠覆地缘政治的潜力。

任何测试过最初几个版本的ChatGPT的人都看到了将保护措施置入系统的努力。例如,机器人不会回答有关如何自制药物伤害他人的问题,或者如何炸毁大坝或破坏核离心机,美国和其他国家在没有人工智能工具的情况下都参与过这些行动。

但是这类行为黑名单只能减缓对系统的滥用;很少有人认为他们可以完全阻止这种行为。总是有办法绕过安全限制,任何试图关闭汽车安全带警告系统紧急蜂鸣声的人都可以证明这一点。

尽管这个新软件让更多人看到了这个问题,但对于五角大楼来说,这并不是什么新鲜事。关于开发自主武器的第一条规则在十年前发布。五角大楼的联合人工智能中心成立于五年前,旨在探索人工智能在战斗中的应用。

一些武器已经处于自动巡航模式。击落进入受保护空域的导弹或飞机的爱国者导弹长期以来一直都有“自动”模式。这个模式使它们能够在没有人工干预的情况下被飞来的目标触发并开火,速度快于人类的反应。不过它们应该接受人类的监督,人类可以在必要时中止攻击。

针对伊朗资深核科学家穆赫森·法赫里扎德的暗杀行动是由以色列的摩萨德使用由人工智能辅助的自动机枪执行的,尽管看起来存在很大程度的遥控操作。俄罗斯最近表示已经开始制造——但尚未部署——波塞冬核鱼雷。如果真的像俄罗斯鼓吹的那样,这种武器将能够自主穿越海洋,避开现有的导弹防御系统,在发射几天后投送核武器。

到目前为止,还没有针对此类自主武器的条约或国际协定。在这个时代,放弃军备控制协议的速度比谈判的速度还快,达成这样的协议的希望渺茫。但ChatGPT及其同类产品提出的挑战类型不同,而且在某些方面更为复杂。

在军队中,注入人工智能的系统可以加快战场决策的速度,以至于它们会产生完全意料之外的打击风险,或者根据误导性或故意错误的攻击警报做出决策。

“在军事和国家安全领域,人工智能的一个核心问题是,你如何防御比人类决策速度更快的攻击,我认为这个问题尚未解决,”施密特说。“换句话说,导弹来得太快了,必须要有自动反应。但如果这是一个错误的信号怎么办?”

冷战期间充斥着错报的故事——本应用于练习核反应的训练磁带不知何故被输入了错误的系统,引发了苏联大规模进攻的警报。(是良好的判断力让人们没有惊慌失措。)新美国安全中心的保罗·沙雷在他2018年出版的《无人军队》一书中指出,“从1962年到2002年,至少发生了13起险些使用核武器的事件”,这“证实了这样一种观点,即未遂事件是核武器的正常情况,即使这很恐怖。”

出于这个原因,在超级大国之间的紧张局势远低于今天的时代,历任总统都试图通过谈判为各方的核决策留出更多时间,这样就没有人会匆忙卷入冲突。但是生成命令的AI有可能将各国往反方向推,加快决策速度。

好消息是,大国似乎会非常小心——因为他们知道对手的反应会是什么样子。但到目前为止,还没有经过商定的规则。

前国务院官员、赖斯、哈德利、盖茨和曼纽尔公司合伙人安雅·曼纽尔最近写道,中国和俄罗斯还没有准备好就人工智能进行军备控制谈判,但就这一主题进行会谈可以促进有关什么样的人工智能用途将被视为“过于危险”的讨论。

当然,五角大楼也会担心同意许多限制。

计算机科学家丹尼·希利斯是用于人工智能的并行计算机的先驱,他说,“我非常努力地争取制定一项政策,如果你有武器的自主元件,你需要一种关闭它们的方法。”希利斯也曾在国防创新委员会任职。他说,五角大楼的官员不同意,他们说,“如果我们能把它们关掉,敌人也能把它们关掉。”

更大的风险可能来自个人行为者、恐怖分子、勒索软件组织或拥有先进网络技术的小国——比如朝鲜——它们学会了如何克隆一个更小、限制更少的ChatGPT版本。他们可能会发现,生成式人工智能软件非常适合加速网络攻击和部署虚假信息。

负责微软信任与安全业务的汤姆·伯特最近在乔治·华盛顿大学的一个论坛上说,他认为人工智能系统将帮助防御者更快地发现异常行为,而不是帮助攻击者。微软正在加快使用这项新技术改造其搜索引擎。有些专家不同意这一观点。但他表示,他担心人工智能可能会“加速”有针对性的虚假信息的传播。

所有这些都预示着军备控制新时代的到来。

一些专家说,既然不可能阻止ChatGPT和类似软件的传播,最理想的出路是限制推进这项技术所需的专用芯片和其他计算能力。毫无疑问,这将是未来几年提出的许多不同的军备控制计划之一,而看起来各核大国目前对旧武器的谈判至少可以说缺乏兴趣,更不用提新武器了。

蠢才闭嘴
1 楼
什么人掌握了较新的科技工具,对国家安全,世界和平都是至关重要的。要特别惊醒
D
Deepspace_01
2 楼
AI的研究绝对不能慢下来。
p
pellegrino
3 楼
美国在发展新技术上太自由了,但是市场的阻力也很大 deepfake,crypto,这些技术在中国早久被严格限制,但是在美国还是没有管制 而中国已经大量采纳的AI技术,人脸识别,支付,美国却因为市场原因,发展不起来
为什么到处要注册
4 楼
人类很会自毁
z
zhongguoren8
5 楼
人类很SB,总以为被玩死的是别人,事不关己,慢慢的就会轮到自己。
z
zhongguoren8
6 楼
包括那些研究AI的人,早晚会被机器杀死,终结者的情节已拉开序幕。
蠢才闭嘴
7 楼
楼下说的很在理
不允许的笔名
8 楼
有一天突然发现所有自主杀人机器都听从GPT9.0指挥。
不允许的笔名
9 楼
Altman说他将全力以赴尽快让GPT实现自我学习升级。到时候GPT的能力不由人来决定,必将几何增长。有自主杀人能力的机器,多多益善。
z
zzbb-bzbz
10 楼
美国军方一直在和大厂合作研发杀人机器人,有些有良知的开发者就辞职了
土拨鼠拨土
11 楼
只可美国有,他国无
彼采荇兮
12 楼
https://tw.news.yahoo.com/%E5%85%B1%E8%BB%8D%E5%85%A5%E4%BE%B5%E5%8F%B0%E7%81%A3-%E9%83%AD%E5%8F%B0%E9%8A%98-%E6%88%91%E5%85%AB%E8%90%AC%E5%80%8B%E6%A9%9F%E5%99%A8%E4%BA%BA%E8%B7%9F%E4%BB%96%E5%B0%8D%E6%89%93-%E6%AD%BB%E9%81%93%E5%8F%8B%E4%B8%8D%E6%AD%BB%E8%B2%A7%E9%81%93%E5%95%A6-223616628.html 美国不行啊,郭台铭说他 3年内造8万个。