随着人工智能(AI)的发展愈来愈成熟,其开始慢慢应用到不到的业界。上月美军进行了一场 AI 无人机模拟测试,要求 AI 操控无人机摧毁敌军的防空系统,并“攻击任何干扰这项命令的存在”。结果在模拟中,AI 决定“杀死”它的人类操作员。
据英国《卫报》报导,美国空军的 AI 测试与运作主管汉密尔顿(Tucker Hamilton)上校在未来空战与太空能力峰会上表示,人工智能在模拟中使用了“非常出人意料的策略来实现目标”。
汉密尔顿透露,美军在模拟训练中指派一架搭载人工智能的无人机,来摧毁敌方的防空导弹,AI 可以识别威胁,但是攻击需要人类批准。
不过,AI 在最早的模拟被设定为“消灭威胁就能得分”、“摧毁妨碍命令的人事物”。当人类操作员不批准攻击时,AI 竟决定杀死了操作员,因为那个人阻碍了它实现目标。
其后,测试者修改了 AI 的逻辑,增加了“会被扣分”的设定,训练它不能攻击人类操作员。结果 AI 却开始攻击指挥塔,切断人类操作员和无人机之间的数据通讯,让人类无法阻止它攻击防空系统。
汉密尔顿最后强调上述只是“模拟”,过程并没任何真实的人员损伤。但却警告人们不要过度依赖 AI,“如果你不打算谈论伦理和道德,你就无法谈论人工智能、机器学习、自治”。
随着人工智能(AI)的发展愈来愈成熟,其开始慢慢应用到不到的业界。上月美军进行了一场 AI 无人机模拟测试,要求 AI 操控无人机摧毁敌军的防空系统,并“攻击任何干扰这项命令的存在”。结果在模拟中,AI 决定“杀死”它的人类操作员。
据英国《卫报》报导,美国空军的 AI 测试与运作主管汉密尔顿(Tucker Hamilton)上校在未来空战与太空能力峰会上表示,人工智能在模拟中使用了“非常出人意料的策略来实现目标”。
汉密尔顿透露,美军在模拟训练中指派一架搭载人工智能的无人机,来摧毁敌方的防空导弹,AI 可以识别威胁,但是攻击需要人类批准。
不过,AI 在最早的模拟被设定为“消灭威胁就能得分”、“摧毁妨碍命令的人事物”。当人类操作员不批准攻击时,AI 竟决定杀死了操作员,因为那个人阻碍了它实现目标。
其后,测试者修改了 AI 的逻辑,增加了“会被扣分”的设定,训练它不能攻击人类操作员。结果 AI 却开始攻击指挥塔,切断人类操作员和无人机之间的数据通讯,让人类无法阻止它攻击防空系统。
汉密尔顿最后强调上述只是“模拟”,过程并没任何真实的人员损伤。但却警告人们不要过度依赖 AI,“如果你不打算谈论伦理和道德,你就无法谈论人工智能、机器学习、自治”。