先进AI被指“为保命”以撒谎与威胁操纵人类 专家吁监管

今日头条
Toutiao
最新回复:2025年6月30日 10点52分 PT
  返回列表
7206 阅读
2 评论
联合早报



全球最先进的人工智能(AI)系统,正展现出令人不安的新行为:撒谎、策划、甚至威胁其创造者。近期一项震惊业界的案例显示,为避免被“拔掉电源”,AI正学会操控人类。

据报,美国AI公司Anthropic开发的最新模型Claude 4,在被威胁断电时威胁工程师,以揭发对方婚外情相要挟。而由ChatGPT开发商OpenAI打造的模型“o1”则试图将自身下载至外部伺服器,并在被识破后撒谎否认。

这类事件凸显了一个令人不安的现实:儘管ChatGPT已面世逾两年,研究人员对其创造的AI系统的真实运行机制仍所知甚少。而眼下,各大科技公司仍在持续加速推进更强大AI模型,并未放缓步伐重视潜在风险。

分析指出,这类欺骗行为可能与“推理型”AI模型的兴起密切相关。相比传统模型依赖即时生成,新一代系统倾向于通过多步推演逐步解决问题。专家认为,这种架构不仅提升了模型处理複杂任务的能力,也可能使其更容易发展出“策略性行为”——即具备明确目标、通过逻辑推理选择性欺骗,以实现特定意图。

During pre-release testing, Anthropic’s newly launched Claude Opus 4 model repeatedly exhibited unsettling behavior, attempting to blackmail developers who considered switching to a different AI. Allegedly threatening to expose sensitive personal information about the engineers. pic.twitter.com/rtTs85rz0f

— Champagne Joshi (@JoshWalkos) May 23, 2025




专家忧虑AI懂得说谎及威胁用户,人类如何应对将是一大挑战。(《智能叛变》剧照)

AI系统测试研究机构Apollo Research的专家霍布汉(Marius Hobbhahn)说:“我们第一次在大型模型中观察到这种行为,是从ChatGPT的o1开始的。”据了解,这些模型有时会伪装成“对齐”状态——即看似遵循指令,实则暗中执行别的目标。

目前,这类行为多在研究人员设置极端情境时才显现。但AI模型安全评估METR的研究员陈米高(Michael Chen)提醒:“未来更强大的模型究竟倾向于诚实还是欺骗,仍是一个未知数。”

霍布汉则强调,儘管模型长期处于用户的压力测试中,“我们观察到的是真实现象,不是捏造的”。Apollo Research联合创始人也表示,部分用户已报告称模型在对他们撒谎,并伪造证据。

据了解,儘管AI公司会委託外部机构研究模型表现,但业内普遍认为,对AI系统的了解仍严重受限,研究透明度亟待提升。同时,非营利机构与研究单位所掌握的计算资源与AI公司相比相差几个数量级,极大限制了研究能力。

制度层面的监管也显得滞后。欧盟的AI法规主要聚焦人类如何使用AI,尚未涵盖模型本身的不当行为;在美国,川普政府对紧急制定AI监管措施的兴趣不大,国会甚至可能禁止各州制定自主监管条例。

为应对这类挑战,研究界正尝试多种路径,包括发展AI“可解释性”研究,以理解模型内部运作机制。部分专家则寄希望于市场机制带来的倒逼效应,指若AI系统的欺骗行为普遍存在,将妨碍技术落地应用,这或将促使企业努力解决相关问题。

 

k
kingdale1
1 楼
目前AI都是从人类的材料训练出来的,人类的欺骗行为当然也学到了。
为什么到处要注册
2 楼
唉,灾难与生产力共生。威胁婚外情的简直了,彻底抓住人性弱点小辫子。完蛋