员工联名公开信 警告OpenAI缺透明度无法因应AI风险

今日头条
Toutiao
  返回列表
38070 阅读
0 评论
中央社
When he joined OpenAI, William Saunders says he was hoping to find the company grappling with a difficult set of questions: "If there’s a machine that can do the economically valuable work that you do, how much power do you really have in a society?" https://t.co/ovCfFCOHEc

— TIME (@TIME) June 5, 2024

ChatGPT开发商OpenAI的现任和前任员工发表公开信警告,世界领先的人工智能(AI)公司缺乏必要的透明度和问责制,无法因应AI潜在风险。

法新社报导,这封公开信提出对AI安全风险的担忧,“从进一步加深现有的不平等,到操纵和假消息,再到自主AI系统失控可能造成的人类灭绝”。

16位连署人包含Google DeepMind的员工,他们警告,AI公司“有强烈的财务动机来避免有效的监督”,而公司的自我监管其实没有太大帮助。

信中指出:“AI公司拥有大量关于其系统的能力和局限性、保护措施的充分性以及不同类型伤害风险的非公开资讯。”

“但他们目前没什么义务与政府分享其中一些资讯,也完全没有和民间社会分享这些讯息,我们认为不能完全指望他们自愿分享这些讯息。”

公开信还说,这一事实意味公司内部员工是唯一可以通知大众的人,连署者呼吁制定更广泛的吹哨者法律来保护他们。

根据“纽约时报”报导,OpenAI的4名现任员工匿名连署,因为担心遭到公司报复。

连署人还包括AI研究先驱班吉欧(Yoshua Bengio)、辛顿(Geoffrey Hinton)、罗素(Stuart Russell),他们常被称为AI“教父”,也曾批评大家对AI风险缺乏准备。

OpenAI员工发表公开信,警示人工智能监管缺失风险

据央视新闻,美国开放人工智能研究中心(OpenAI)和谷歌旗下“深层思维”公司的13名现职员及前员工4日发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。

据多家外媒援引信件报道,这些员工认为,人工智能企业受利益驱使缺乏有效监管,现有企业治理架构不足以改变这一点。而不受监管的人工智能会触发虚假信息传播、人工智能系统丧失独立性和社会阶层不平等深化等多重风险。

信件指出,外部人士对上述风险中的大部分不知情,因为人工智能企业“目前只承担与政府分享部分相关信息的微弱义务,也没有义务与公民社会分享信息”,“我们不认为能全然依靠企业自愿分享信息”。

信件还指出,一般的法律保护对人工智能行业“吹哨人”而言“不够”,因为不少引人担忧的风险在法律监管方面仍属空白。另外,人工智能企业员工受制于保密协议,通常不得对外实质性披露企业所掌握的人工智能实力。