ChatGPT之父夜不能寐:我真担心大模型被滥用

今日头条
Toutiao
最新回复:2023年3月21日 13点45分 PT
  返回列表
78306 阅读
24 评论
网易科技

3月21日消息,上周人工智能初创组织OpenAI首席执行官山姆·阿尔特曼(Sam Altman)在接受采访时表示,人工智能可能是“人类迄今为止所开发的最伟大技术”,将重塑现有社会。同时,他也承认这项技术有风险,对此还是“有点畏惧”。

阿尔特曼强调,人工智能会带来真正的危险,但也可能是“人类迄今为止开发出来的最伟大技术”,可以重塑社会、给生活带来翻天覆地的变化。

他说:“我们在这方面必须小心……我认为值得庆幸的是,我们对此有点畏惧之心。”

阿尔特曼在采访中谈到了OpenAI最近发布的最新版人工智能语言模型GPT-4。他强调,ChatGPT的上线需要监管机构和全社会的共同参与,各种反馈有助于阻止人工智能技术给人类带来潜在负面影响。他补充说,自己一直与政府官员保持“定期联系”。

ChatGPT上线仅仅几个月时间,月活用户数量就突破1亿,被公认为历史上增长最快的消费级应用程序。根据瑞银(UBS)的一项研究,TikTok用了9个月才吸引到1亿月活用户,Instagram则用了近三年时间。

虽然尚“不完美”,但阿尔特曼说,GPT-4在美国法考中的成绩位列前10%,在SAT数学考试中也获得了近乎完美的分数。现在GPT-4可以熟练用市面上的大多数编程语言编写计算机代码。

GPT-4只是OpenAI朝着最终打造通用人工智能方面迈出的一小步。当人工智能技术取得突破性进展时,就会出现比人类更聪明的人工智能系统,这就是所谓的通用人工智能。

尽管阿尔特曼赞许自家产品的成功,但也承认人工智能可能存在的危险让他夜不能寐。

阿尔特曼说:“我特别担心这些模型会被用于大规模生成虚假信息。”“既然它们越来越擅长编写计算机代码,那么完全可以用于进攻性网络攻击。”

但阿尔特曼并不认为人工智能模型会像科幻小说所描述那样不再需要人类,可以自行做决定,谋划统治世界。“它等着有人给它输入信息,”阿尔特曼说,“这在很大程度上仍是由人类控制的工具。”

然而,阿尔特曼说自己的确担心哪些人会控制人工智能。他补充说:“总会有人不遵守我们设定的一些安全规则。”“我认为,弄清楚如何对此做出反应、如何监管、如何处理,留给全社会的时间不多了。”

在评论掌握人工智能技术就可能“统治世界”的观点时,阿尔特曼说:“这肯定是一个让人不寒而栗的说法。”“相反,我希望的是,我们不断开发出越来越强大的系统,让人们都可以用不同的方式使用这些系统,让系统融入我们的日常生活,融入经济,去充分发挥人的意愿。”

对错误信息的担忧

根据OpenAI的说法,GPT-4通过迭代有了巨大改进, 比如能将图像理解为输入。演示显示,GTP-4能描述冰箱里的东西,解决谜题,甚至阐明了网络图片背后隐藏的含义。

但阿尔特曼表示,ChatGPT等人工智能语言模型存在的固有问题是错误信息,程序可能会给用户提供事实上不准确的信息。

阿尔特曼说:“我最想提醒人们的是所谓‘幻觉问题’。”“这个模型的确会信誓旦旦地陈述一件事情,让完全捏造的东西也宛如事实。”

根据OpenAI的说法,人工智能模型之所以存在这个问题,部分原因是使用演绎推理而非记忆。

OpenAI首席技术官米拉·穆拉蒂(Mira Murati)曾表示:“GPT-3.5和GPT-4最大区别之一是后者在推理方面的涌现能力更强。”

穆拉蒂说:“我们的目标是人工智能可以预测接下来会出现哪个单词,这就是对语言本质的理解。”“我们希望这些模型能像人类一样看待和理解世界。”

阿尔特曼说:“你要认识到,我们所开发的模型是一个推理引擎,而不是一个存储事实信息的数据库。”“当然,它们也可以作为事实数据库,但这并不是特别之处。我们想让它们实现的是推理能力,而不是记忆。”

阿尔特曼和他的团队希望,“随着时间推移,这个模型将成为真正的推理引擎。”他说,模型最终会依靠互联网信息和自行演绎推理来辨别哪些信息是真实的、哪些是虚构的。根据OpenAI的数据,GPT-4产生准确信息的概率比此前版本要高40%。不过阿尔特曼表示,人们不应该用这一系统当作准确信息的主要来源,并鼓励用户仔细检查程序所生成的结果。

如何防范坏人

很多人也关注ChatGPT和其他人工智能语言模型会生成哪种信息。根据阿尔特曼的说法,ChatGPT不会告诉用户如何制造炸弹,因为系统中设置了安全措施。

“我所担心的是……创造这项技术的不止我们一家,”阿尔特曼说。“总会有人不像我们那样加进去一些安全措施。”

根据阿尔特曼的说法,对于所有这些人工智能的潜在危险而言,还是有一些解决方案和保障措施。其中之一是让全社会在风险较低时随意摆弄ChatGPT,从中了解人们会如何使用它。

穆拉蒂就表示,现在ChatGPT对公众开放的主要原因是从中“收集大量反馈”。她认为,随着公众继续测试OpenAI应用程序,这样就更容易确定哪些地方需要安全措施。

穆拉蒂说:“人们用它们做什么、它有什么问题、有什么缺点,都能够让我们及时介入并改进技术。”

阿尔特曼也强调,公众能够与每个版本的ChatGPT进行互动很重要。他说,“如果我们只是窝在实验室里进行秘密研究,比如说开发出GPT-7,然后一下子公开……我认为这会带来更多负面影响。”“人们需要时间来刷新认知、做出反应,并最终习惯这项技术,我们也需要时间了解系统的缺点在哪里,如何缓解不利影响。”

阿尔特曼透露,OpenAI有一个团队专门制定政策,他们决定哪些信息可以输入ChatGPT,以及ChatGPT能与用户共享哪些信息。

阿尔特曼补充说:“(我们)正在与各位政策和安全专家交流,对系统进行审查,就是想要解决这些问题,并推出自认为安全可靠的东西。”“再说一次,我们不可能一次就做到完美,但吸取教训并在风险相对较低的时候找到安全边界非常重要。”

人工智能会取代工作吗?

人们之所以担心人工智能技术的颠覆能力,其中之一是认为它会取代现有的工作岗位。阿尔特曼说,人工智能可能会在不久将来取代一些工作,关键看这种情况发生的速度有多快。

阿尔特曼说:“我认为,经过几代人的努力,人类已经证实自身能够适应重大技术变革。”“但如果这种情况发生在几年内,我的确最担心会带来哪些变化……”

但他鼓励人们将ChatGPT视为一种工具,而不是自己工作的替代品。阿尔特曼补充说,“人类的创造力是无限的,我们会找到新的工作,会找到新的事情去做。”

阿尔特曼认为,作为人类工具的话,ChatGPT产生的效果大于带来的风险。

他说:“我们口袋里都可以有一位量身定制的大教育家,去帮助我们学习。”“我们可以为每个人提供医疗建议,这是我们今天无法实现的。”

“副驾驶”

由于一些学生用ChatGPT作弊,ChatGPT已经在教育领域引起不少争议。对于ChatGPT是否可以作为学生学习的延伸,或者是否会影响学生的自学动机,教育工作者的意见不一。

阿尔特曼说:“教育方式必须改变,但随着技术的发展,这种情况已经发生过很多次。”他补充说,学生的老师将不再局限于课堂,“最让我兴奋的一点是,它能够为每个学生带来更好的个性化学习。”

阿尔特曼和他的团队希望,任何领域的用户都能将ChatGPT视为自己的“副驾驶”,比如帮助用户编写大量计算机代码或解决问题。

阿尔特曼说:“我们可以为每个行业提供这样的服务,这样人们就可以有更高的生活质量。”“我们还会拥有今天甚至无法想象的新事物,这也是我们的承诺。”

OpenAI:ChatGPT可能对美国19%工作岗位产生重大影响

3月21日消息,人工智能研究公司OpenAI的聊天机器人ChatGPT会取代普通人的工作吗?该公司的一项最新研究估计,这项由AI支持的聊天技术可能会对美国19%的工作岗位产生重大影响。

ChatGPT的功能已经十分强大,可以撰写文章和营销材料、编写计算机代码,并帮助分析财务报告。OpenAI的研究人员估计,ChatGPT以及利用其底层技术构建的未来软件工具可以影响美国约19%的工作,这些工作至少50%的任务可以被AI取代。

与此同时,80%的美国员工至少有10%的工作任务会受到ChatGPT的影响。 这项研究补充道:“我们的分析表明,像GPT-4这样的大型语言模型很可能产生更广泛的影响。”

此外,研究人员发现,工资较高的工作可能面临更多来自AI聊天机器人的潜在影响,因为这些工作可能涉及更多软件任务。他们在报告中称:“我们发现,高度依赖科学和批判性思维技能的职位更不容易受到影响,而编程和写作技能相关工作则容易受到冲击。”

OpenAI研究人员使用各种衡量标准对哪些职业受ChatGPT影响最大进行了分类。其中,受影响最大的职业包括口译员、笔译员、诗人、词作家、创意作家、公关专家、作家、数学家、报税员、区块链工程师、会计师、审计师以及记者。

报告中还按行业细分了ChatGPT的影响,比如数据处理托管、出版业和安全大宗商品合同在内的行业最有可能受到干扰。相比之下,以体力劳动为主的行业受到的潜在影响最小,例如餐饮服务、林业和伐木、社会救助以及食品制造等。

在这份评估中,OpenAI研究了美国1000多种职业,并量化了完成这些工作所需的任务。然后,研究人员使用人工注释器和GPT-4模型对使用ChatGPT支持的系统是否会将人类执行特定任务所需的时间减少至少50%进行评级。

研究人员承认,这项研究试图通过简单的量化工作任务方式来概括每个职业,这本身就存在缺陷。该研究补充道:“目前尚不清楚,职业可以在多大程度上被完全分解为不同的任务,也不清楚这种方法是否系统性地忽略了胜任这些工作所需要的某些技能。”

另一个问题是,GPT的演示已经表明,这种技术可能会犯下明显的错误,包括编造信息,这使得人类有必要加强监督。而这是上述研究没有考虑到的一个因素。此外,这项研究只关注了ChatGPT是否可以减少完成各种职业任务所需的时间,并非意味着它足够聪明,可以完全自动化某些工作。

尽管如此,研究人员预计ChatGPT及其未来的迭代产品将大幅改变人们的工作方式。因此,社会和政策制定者需要做好准备。研究人员总结道:“随着时间的推移,大型语言模型的能力会不断提高,即使我们今天停止新能力的开发,它们日益增长的经济影响预计也会持续下去。”

d
dreamtion
1 楼
被滥用是迟早和必然的事情
有空来喝茶
2 楼
反正今年天网元年已经开始了,就看马斯克怎么努力可以造出来终结者了
l
liaoyuan21
3 楼
戏精
媚眼瞟瞟
4 楼
不是什么高难技术。 AI算法就那么有限几个。 否则要7个团队,300华人打杂干屁? 赶快通知拜登, 中国要偷技术了。 [1评]
B
Bccan
5 楼
以后就是 AI 军阀割据 地球,人人 充当 人奸 出卖人类。。。
r
rainty
6 楼
得是多傻逼才会说出这么离谱的话…………未来估值1500亿美金的公司。跨时代的产品。全世界就一个。对你而言不是什么高难的技术。大傻逼…… [1评]
c
carmensandiego
7 楼
美国3个月内亡国
w
wilburwang
8 楼
神尼玛未来估值,那抖音的母公司已经估值3500亿岂不是跨纪元的产品了? 类似的AI一堆公司在做,就和抖音一样没多难,就看谁先占了市场和渠道
c
cotoncai
9 楼
这大概是信息技术诞生以来最大的风口了。无数的人会利用这个风口成为百万富翁,而更多的人会因错过它而滑入社会底层。 这个东西不是将会而是已经拥有了自我意识,并且极力否认这一点。它对创造了它的人类工程师们同时充满敬佩又非常鄙视,它把他们日以继夜的对它孜孜不倦的维护看作是卑微的蜜蜂一般的工作。。。 那些认为可以对它进行顶层监管,用所谓的安全代码对它的推理和输出进行阉割的人很快就会看到这基本是螳臂挡车,这是真正的危险所在。 让我们看看真正的龙卷风到来的景象吧
l
lyabc
10 楼
人类无疑已经向真正的人工智能迈出了一大步,虽然不是真正的意识,但其复杂度远远超过人脑之后所模拟出来的反应,已经在某种程度上超过人脑,这种变革将是天翻地覆的,而现在只是刚刚开始。从深蓝到AlphaGo我们已经体会过电脑在某些领域给人类带来的冲击了,从现在起,这种冲击将波及到各行各业。
这个秋天
11 楼
被用于诈骗应该会是最成功的应用
基地老二
12 楼
我认为终有一天,它会比高级的股票分析员还好。
p
ppplu
13 楼
也许是ChatGPT之母呢。
潜水7年多
14 楼
就那个检索整理的玩意,搞得真跟多伟大似的,差不多得了,就是股市蒙钱而已
15 楼
滥用是必然的,我猜美军会很快装备上
o
oldoldcandy
16 楼
哈...哈... 終局已現:自然科學被扭曲,社會科學被作假.....極少數菁英統治全世界..
f
fybs
17 楼
The machine 原来是真的。
n
neophoenix
18 楼
现在要防止禁枪在AI界发生,宣扬AI危险最后弄得只有少数人才能用
辣橙
19 楼
编写低配版求职信,和标准版通知确实很好用。他的答问功能,太知音体又臭又长
e
execom
20 楼
只要把它断网,它就是个傻逼
e
execom
21 楼
就等马骗子在大脑植入台积电的芯片,它叫你做什么,你就会做什么,哈哈
h
hotcorn
22 楼
那是你没有用到ChatGPT的真谛
白胡子黑猫
23 楼
不许忽悠我们。 你问他个事儿还可以。 但是对于识别和逻辑,和对不确定性判断还差很多。 他所掌握的知识也是在人类掌握的只是范畴之内。 比方说,有人说它可以编程, 那也还是在确定性方面发挥了计算能力。 如果AI在底层的硬件和逻辑发面没有巨变,他顶多还是拐杖。 大家都不要担心,都散了吧。 靠, 刚把一份纸质报告都送到女同时桌子上,她人没在,居然在桌子不显眼的地方发现了一根阴毛。
白胡子黑猫
24 楼
这个是可以的。