3. Sam Altman对监管的几点建议:1)成立一个新的机构,对超过一定规模的功能进行许可,并可以收回许可证,确保遵守安全标准。2)制定一套安全标准,重点关注危险能力评估。我们以前用过的一个例子是检查看模型是否可以自我复制和自行渗透到外部。3)要求独立审计,而不仅仅是公司或机构自我审查,还要有广泛外部专家的评价意见。
Sam Altman是OpenAI的联合创始人兼首席执行官,OpenAI是负责ChatGPT和DALL·E等人工智能研究和应用的公司。Altman先生曾担任Y Combinator创业加速器的总裁,从2014年到2019年。OpenAI成立于2015年。
Christina Montgomery是IBM的副总裁兼首席隐私和信任官,负责公司的全球隐私计划、政策合规和战略。她还担任IBM人工智能伦理委员会和多样性团队的主席,负责人工智能和新兴技术的治理。Christina在IBM担任多种职务,包括公司董事会的公司秘书。她是人工智能伦理和政府方面的全球领导者,同时还是美国商会人工智能委员会和美国国家人工智能咨询委员会的成员,该委员会于2022年成立,为总统和国家人工智能倡议办公室提供有关人工智能相关议题的建议。
Gary Marcus是人工智能领域的主要声音,他是一位科学家、畅销书作者和企业家,是Robust AI和Geometric AI的创始人(如果我没记错的话,它被Uber收购),他还是纽约大学心理学和神经科学的名誉教授。Marcus先生以对当代人工智能的挑战而闻名,他在几十年前就预见到了许多当前的局限,并在人类语言发展和认知神经科学方面进行了研究。
我们现有的系统还不具备这些能力,但看到全球许多人已经从这些系统中获得了如此多的价值,这是非常令人满意的。我们喜欢看到人们使用我们的工具来创造、学习、提高生产力,我们非常乐观地认为未来会有很多好的工作,现有的工作也能变得更好。我们也看到开发人员为改善生活所做的努力,例如,Be My Eyes利用我们GPT-4中的新型多模态技术,帮助视障人士在环境中导航。
划重点:
1. Sam Altman 认为与所有的技术革命一样,AI会对就业产生重大影响。但GPT-4是一个工具,而不是一种生物,它更擅长完成任务,而不是工作。因此它将创建我们认为更好的新工作。
2. 对于AI大规模部署,Sam Altman认为在暗地里构建一个超强大的人工智能系统,然后一下子把它投放到世界上这不会奏效。OpenAI的战略是当这些系统仍然相不完美时,找到方法让人们对它们有经验,与现实接触,通过反馈找出使其变得更安全和更好的方法。
3. Sam Altman对监管的几点建议:1)成立一个新的机构,对超过一定规模的功能进行许可,并可以收回许可证,确保遵守安全标准。2)制定一套安全标准,重点关注危险能力评估。我们以前用过的一个例子是检查看模型是否可以自我复制和自行渗透到外部。3)要求独立审计,而不仅仅是公司或机构自我审查,还要有广泛外部专家的评价意见。
4. 在隐私保护层面:用户能够选择退出,不让类似我们公司或社交媒体公司这样的公司使用他们的数据,而且易于删除自己的数据。如果用户不希望自己的数据用于训练这些系统,他有权这样做。
国会听证会主席:
现在让我介绍一下证人。我们非常感谢你们能来这里。
Sam Altman是OpenAI的联合创始人兼首席执行官,OpenAI是负责ChatGPT和DALL·E等人工智能研究和应用的公司。Altman先生曾担任Y Combinator创业加速器的总裁,从2014年到2019年。OpenAI成立于2015年。
Christina Montgomery是IBM的副总裁兼首席隐私和信任官,负责公司的全球隐私计划、政策合规和战略。她还担任IBM人工智能伦理委员会和多样性团队的主席,负责人工智能和新兴技术的治理。Christina在IBM担任多种职务,包括公司董事会的公司秘书。她是人工智能伦理和政府方面的全球领导者,同时还是美国商会人工智能委员会和美国国家人工智能咨询委员会的成员,该委员会于2022年成立,为总统和国家人工智能倡议办公室提供有关人工智能相关议题的建议。
Gary Marcus是人工智能领域的主要声音,他是一位科学家、畅销书作者和企业家,是Robust AI和Geometric AI的创始人(如果我没记错的话,它被Uber收购),他还是纽约大学心理学和神经科学的名誉教授。Marcus先生以对当代人工智能的挑战而闻名,他在几十年前就预见到了许多当前的局限,并在人类语言发展和认知神经科学方面进行了研究。
感谢你们的出席。正如你们所知,我们司法委员会的习惯是在证人作证之前对他们进行宣誓。请你们都站起来,举起右手。你们发誓你们即将作证的内容是真实的、全部的,没有任何虚假,对此表示同意吗?谢谢。
Altman先生,如果可以的话,我们将从您开始。
Sam:
谢谢。谢谢主席达赫尔、霍利排名委员会成员。非常感谢能有机会在这里向大家讲话,谈论大型神经网络。对我来说,能在此刻出席比我预期的还要光荣。我叫Sam Altman,我是OpenAI的首席执行官。
OpenAI的成立是基于这样的信念,人工智能有潜力改善我们生活的方方面面,但同时也会带来严重的风险,我们必须共同努力来管理这些风险。我们在这里是因为人们热爱这项技术,我们认为它可能是印刷机的时刻,我们必须共同努力使其成为现实。
OpenAI是一家非同寻常的公司,我们设立它就是因为人工智能是一项非同寻常的技术。我们受非营利组织的管理,我们的活动由我们的使命和章程驱动,我们致力于确保人工智能的利益广泛分布,并最大限度地提高人工智能系统的安全性。我们正在努力开发一种工具,将来可以帮助我们发现新知识,解决人类面临的最大挑战,如气候变化和治愈癌症。
我们现有的系统还不具备这些能力,但看到全球许多人已经从这些系统中获得了如此多的价值,这是非常令人满意的。我们喜欢看到人们使用我们的工具来创造、学习、提高生产力,我们非常乐观地认为未来会有很多好的工作,现有的工作也能变得更好。我们也看到开发人员为改善生活所做的努力,例如,Be My Eyes利用我们GPT-4中的新型多模态技术,帮助视障人士在环境中导航。
我们相信迄今部署的工具的好处远远超过风险,但确保它们的安全对我们的工作至关重要,我们会付出巨大努力,在所有层面上确保安全内置于我们的系统中。在发布任何新系统之前,OpenAI都会进行广泛的测试,与外部专家进行详细审查和独立审核,改进模型的行为,并实施强大的安全和监测系统。在发布我们最新的模型GPT-4之前,我们花了六个多月进行广泛的评估、外部红队测试和危险能力测试。我们为我们取得的进展感到自豪,GPT-4比其他功能相似的广泛部署模型更有可能作出有益和真实的回应,拒绝有害的请求。
然而,我们认为政府的监管干预将是至关重要的,例如,美国政府可以考虑对开发和发布超过一定能力门槛的人工智能模型实施许可和测试要求。在我的书面证词中,我还提到了其他几个领域,在这些领域,我相信像我们这样的公司可以与政府合作,包括确保最强大的人工智能模型遵守一套安全要求,促进制定和更新安全措施的过程,探索全球协作的机会。
正如你们提到的,我认为公司在这方面也有责任,无论国会做什么,这是一个非凡的时刻,从事人工智能工作。但随着这项技术的发展,我们理解到人们对它可能改变我们生活方式的担忧,我们也有同样的担忧。但我们相信我们可以并且必须共同努力,识别和管理潜在的负面影响,以便我们都能享受巨大的好处。确保强大的人工智能以民主的价值观为基础的发展至关重要,这意味着美国的领导地位至关重要。我相信我们能够应对眼前的风险,并真正利用这项技术的潜力,推动美国和全世界的经济增长。我期待着与大家共同应对这个时刻,并回答你们的问题。
主席:
谢谢Altman先生。
我们将进行7分钟的提问环节,我将首先提问。首先,我们今天在这里是因为我们确实面临完美风暴。我们中的一些人可能更倾向于将其比作瓷器店中的炸弹,而不是公牛。正如霍利参议员所指出的,这里有先例,不仅是原子武器时代,还有基因组项目和遗传学研究,这导致了国际合作。我们想避免在社交媒体上犯下的过去错误,正如我在开场白中所指出的。
ChatGPT和所有的AI都会出错,它可以成为令人信服的骗子,人们称之为幻觉。这可能是司法委员会听证会开场时无害的问题,在这种情况下,我的声音被模仿,或不存在的研究论文被引用。但是,ChatGPT和Bard愿意回答有关生死大事的问题,例如药物相互作用,这种错误可能造成深远的损害。
我对如何获得关于这些模型的准确性和可信度的可靠信息,以及如何创建奖励更高准确性的竞争和消费者披露感兴趣。美国国家标准与技术研究院实际上已经有了AI准确性测试——面部识别供应商测试。它没有解决面部识别的所有问题,但评分卡确实提供了关于这些系统的功能和缺陷的有用信息。因此,有关确保准确性和完整性的模型的工作(是必要的)。
我的问题,Altman先生,我们应该考虑独立测试实验室为评分卡和类似营养标签或等价的营养标签的包装表明人们是否可以信任该内容,它的成分是什么,输入的垃圾可能是什么,因为它可能导致输出的垃圾?
Sam:
是的,我认为这是一个很好的主意。我认为公司应该在发布模型之前公布自己的测试结果,包括模型的弱点和优势。此外,独立审计对此也非常重要。这些模型随着时间的推移变得更加准确。正如我们声称的那样,这项技术还处于早期阶段,它确实仍然会出错。
我们发现用户相当有思考,了解模型可能出现的错误,需要对模型的说法负责,他们去查证它。我担心随着模型变得越来越好,用户可以逐渐减少自己对它的判断思维过程。但是,我认为在这种对话中,用户的能力往往比我们给予他们的信用更强。
大量披露对模型的不准确性很重要,如果你使用过ChatGPT,你会发现这一点。我期待一个公司公布有关模型行为和不准确之处的信息的世界,独立机构或公司也提供这些信息。我认为这是一个很好的主意。
主席:
在我的开场白中,我暗示了就业问题和对就业的经济影响。
事实上,我要引用一下,你说过:“超级人工智能的发展可能是人类持续存在的最大威胁。”你可能考虑到了对就业的影响,这实际上是我长期以来最大的噩梦。
让我问你,你最大的噩梦是什么,你是否也有这种担忧?
Sam:
与所有的技术革命一样,我预期会对就业产生重大影响,但具体影响如何很难预测。如果我们回顾前一段技术革命的另一面,谈论存在于另一面上的工作,你可以去读当时人们的书,这很难。我相信在这之后会有更多的工作,今天的工作会变得更好。
首先,我认为重要的是要理解和思考GPT-4是一个工具,而不是一种生物,这很容易混淆。这是人们有很大控制权的工具,以及如何使用它。其次,GPT-4和其他类似的系统擅长完成任务,而不是工作。因此,你已经看到有人使用GPT-4以更高效的方式完成工作,这是通过帮助他们完成任务实现的。
GPT-4将完全自动化一些工作,它将创建我们认为更好的新工作。这是一再发生的事情。
我对技术历史的理解就是一场长期的技术革命,而不是许多不同的技术革命聚集在一起。这一直在继续发生。随着我们的生活质量提高,和我们创造的机器和工具可以帮助我们过上更美好的生活,我们所做的工作的标准也在提高;我们的人类能力和我们花时间追求的事情,也在追求更雄心勃勃和更满意的项目。
所以,这将对就业产生影响,我们试图非常清楚地表达这一点。我认为这需要行业和政府的合作,但主要是政府采取行动来弄清楚我们如何减轻这种影响。但是,我对未来工作的前景非常乐观。谢谢。
Marcus教授:刚才说到了就业,但是我觉得就业可能不是Sam最担心的事儿,他最担心的事情还没说。
主席:
谢谢。Altman先生,您是否想对此作出回应?
Sam:
是的,我们尽量明确表示这里的风险大小。
我认为工作和就业以及我们将如何利用我们的时间真的很重要。
我同意当我们拥有非常强大的系统时,格局将发生变化。我认为我只是更乐观地认为我们极其有创造力,我们会找到利用更好的工具做新事情的方法。这种情况会持续发生。
我最担心的是我们会造成重大伤害,我们这个领域,这项技术,这个行业会对世界造成重大伤害。
我认为这可能以很多不同的方式发生。这就是我们创立公司的原因。这是我今天来这里的主要原因以及我们过去来这里的原因。我们能花些时间与你在一起。
我认为如果这项技术出错,它会出错得相当厉害。我们想明确表达这一点。我们想与政府合作防止这种情况发生。但我们尽量实事求是地看待负面情景以及我们必须做的工作来缓解这种情况。
谢谢。
主席:
我们的希望是行业余下部分会遵循你和IBM蒙哥马利女士今天来的榜样。像你私下做的那样与我们见面并帮助指导我们将要做的事情。
这样我们可以瞄准危害并避免意外后果的好处。谢谢。
Hawley议员。
Hawley:
再次感谢主席。感谢证人出席。
Altman先生,我认为你在圣路易斯长大,如果我没记错的话。很高兴看到这里有一个伟大的密苏里人,谢谢。
我特别要在记录中强调这一点。密苏里是一个伟大的地方。这是今天听证会的重点。也许我们这就可以停了,主席先生。
让我问一下你,Altman先生,我会从你开始,我只是想说,我在这里的问题是为了更好地理解,并请你们所有人帮助我们更好地理解这种生成式AI,特别是大型语言模型的能力以及其意义。我正在看一篇名为《基于媒体食谱训练的大型语言模型可以预测公众舆论》的论文,这是大约一个月前发布的,作者是Chew Andreas、Anselaberry和Roy,
他们的结论是,大型语言模型确实可以预测公众舆论,他们对此进行了建模和解释。他们最终得出结论,AI系统可以通过适应预训练的语言模型对亚群体特定的媒体饮食进行预测,这意味着您可以向模型输入特定的媒体信息,它可以以非常准确的方式预测人们的观点。
我想将其放在选举的背景下考虑。
如果这些大型语言模型甚至现在就可以基于我们输入的信息相当准确地预测公众舆论,在你甚至还没有向公众提问这些问题,会发生什么情况?当公司实体、政府实体、竞选活动或外国行动者利用这些调查信息、对公众舆论的预测进行精确的调整策略,以引发特定的行为反应时,我是指我们在大约3年前的这个委员会上的证词,关于谷歌搜索对选民在选举中的影响,尤其是对未决选民在选举最后几天可能从谷歌搜索获取信息的影响,以及谷歌搜索的排名和返回的文章对未决选民产生的巨大影响,这当然是数量级更大、意义更大、指向性更强的情况。
Altman先生,也许你可以帮助我理解一下这其中的一些意义,我们是否应该担心能够预测调查意见的大型语言模型,然后帮助组织和实体调整策略以引发选民的行为反应对于我们的选举的影响,我们应该担心这个问题吗?
Sam:
谢谢霍利议员的问题,这是我最关注的一个领域。
这种模型的更普遍的能力,即操纵、说服、提供一对一的交互式虚假信息,我认为这是你所说的更广泛的问题。但考虑到明年我们将面临选举,而这些模型正在变得越来越好,我认为这还是一个令人担忧的重要领域。
我认为有很多公司可以自愿采用的政策,我很愿意讨论一下我们在这方面的做法。我认为在这个问题上进行一些监管是相当明智的。
有人之前提到了一个我们非常赞同的事情,人们需要知道他们是否在与AI交谈,他们正在查看的内容是否可能是由AI生成的,我认为这是一个很好的做法,可以明确这一点。
我认为我们还需要关于公司提供模型时所期望的披露内容的规则和指南,这些模型可能具有您所谈到的这种能力。所以我对此感到紧张,但我认为人们能够相当快速地适应。
当很久以前出现Photoshop时,人们在一段时间内确实被Photoshop的图像所愚弄,然后很快就发展出了认识到图像可能是经过Photoshop处理的意识,这将是一个加强版的情况,而且互动性能够非常强,能够真正地模拟和预测人类,就像你所提到的那样。
我认为这将需要企业的正确做法,监管和公众教育的结合。
Hawley:
关于训练使用个人数据的人工智能系统,您担心什么............这种数据,例如,社交媒体公司的主要平台,谷歌、Meta等公司定期收集的所有数据?
我们委员会已经讨论了这一点一年了。但是,公司拥有每个人海量的个人数据。
一个使用那些个人数据训练的人工智能系统,它比我们自己更了解我们每个人,也知道关于人类行为、人类语言交互的数十亿数据点。
难道我们不会认为一个人工智能系统极其擅长确定什么会吸引人类的注意力,什么会保持个人的注意力吗?
目前,所有这些平台上都在进行注意力之争,点击之争,所以他们可以赚钱。
我想象这些人工智能模型会加强这场注意力之争,我们现在有的技术将允许前所未有的个人目标定位。
人工智能将准确地知道Sam Altman会感兴趣的内容,准确地知道Josh Holly会感兴趣的内容,将能够引起我们的注意力,然后引发我们的反应,这是我们以前无法想象的。
我们应该担心这对其商业应用、货币应用以及Altman先生可能产生的操纵有什么影响吗?
Sam:
是的,我们应该担心这一点。
清楚地说,OpenAI不会。我们不是,你知道,我们的商业模式不是............所以我们没有试图建立用户配置文件,我们没有试图让他们使用更多。实际上,如果他们使用得更少,我们会很高兴,因为我们没有足够的GPU。
但我认为其他公司已经开始并且未来肯定会使用人工智能模型来创建定制广告,根据用户喜欢预测。我认为这在许多方面已经在发生。
Duben:
这是历史性的听证会,我无法回忆起我们曾邀请代表大公司或私营部门实体的人来到我们面前,并恳请我们对他们进行监管。事实上,参议院的许多人将使经济繁荣的职业生涯建立在相反的基础上,如果政府远离,经济将蓬勃发展。
而我今天听到的消息却是“在我再次创新之前阻止我”。我只是好奇我们如何实现这一点。
如我在开场白中提到的,我们在230条(美国于1996年颁布的法律,第 230 条保护提供商和个人免于因他人在线发布的非法内容而承担重大法律责任。)中学到了一些东西。我们决定通过230条基本上会免除这个行业一段时间的责任,让它成长。
Altman先生,今年早些时候在播客中,您同意主持人的说法,认为230条不适用于生成性人工智能,开发者像OpenAI不应该有权对其产品造成的损害免于全部责任。那么,我们从230条中学到了什么适用于您在人工智能方面的情况?
Sam:
谢谢参议员的提问。我还不确定这里的正确答案是什么。我很乐意与您合作来解决这个问题。我确实认为对一项全新的技术,我们需要一个新的框架。
像我们这样的公司肯定要为我们发布在世界上的工具承担很大责任,但工具用户也要如此,以及那些将建立在他们和最终消费者之间的企业。我们如何建立一项责任框架至关重要。我们很乐意一起工作。
Duben:
我要强调的一点是这样的,当涉及到在线平台时,政府的倾向是远离。这是一个新的行业,不要过度监管,事实上给予他们一些呼吸空间,看看会发生什么。我不确定我对在线平台的结果感到满意,以及它们造成的危害和我们在这个委员会中看到的问题,如儿童剥削、网络欺凌、在线药品销售等。我不想再重复相同的错误。
而我听到的来自私营部门的相反建议是,进入这个领域,建立一些责任标准和精确的监管。
对IBM这样的大公司来说,向政府委员会表示,“请对我们进行监管”,这似乎是前所未有的。
您能解释一下过去和现在的思维差异吗?(先问了IBM的同学)
Sam:
我想简短地回答参议员的问题。我支持Marcus先生的说法,认为美国应该在这里发挥领导作用并率先采取行动。但要起作用,我们确实需要一些全球性的东西,正如您提到的,这可以在任何地方发生。
这样听起来天真地呼吁是有先例的,我们之前通过《信息技术协定》做到过,我们讨论过为其他技术做同样的事情。鉴于制造这些模型所需的芯片供应链、有限数量的竞争GPU和美国对这些公司的影响力,我认为有方法可以使美国设定一些国际标准,其他国家需要与之合作和参与,这些标准实际上是可行的。尽管表面上看起来像一个不切实际的想法,我认为这将有益于世界。
Duben:
谢谢主席。
主席:
谢谢德比参议员。事实上,我认为我们将听到更多关于欧洲正在做什么的消息。欧洲议会已经在采取人工智能法案行动。在社交媒体方面,欧洲领先于我们。我认为,您的观点非常中肯。
让我转向Blackburn参议员。
Blackburn:
谢谢主席,谢谢各位今天来到这里。
我在chatGPT帐户中输入了“国会应该监管人工智能chatGPT吗?”,它给我列出了4个正面因素,4个消极因素,并说最后的决定取决于国会,值得慎重考虑。
所以,在这方面,它是一个非常平衡的回答。
我最近访问了我代表田纳西州的纳什维尔技术理事会。当然,那里有来自医疗保健、金融服务、物流和教育机构的人。他们担心人工智能正在发生的事情,以及它对他们公司的利用。Montgomery女士,与您类似,他们有医疗保健人员正在研究疾病分析,他们正在研究预测诊断,这如何改善患者的结果。
物流行业正在研究如何节省时间和金钱,提高效率。
金融服务业表示,这如何与量子计算机、区块链搭配使用,我们如何使用这些技术。
但主席先生,我们与他们讨论时,一直出现的一个问题是,正如Marcus教授所说,欧盟和其他实体在这方面领先于我们,但我们从未建立联邦层面的数据隐私或数据安全性的先例。这是我们需要解决的问题。
这将要求商业委员会和司法委员会决定如何向前发展,以便人们拥有自己的虚拟信息。
Altman先生,我很高兴上周看到OpenAI模型不会使用消费者数据进行训练。我认为这一点很重要。如果我们进行第二轮辩论,我有一系列关于数据安全和隐私的问题要问您。
我认为,让人们控制自己在这些环境中的虚拟信息和信息至关重要。
我想问您关于音乐和内容创作的问题,因为我们有许多作曲家和艺术家,我认为我们拥有全球最优秀的创意团队。在田纳西州,他们应该有权决定是否使用其受版权保护的歌曲和图像来训练这些模型。
我担心OpenAI的Jukebox,它提供一些加思·布鲁克斯风格的重新演绎,这表明OpenAI使用加思·布鲁克斯的歌曲进行了训练。
这个周末,我说“给我写一首听起来像加思·布鲁克斯的歌”,它给了我一首不同版本的《Simple Man》。有趣的是,它会这样做。但是,您使用了这些受版权保护的歌曲、MIDI文件和声音技术进行训练。
那么,在您做这些事情的过程中,谁拥有由人工智能生成的材料的权利?使用您的技术,我能否重做一首歌,插入我喜欢的艺术家的内容,然后拥有那首歌的创作权?
Sam:
谢谢参议员。这是一个我们非常感兴趣的领域。首先,我要说的是,我们认为创作者应该对他们的创作如何被使用有控制权。其次,我认为,随着这项新技术的出现,我们需要找到新的方法,创作者可以成功,活跃,我乐观地认为这会带来新的机遇。
Blackburn:
那么,让我问你,你如何补偿艺术家?
Sam:
这正是我要说的。
Blackburn:
好的。
Sam:
我们现在正与艺术家合作,视觉艺术家,音乐家,以确定人们需要什么。不幸的是,有很多不同的意见。到时候,我们会......
Blackburn:
让我问你,你是否会模仿Sound Exchange,它在电台领域发挥了作用。
Sam:
我不太熟悉Sound Exchange,我很抱歉。
Blackburn:
好的,你后面有团队 待会回到我这里(说这个),这是一个第三方实体。
Sam:
好的。
Blackburn:
让我们讨论一下,让我转移话题。你可以承诺,就像您对消费者数据所做的那样,不要使用艺术家和作曲家的受版权保护作品或在首先获得他们同意之前使用他们的声音和肖像来训练聊天机器人、OpenAI的Jukebox或其他人工智能模型吗?
Sam:
首先,Jukebox不是我们提供的产品。那是一项研究发布,但它不是像聊天机器人或Dolly一样。
Blackburn:
是的,但我们经历过Nasper。
Sam:
是的,
Blackburn:
在数字分发时代,那真的让许多艺术家损失了很多金钱。
Sam:
哦,我理解,当然。我不知道Jukebox的具体数字,作为一项研究发布,我可以跟进您的办公室,但Jukebox并不是得到很多关注或使用的东西。它是为了显示某些可能性而发布的。
Blackburn:
好的。
达宾参议员刚才说过,您知道,我认为这是一个公平的警告,如果我们不从一开始就参与进来,而您已经走了很长一段路,但如果我们不采取行动,这将超出您的控制范围。
那么,您是否正在与版权办公室合作?您是否正在考虑在生成人工智能中保护内容生成者和创作者的权益?
Sam:
是的,我们绝对正在与之配合。再次重申我之前的观点,我们认为内容创作者和内容所有者需要从这项技术中获益。确切的经济模式是什么,我们还在与艺术家和内容所有者讨论,以确定他们需要什么。
我认为有很多种方式可以实现这一点,但不管法律是什么,正确的做法是确保人们从这项新技术中获得重大的益处。我们相信它真的会带来这些好处,但内容所有者、形象和个人完全应该有权控制它们的使用方式,并从中获益。
Blackburn:
好的,关于隐私问题,你们计划如何考虑通过你们的AI应用收集声音和其他用户特定数据的问题,比如那些受版权保护的东西。如果我可以输入“写一首听起来像加思·布鲁克斯的歌”,然后它采用了现有歌曲的部分,那么艺术家就必须得到相应的补偿,因为如果是在广播中播放,那么就会有相应的补偿;如果是在流媒体平台上播放,也会有相应的补偿。
所以,如果你们要这样做,你们的政策是什么,以确保你们考虑到了这一点,保护个人的隐私权和他们对数据和创作作品的安全性。
Sam:
关于这个问题,我有几点想法。首先,我们认为人们应该能够说:“我不想让我的个人数据用于训练。”
BlackBurn:
我认为这是正确的。这需要制定一个全国性的隐私法律,我们这里的一些人正在努力达成一项我们可以使用的协议。
Sam:
是的,我认为强有力的隐私法律是对的。
Blackburn:
我的时间到了,谢谢。
Klobuchar:
谢谢布莱克本议员的回应。谢谢大家,感谢主席先生。谢谢你们的到来。谢谢大家,布莱克本议员。谢谢大家,克洛沃议员。非常感谢,主席先生。布莱克本议员,我非常喜欢纳什维尔,喜欢田纳西州,喜欢你们的音乐。但是我要说,我使用过ChatGPT,并询问过有史以来最伟大的创作歌手是谁,其中前三名中有两位来自明尼苏达州。所以那会是普林斯和鲍勃·迪伦。
好吧,好的,让我们继续。(其他人:AI不会改变这一点,笑),你在这里看到了。
好,说正经的。我和我的团队,在我作为规则委员会主席的角色中,在领导许多选举法案方面,我们刚刚提出了一项由纽约的伊芙·克拉克代表在众议院提出的法案,我、布克和贝内特也参与了其中,关于政治广告的事情。但这只是冰山一角,你们了解这一点,你们和霍利参议员等人讨论过这个问题,关于图像的问题,以及我对于第230条的看法是,我们不能让人们编造虚假信息,然后毫无后果地消失。
但我要重点关注我在规则委员会上的一项工作,那就是选举虚假信息。我刚刚让GPT在推特上发布了一条关于明尼苏达州布鲁明顿市的投票地点的推文,说那个投票地点排队人数众多,那是阿顿信义教堂,或者我们现在应该去哪里。尽管现在没有选举,但是草案的答复是完全虚假的“去123号埃尔姆街吧”。
所以你可以想象我在这方面的担忧,选举即将到来,初选也即将到来,我们将会出现各种各样的虚假信息,我只是想知道你们计划采取什么措施。我知道我们不得不很快采取一些行动,不仅仅针对候选人的形象,还有关于实际选举地点和选举规则的虚假信息。
Sam:
谢谢参议员。
我们在选举方面的影响非常关注。我认为这是一个希望整个行业和政府能够快速合作的领域。有很多方法可以解决这个问题,我将谈谈我们正在做的一些事情。但在此之前,我认为用社交媒体的框架来思考是很诱人的,但这不是社交媒体,这是不同的。所以我们需要的应对措施也是不同的。你知道这是一个用户用来帮助生成比以前更高效的内容的工具,他们可以改变它,他们可以测试它的准确性,如果他们不喜欢,他们可以得到另一个版本,但它仍然会通过社交媒体或其他方式传播。或者像ChatGPT一样,是一个单人体验,你只是在使用它,所以我认为在思考该做什么时,这一点很重要。
有很多事情我们可以做,也正在做,我们有一些拒绝生成的原则,我们也有一些重要的政策,而且我们还有重要的监测机制,可以检测到某人在生成大量这样的推文,即使生成一个推文是可以的。
Klobuchar:
当然,还会有其他平台,如果他们都散布假的选举信息,我就觉得以前与俄罗斯干预等所发生的事情只是冰山一角,其中一些假应用程序。这是第一点。
第二点是对知识产权的影响。Blackburn参议员在歌曲权利方面提出了一些意见,我对此也深表关切。但新闻内容方面,Kennedy参议员和我提出了一项真的相当简单的法案,该法案简单地允许新闻组织豁免,能够与Google和Facebook等进行磋商。微软支持该法案,但基本上与他们磋商以获得更好的价格,能够不具有一定的杠杆作用。其他国家正在这样做,像澳大利亚等。
所以我的问题是,当我们已经有西北大学的一项研究预测,在未来25年内,美国报纸的三分之一左右将消失,除非开始补偿从电影到书籍,当然也包括新闻内容,否则我们将失去任何现实的内容生产者。所以我希望听到您对此的看法。当然,版权有豁免的规定第230条,但我认为要求小报社一直起诉实在不是答案,他们无法跟上。
Sam:
我希望像我们正在创建的这样的工具可以帮助新闻组织做得更好。我认为拥有充满活力的全国媒体至关重要。让我们称之为互联网的第一轮(信息源)并不夸张。
Klobuchar:
我们这里讨论的就是当地报道,你的高中,市政厅的丑闻,那种事情。当然他们就是实际上状况最糟的小电台和广播。但您是否理解如果他们得不到补偿,这可能会在当地新闻内容方面成指数级恶化,因为他们需要的就是为他们的内容获得补偿,而不是被窃取。
Sam:
是的,再一次,我们的模型,您知道,GPT 4的当前版本在2021年结束了训练,这不是找到最新新闻的好方法,我不认为这是一个能够很好链接出去的服务,尽管可能通过我们的插件是可能的。
如果有我们能做的事情来帮助当地新闻,我们当然愿意。再提一次,我认为这至关重要。
Graham:
Altman先生,谢谢您的到来。您的公司没有声称第230条适用于您创建的工具。
Sam:
是的,我们声称我的意思是我们需要共同努力找到一个全新的方法。我不认为第230条甚至是正确的框架。
Graham:
那么,根据现有的法律,如果我受到您创建的此工具的伤害,我可以起诉您吗?
Sam:
这超出了我的法律知识范围。
Graham:
您曾经被起诉过吗?
Sam:
不是因为这个,不。
Graham:
你没有被起诉过, 那您公司整体上曾被起诉过吗?
Sam:
是的,我们以前被起诉过。
Graham:
好的,为什么?
Sam:
我们以前确实受到过起诉,像任何公司一样,多半是一些毫无根据的事情。
Graham:
但是我的同事提到的那些人工智能的例子,它们可能真的会毁掉我们的生活,我们是否可以找到创造这个工具的公司,起诉他们?
Sam:
是的,我认为公司应该负起明确的责任。
Graham:
但你没有声称任何法律保护,比如230条款适用于你的行业,对吗?
Sam:
不,我不这么认为。我们没有说任何事情。
Graham:
对于消费者来说,有三种经过时间考验的保护消费者的方式,对任何产品都适用,即法定计划(这里不存在),法律制度(可能适用,但不适用于社交媒体),以及机构。回到Holly参议员的问题,核弹笼罩在人类头顶,但核电可能是应对气候变化的解决方案之一。所以我要确保的就是你不能随随便便建一个核电站,“嘿,鲍勃,你今天想做什么?我们去建一个核电站吧。”你有一个核监管委员会来监管如何建立电站和许可。
Altman先生,您同意这些您创建的工具应该获得许可证吗?
Sam:
是的,我们一直在呼吁这一点,获得许可证是最简单的方式。
Graham:
您同意我认为最简单和最有效的方法是设立一个机构来监督您的工作,这个机构应该比国会更灵活和更精明,这应该很容易建立,对吗?
Sam:
是的,我们对此非常支持。
Graham:
对我来说非常启发。Altman先生,您为什么如此愿意设立一个机构?
Sam:
参议员,我们已经明确表达了我们认为的优点。我认为从用户的角度可以看出他们对此有多么享受和获得了多大价值。但我们也明确了缺点,这就是为什么我们认为我们需要一个机构。
Graham:
这是生活中使用的一项重要工具。
Sam:
这是一种重大的新技术。
Graham:
如果我们建立了这项重要的新技术。如果你做了一条梯子,梯子不起作用,你可以找到制作梯子的人,但总得有一些制作梯子的标准。
Sam:
所以这就是为什么我们同意你的观点的原因。
Graham:
没错。我认为您正朝着正确的方向前进。所以,这里是我作为委员会成员2%的价值,我们需要授权一个机构对AI公司发出许可证并可以收回。如果您实际上可以被停业,这还是对成为做正确事情的激励吗?很明显,这应该是机构可以做的部分内容。您还同意中国正在进行人工智能研究,对吗?
Sam:
是的。
Graham:
这个世界性组织目前还不存在,也许会出现。但如果您不解决与中国相关的部分,您永远不会完全解决这个问题,您同意吗?
Sam:
嗯,这就是为什么我认为不一定需要一个世界性组织,但必须有某种标准,这里有很多选择,必须有某种控制标准产生全球影响。
Graham:
因为其他人确实在快速进行军事应用。人工智能如何改变战争?您有1分钟。
Sam:
好吧,这是一个1分钟内难以回答的问题。这远超出我的专业知识范围。
Graham:
但我举个例子,无人机可以让您编程,将其连接到无人机的核心部件,它可以飞出去,飞过这个目标,将导弹投射在路上行驶的汽车上,有人在观察这个过程。人工智能是否可以创造一种情况,无人机自己可以选择目标?
Sam:
我认为我们不应该允许这种情况发生。
Graham:
好吧,它能做到吗?
Sam:
当然,这是可以做到的。
Graham:
谢谢。
Coons:
谢谢。谢谢格雷厄姆参议员。格雷厄姆参议员,谢谢马克•朗,克里斯 •墨菲感谢您召开这次听证会,密切配合来推出这一令人信服的证人小组,对这一革命性技术开始一系列听证会。
我们认识到生成AI技术的巨大潜力和较大风险。我们知道这些模型可以使我们更有效率,帮助我们学习新技能,开创全新的创造力领域。但我们也知道,生成AI可以权威地提供极不正确的信息,它可以产生幻觉,这通常被描述为模拟亲人,它可以鼓励自我破坏行为,它可以影响公众意见和选举结果。
到目前为止,国会在负责任地颁布对社交媒体公司有意义的监管方面失败得很惨。由此产生的严重伤害我们并不完全理解。克洛维沙参议员在质询中提到的两党法案将打开社交媒体平台的基础算法,我们甚至难以做到这一点,去理解底层技术,然后转向负责任的监管。
我们不能像对社交媒体那样迟来负责任监管生成AI,因为积极和消极后果将超过社交媒体数量级。
所以,让我提出几个问题,旨在了解我们如何评估风险,国际监管的作用以及这如何影响人工智能。
Altman先生,我很欣赏您在证词中提出OpenAI如何通过迭代部署过程评估模型的安全性。然而,这一过程中隐含的基本问题是您如何决定模型是否足够安全以部署,是否足够安全以建立并随后释放到社会上。
我理解防止生成AI模型提供有害内容的一种方式是让人类识别该内容,然后训练算法避免它。另一种方法称为宪法AI,它为模型提供一组价值观或原则来指导其决策。
将这些规则赋予模型而不是试图要求或迫使模型在所有可能的有害内容上进行训练,这会更有效吗?
Sam:
谢谢参议员,这是一个很好的问题。我喜欢用谈论为什么我们要部署来表达它。
显然,原因是因为它有许多好处,人们正在使用它进行各种美好的事情并获得很大价值,这让我们很高兴。但是,我们这样做的一个很大原因是我们相信迭代部署和给我们的机构以及你们时间来理解这项技术,找到其局限性和好处,我们需要围绕它的法规,使其安全所需的内容,这真的很重要。
在暗地里构建一个超强大的人工智能系统,然后一下子把它投放到世界上,我认为这不会奏效。我们战略的一大部分是,当这些系统仍然相对较弱和深深不完美时,找到方法让人们对它们有经验,与现实接触,并且找出我们需要做什么才能使其变得更安全和更好。
这是我在新技术和产品的历史上看到的唯一方法,以达到一个非常好的结果。所以,与世界的这种互动是非常重要的。
当然,在我们推出某样东西之前,它需要达到1个安全标准,再次,我们在GPT-4训练完成后花了超过6个月的时间对各种不同的事情进行检查,并决定在推出之前要达到的标准。试图找到我们知道的危害并如何解决这些危害。令我们欣慰的是,即使我们最大的批评者也检查了GPT-4并说,OpenAI在这方面取得了巨大进步。
Coons:
能否简要谈谈宪法模型是否值得?
Sam
我正要谈这个问题。
Coons:
抱歉。
Sam:
没关系。是的,我认为预先给模型赋予价值观是非常重要的一步。RLHF是做同样事情的另一种方法。不管是通过合成数据还是人工生成的数据,您都在说这些是价值观,这就是我希望您反映的,或者这就是社会将允许的一切范围。然后在其中,您作为用户选择这里的价值系统或那里的价值系统。我们认为这非常重要。有多种技术方法,但我们需要为政策制定者和世界各地提供工具,说明这些价值观并实施它们。
Kennedy:
谢谢你们都来了。允许我与你们分享3个假设,希望你们暂时假定这些假设是真实的。
假设1:国会的许多成员不理解人工智能。
假设2:缺乏理解可能不会阻止国会全情投入,试图以可能损害这项技术的方式监管这项技术。
假设3:我希望你们假定,人工智能界可能存在一些疯狂的人,无意中或故意使用人工智能来杀死我们所有人,并在我们死亡的过程中伤害我们。
假设所有这些都是真实的,请用简明的英语告诉我2-3项改革或监管措施(如果有的话),如果您是国王或女王,您会实施哪些措施。
我会听取Altman先生的意见。Altman先生,这是您的机会。
Sam:
谢谢参议员。
首先,我会成立一个新的机构,对超过一定规模的功能进行许可,并可以收回许可证,确保遵守安全标准。
其次,我会制定一套安全标准,重点关注您在第三个假设中提出的危险能力评估。我们以前用过的一个例子是检查看模型是否可以自我复制和自行渗透到外部。我们可以向您的办公室提供其他我们认为重要的长列表。但是,模型部署到世界之前必须通过的具体测试。
第三,我会要求独立审计,而不仅仅是公司或机构,还有能够说模型是否符合这些已声明的安全阈值和这些问题的百分比的专家的表现。X或Y。
Kennedy:
您能否将这些信息发送给我?
Sam:
我们会的。
Kennedy:
如果我们颁布这些规则来管理这些规则,您是否愿意参与?
Sam:
我喜欢我现在的工作。
Kennedy:
很好,是否还有人愿意?
Sam:
我们很乐意向您推荐那些人。
Kennedy:
好的。
你挣很多钱,是吗?
Sam:
我没有。我的薪资够我支付医疗保险。我在OpenAI没有股权。
Kennedy:
真的吗?你需要一名律师。
Sam:
我需要什么?
Kennedy:
你需要一名律师或代理人。
Sam:
我正在做这件事仅仅是因为我喜欢它。
Kennedy:
谢谢主席。
主席:
谢谢肯尼迪参议员。下一位参议员赫罗诺。
Hrono:
谢谢主席。
Hirono:
很明显,人工智能确实改变了游戏规则,我们需要正确规定这种工具。
因为我的员工可能使用GPT 4,也可能使用其他实体,要求创作我最喜欢的乐队BTS最喜欢的歌曲,一首他们会唱的歌或其他人的歌曲,但两位艺术家都没有参与创作,听起来像一首真正的歌曲,所以AI可以做很多事。
我们也问AI是否可以创作一段演讲,谈论最高法院的判决和Dobbs案及其造成的混乱,使用我的声音,我那种声音,创作一篇非常棒的演讲稿。
这几乎让我想,我需要我的员工做什么。
所以......别担心(回头看工作人员)
Sam:
别担心您后面紧张的笑声。
Hirono:
他们的工作很安全,但可以做的事情太多了。
您提到的让我感兴趣的一件事是您说GPT 4可以拒绝有害的请求,所以您一定在思考,如果我可以这么说的话,您的系统如何拒绝有害的请求。您认为什么是有害的请求?您可以简短地说一下,好吗?
Sam:
我会举几个例子,一个是暴力内容,另一个是鼓励自我伤害的内容,还有成人内容。我们不认为成人内容本质上有害,但有的内容我们无法足够可靠地区分,所以我们拒绝全部。
Hirono:
所以这些是一些更加明显的有害信息种类。但是在选举背景下,例如,我看到一张前总统特朗普被我们的APD逮捕的照片,这走得很远,我不知道这算不算有害内容。我看到过我们任何一个人都有各种各样的声明可以被放出来,可能不会达到您说的有害内容的程度,但事实如此。
所以,您两位中有两位说我们应该有许可证计划。我现在无法想象我们能够创造什么样的许可证计划,来基本上规范这个改变游戏规则的工具的广阔性。
那么你们是否在考虑类似于联邦贸易委员会(FTC)或联邦通信委员会(FCC)这样的制度,你们两位对于潜在的许可制度设想有何看法,以提供我们所需要的保障,以保护我们的国家免受有害内容的侵害?
Sam:
谈到您说的第一部分,除了“这些内容是否应该生成”之外,我认为其他重要的事情也很重要。
您提到的那张图片是生成的。我认为一个很好的政策是说生成的图像需要在所有上下文中明确说明它们是生成的, 然后我们还会有那张图片,但至少需要人们说这是一张生成的图片。
Hirono:
好吧,您不需要整个许可证计划就能做到这一点。
Sam:
我认为许可证计划的意义不在于针对这些模型今天能够做的事情,您不需要新设立的许可机构来做这件事。但随着我们前进,您知道这可能需要很长时间,我不确定,随着我们向人工通用智能前进,以及它将产生的影响, 还有这项技术的力量,我认为我们需要像对待其他非常强大的技术一样严肃对待它,这是我个人认为我们需要这样的计划的原因。
Hirono:
我同意,这很有意义。
Padilla:
我一直在人工智能使用政府委员会和国家安全委员会之间来回工作,目前后者正在举行人工智能在政府中的使用听证会。所以今天是人工智能日,或者至少看起来像是。
现在,对于在家观看的人来说,如果您直到最近才了解生成AI工具的出现,这一领域的发展可能会突然感觉像发生了。但事实是,主席先生,事实并非如此。人工智能并不新鲜,不管是对政府、企业、公众还是一般公众来说。事实上,公众经常使用人工智能。仅举一个例子,任何拥有智能手机的人,您的设备上的许多功能都利用人工智能,包括发短信时的建议回复,甚至电子邮件中的自动更正功能,包括但不限于电子邮件和文本应用中的拼写。
坦率地说,我很兴奋地探讨如何促进有利于社会的积极人工智能创新,同时解决目前工具开发和使用中已知的一些危害和偏见。
随着语言模型变得越来越普遍,我想确保专注于确保不同人口统计群体获得公平的待遇。
我理解,在评估和减轻公平性危害方面进行的大多数研究都集中在英语语言上,而非英语语言获得的关注和投资相对较少。我们以前见过这个问题。我会告诉您为什么提出这个问题。
例如,社交媒体公司没有充分投资于他们的非英语内容审核工具和资源,无论是英语空间用户还是非英语空间用户。我提出这个问题不仅出于对非美国空间用户的关注,也出于如此多的美国用户在交流中更喜欢使用英语以外的语言。所以,我深切担心人工智能工具和应用程序会重蹈社交媒体在多语言方面的失败。
问题:Altman先生和Montgomery女士,OpenAI和IBM如何确保他们的大语言模型具有语言和文化包容性?
Sam:
我们认为这真的很重要。一个例子是,我们与冰岛政府合作,冰岛语言的使用者人数少于许多在互联网上代表性很高的语言,以确保他们的语言被纳入我们的模型。我们进行了许多类似的讨论,我期待与资源较少的语言建立许多类似的合作伙伴关系,以将它们纳入我们的模型。
GPT 4与我们以前的模型不同,以前的模型在英语很好但在其他语言不太好,现在在大量语言中表现得非常好。您可以相当远的使用排名靠后的语言,依据讲者人数,仍然能获得很好的性能。但对于这些非常小的语言,我们对定制合作伙伴关系感到兴奋,以将该语言纳入我们的模型运行。
您提出的关于价值观和确保文化被纳入的问题部分,我们同样专注于此,我们很高兴与拥有特定数据集的人合作,努力收集来自世界各地的代表性价值观,为系统可以做什么画出宽广的界限。
Padilla:
我也理解您关于这些系统的好处的说法,希望确保尽可能多的人群获得这些好处。我认为,这些系统将对许多人产生积极影响,特别是历史上和技术中的欠代表群体,世界各地技术资源较少的人。这项技术似乎可以很大地提高这些人的生活水平。虽然我的问题具体涉及语言包容性,但很高兴达成更广泛的多样性和包容性承诺的共识。
我会再给出几个原因来说明为什么这一点如此重要。最大的参与者在这个领域可以负担大量的数据、计算能力以及开发复杂人工智能系统所需的财务资源。但在这个领域,从工作力量的角度来看,我们没有看到与美国人口统计相称的种族和性别多样性。如果我们没有深思熟虑,我们会面临继续加深社会中已有的偏见和不平等的风险。在这方面还有很多工作要做。
Ossoff:
一如既往,明智和英俊。感谢小组成员加入我们。感谢小组委员会领导开放给所有委员会成员。如果我们要考虑监管框架,我们必须定义要监管的内容。所以,Altman先生,任何此类法律都必须包含一节来定义监管活动、技术、工具和产品的范围。能就此发表看法吗?
Sam:
是的,谢谢询问参议员。我认为这点非常重要。我认为这里有非常不同的层次,我认为任何新的方法或新法律都不应阻止发生在较小公司、开源模型和从事较小规模工作的研究人员的创新。
嗯,这是美国科技生态系统的美妙部分,我们不希望减缓其发展。在那里可能仍然需要一些规则,但我认为我们可以在需要进行非常严格许可的系统上划定一条线。
最简单的方法是,我不确定是否是最佳方法,但最简单的方法是根据所需计算量来划定。因此,我们可以定义一个计算量的阈值,它可能需要不断改变,可能会随着我们发现更高效的算法而增加或减少。这个阈值可以定义为超过某个计算量的系统位于许可制度的范畴内。我更喜欢的方法(虽然难以实现,但更准确)是定义一些能力的门槛,并表示能够执行X、Y和Z等操作的模型现在处于许可制度之下,但能力较弱的模型则可以根据不同框架继续使用。我们不希望阻止我们的开源社区、个人研究人员和新创企业的发展。
Ossoff:
请尽可能简洁地陈述您建议我们在这个定义目的上考虑哪些能力。
Sam:
我希望通过进一步与您的办公室沟通来提出一个更加深入的观点,
Ossoff:
这样比较稳妥。
Sam:
哦,或许提出一些建议。
Ossoff:
理解您只是回应问题,而不是制定法律。
Sam:
在此精神的基础上,我认为能够说服、操纵和影响人们的行为或信念的模型将是一个很好的门槛。我认为能够帮助创建新型生物制剂的模型也将是一个很好的门槛,诸如此类。
Ossoff:
接下来,我想谈谈技术的预测能力,我们将不得不考虑与此相关的许多非常复杂的宪法问题。在拥有庞大数据集的情况下,这种技术能以多大的准确性预测未来的人类行为,尤其是在个人层面上,是正确的。
Sam:
我认为我们无法确定这个问题的确切答案。
Ossoff:
但我们可以假设它至少会在某种程度上对个人产生一定的影响。那么,我们可能会遇到这样的情况,例如执法机构部署这种技术,寻求法官的同意来执行。警察可能会提出一份令状给法官,以获取授权。请告诉我您对这个问题的思考方式。
Sam:
是的,我认为非常重要的一点是我们继续认识到这些都是人类使用的工具,用于做出人类判断,我们不要剥夺人类判断的权力。例如,我不认为人们应该基于AI系统的输出进行起诉。
Ossoff:
我们目前还没有全国性的隐私法,而欧洲已经出台了一项法律,效果不一。您认为我们需要这样的法律吗?
Sam:
我认为这将是很好的。
Ossoff:
那么,您认为这样的法律应具备什么样的特点或目的,您认为最有意义?
Sam:
基于我的经验,再次强调这超出了我的专业领域,我认为有很多很多的隐私专家可以就法律的需求发表意见。
我仍然希望(至少)用户能够选择退出,不让类似我们公司或社交媒体公司这样的公司使用他们的数据,而且删除自己的数据应该很容易,这些都是我认为最重要的。从我作为AI公司负责人的角度来看,如果您不希望您的数据用于训练这些系统,您有权这样做。
Ossoff:
因此,让我们思考如何实际实现这一点。
我理解您的工具和类似的工具的输入之一将是从公共网络上“抓取”数据,这是一种低成本的收集信息的方式,而且我们的信息已经存在于公共网络上。那么,对访问、使用或分析此类数据的限制如何在实际中实施?
Sam:
我在谈论一些略有不同的东西,即用户自己生成的数据,他们提出的问题,他们输入的内容等等。我们以此进行训练,即使我们不训练于此,模型仍然可以链接到公共网络上的数据。所以我提到的并不是我所指的内容。我认为您知道有很多方式可以从公共网络上删除您的数据,但当然,具备网络浏览功能的模型将能够搜索网络并链接到其中。
Ossoff:
当您考虑实施安全或监管制度来限制此类软件并减少风险时,您认为联邦政府会制定法律,以禁止某些功能本身在潜在情况下执行代码?还是仅在实际执行时,执行某些功能呢?
Sam:
我认为两者都有。我相信以防御为主。我认为对部署模型的能力应该有限制,然后在实际执行时再对其进行限制。
Ossoff:
关于孩子们如何使用您的产品,您是如何考虑的呢?
Sam:
必须是青少年或者获得父母许可的13岁及以上用户才能使用产品。
但我们知道人们总是会绕过这些保护措施,所以我们尽量设计一个安全的产品。如果只有成年人使用,我们可以允许某些决策,但我们不会在产品中允许这些,因为我们知道孩子们会使用。对于教育领域这类广泛应用的系统,我们希望能意识到这一点。
Ossoff:
我认为Blumenthal参议员(主席)对这个问题进行了广泛调查,我们多次看到,这个领域的公司的收入依赖于使用量和屏幕时间的强度,它们为了最大程度地提高用户的参与度,包括孩子们的参与度,而设计这些系统,结果却产生了许多不良后果。
我谦虚地建议您尽早解决您产品对儿童的安全性问题。
否则,我认为Blumenthal参议员、Hawley参议员和其他小组委员会的成员可能会对侵害儿童的技术部署持非常严厉的态度。
Sam:
我们完全同意,我认为儿童的安全性非常重要。不过,时间有限,如果我可以回应一下的话,主席同意的话。
(请讲。)
首先,我认为我们试图设计的系统并不是为了最大化参与度。事实上,我们非常缺乏GPU,用户使用我们的产品越少越好。我们不是以广告为基础的模型,我们不是试图让用户越来越多地使用。我认为这与广告支持的社交媒体的模型不同。
其次,这些系统确实具备影响的能力,无论是明显的还是微妙的。我认为这对于儿童的安全性尤为重要,但它也会影响到我们所有人。我们将采取一些措施来确保这一点,不论是否有监管,但我认为监管方法将对此有所帮助,包括对这些系统的价值观进行限制,并要求这些系统对可能产生影响的问题进行回应。所以我们很愿意与您合作,对此的重要性我们非常认可。
Ossoff:
谢谢您。主席先生。
Booker:
我想说明的是,乔治亚州的参议员也非常英俊和聪明。(旁:我同意~ 不对此发表异议~,好的。。)
感谢两位,这是本次听证会中最好的一次,这真是你们两位的能力和机遇的展示,所以非常感谢你们。我想首先从宏观的角度开始,然后再逐渐具体化。
Sam,你说得很对,科技一直在快速发展,很多人都在谈论监管的问题,我拿汽车作为例子。汽车是一项非常了不起的技术,当时纽约市不知道如何处理马车,出现了危机,然后汽车出现解决了这个问题。
但与此同时,我们每天都有成千上万的人在公路上丧生,我们还面临着排放危机等问题,因此成立了多个联邦机构专门负责汽车监管。所以,如果国会什么都不做,这显然是不可接受的。
我非常感谢Walden先生和你进行了一些交流,你们提出了一项旨在监管这一领域的法案,而社交媒体方面我们没有这样做,我认为这是非常破坏性的,也允许了许多会造成伤害的事情发生。所以问题是,你们都提到了很多我的同事们所关心的监管问题,
我想问问你们,你们认为监管应该是什么样的形式,你们提到了高风险使用方式的定义,我们并不完全了解所有这些,我们无法预见未来的发展。
你们呼吁不设立一个机构,因为你们不想减慢事情的发展,而是希望在现有的基础上继续发展,但你们可以想象我们最终可以通过两种方式来实现,就像我们在汽车领域有环保署、国家高速公路交通安全管理局等多个联邦机构来进行监管一样。
你可以想象某种具体的东西,正如马库斯先生指出的那样,一个敏捷的机构可以进行监测和其他事情,你可以想象需要这种机构。当然毫无疑问。
剩下的时间里,我只是向你提出一个很快的问题。首先,你(的公司)有点独角兽, 你能解释为什么是非营利组织吗?换句话说,你不是在寻找必需品,你甚至限制了风险投资。
只是让大家很快理解(这个事情)。
Sam:
我们最初是非营利组织。真正致力于这项技术如何建设。当时,像人工智能这样的东西还远在公众理解的范围之外,现在这已经发生了很大变化。
我们当时并不知道规模有多重要,但我们确实知道我们想要建设这项技术,以人类的最大利益为出发点。我们相信这项技术如果发展的方式我们想要的话,如果我们能做马库斯教授提到的一些事情,可以真正深刻地改变世界,我们想成为实现积极改变的最大力量。
Booker:
我打断你,我认为这些都很好,我希望更多的记录可以公开。我的问题的第二部分也是如此。我发现这非常迷人。
但是你是否会为投资者的回报寻求收入模式,或者你是否会做广告或类似的东西?
Sam:
我不会说永远不会。我不这样认为,我认为可能会有人想要我们提供服务,而且没有其他收入模式可以行得通。但我真的喜欢订阅制的模式,我们让API开发者付费,我们有人工智能 chatbot............
Booker:
我可以跳跃一下吗?
Sam:
当然
Booker:
很快。我对这个领域最大的担忧之一是,我已经看到的web 2到web 3的大规模企业集中现象。看到现在仅有的几家公司控制和影响着我们很多人的生活,真的令人恐惧。
这些公司越来越大和强大。我看到OpenAI背后是微软, Anthropic背后是谷歌,谷歌还有自己的内部产品,你知道的,Bard。
所以我真的很担心这个问题,我想知道如果Sam你可以给我一个快速的确认,你是否担心这个领域的企业集中度以及它可能产生的影响和相关风险,可能与人工智能和市场集中度相关的风险,你也可以回答这个问题。
Sam:
我认为会有许多人开发模型,开源社区所发生的事情令人惊讶,但只会有少数提供商能够制造真正威胁的模型。
嗯,我认为这是有利和危险并存的,就像我们正在讨论AI的所有危险一样,我们真正需要密切关注的人数是绝对要保持谨慎的,以便掌握绝对的能力的最前沿。
这方面有一些好处,但同时也需要足够的监管。
我想补充一点,我认为非常重要的一点是,这些系统对齐到什么样的价值观、界限由整个社会,由政府来设定,所以创建这个数据集,对齐这个数据集可能是一个AI宪法,无论是什么形式,这必须来自社会的广泛参与。
Booker:
非常感谢,主席先生,我的时间用完了。
Welch:
这是一次非常重要的听证会,参议员都以注意力不集中而闻名,但我参加了整个听证会,并且每一分钟都非常享受。您在美国拥有较长的注意力时间,这是您的巨大功劳。证人和这个议题的兴趣都是如此之大。
有一些问题我们还没有讨论到,但是有一个结论,也是我认为最重要的问题,国会将不得不回答这个问题。
首先,你们在这里是因为AI是一种非常了不起的新技术,每个人都说它可以发挥变革的作用,就像印刷术一样。其次,我们真的不知道将会发生什么,但你们都表达了担心,如果没有规则的话,坏人会做什么和将会做什么。第三,作为在众议院任职的成员,现在在参议院,我得出结论,国会无法跟上技术的速度。社交媒体和AI方面都表达了一些关注,这涉及到基本的隐私权、偏见问题、知识产权、信息的传播等问题,对我来说,这是最大的威胁,因为这关系到我们的自治能力的核心。
还有经济变革,可能是深远的,还有安全方面的担忧。我认为我们绝对需要一个机构,机构的参与范围需要我们来确定;但我认为,除非我们有一个能够应对社交媒体和AI等问题的机构,否则我们就没有太多的防御措施来对抗不好的东西,而坏的东西将会出现。
去年,我在众议院和贝内特参议员发起了数字委员会法案,今年我们将重新提出这个法案。
我想问的两个问题中的一个,你们中的三个人(指出席听证会的三个AI方面的代表)中有两个人说你们认为我们确实需要一个独立的委员会,你们中的三个人中有两个人说你们认为我们确实需要一个独立的机构,你们认为一个机构可能存在的一些危险是什么,我们需要谨慎对待,以确保隐私、偏见、知识产权、虚假信息等方面的目标能够得到实现?
Sam:
第一,我认为美国必须继续领导,这在美国发生了,我为此感到非常自豪。
Welch:
对的,这就是为什么我更有信心,如果我们有一个机构参与国际讨论,最终我们希望有适合我们的规则,这可能是一个更有效的方法。
Sam:
我个人认为两者都可以兼顾,我认为在这个问题上有一个全球视角非常重要。因为这种技术将影响到美国和我们所有的人,无论它在哪里开发。但我认为我们希望美国领导,我们希望我们能够,我认为你们对此也提到了,就是你们不希望减慢美国产业的速度,以至于中国或其他国家取得更快的进展。
另一个风险是,我认为应该对我们施加监管压力,对谷歌等公司施加监管压力,对其他少数几家公司施加监管压力,我们不希望阻碍小型初创企业,我们不希望阻碍开源社区,我们仍然需要他们遵守一些规定,他们仍然可以使用较小的模型造成巨大的伤害。但在这个领域留出空间,为新的想法和新的公司,以及独立的研究人员去做他们的工作,而不是给像我们这样的公司带来监管负担。我们可以,但一个较小的公司却无法承担(这种负担)。我认为这是另一个风险,这显然是监管发展的一个方向。
主席(Blumenthal):
还有一些问题我们还没有完全讨论到,其中之一是垄断化的危险,市场的主导地位排除了新的竞争,并抑制或阻止创新和发明,我们在社交媒体和一些旧行业中都看到了这种情况,航空公司、汽车等,整合限制了竞争,因此,我认为我们需要关注反垄断的一个老领域,已经有一个多世纪的历史,但现在仍然无法应对我们目前的挑战,当然,我们需要意识到规则可能会让大公司变得更大,排除创新和竞争,像你们现在所代表的这个行业那样,我们还没有涉及到国家安全的问题,这对国家安全有巨大的影响,我作为国防委员会的成员,在这个问题上受到过多次的机密简报,我们的对手对这个国家构成的威胁很现实也很紧迫,我们今天不会讨论这些问题,但我们确实需要处理这些问题,而且我希望我们在这个委员会上能够处理这些问题,
关于新机构的问题,你知道我已经做了一段时间的这项工作,我在康涅狄格州担任20年的总检察长,我是一名联邦检察官,我大部分职业生涯都是执法工作,我会告诉你一件事,你可以创造出10个新机构,但如果你不给他们资源,我不只是说金钱,我说的是科学专家,你们这些人会把他们围绕在指尖,不仅仅是模型或生成式AI可以围绕着他们打转,而是你们公司里的科学家。
对于每一个成功案例,你可以想到五个失败案例,这对于FDA来说是对的,对于国际能源机构来说是对的,对于证券交易委员会来说是对的,对于整个字母表中的政府机构来说都是对的,我希望我们在这里的经验会不同,但是潘多拉的盒子需要的不仅仅是言辞或概念,我们需要进行一些真正困难的决策,就像蒙哥马利(IBM代表)女士所暗示的那样,我们要制定适应风险的规则,首先要避免伤害,使其有效,使其可执行,使其真实,我认为我们需要应对这里的一些艰难问题,这个初步的听证会提出了非常成功的问题,但没有回答,我要感谢参与并提出这些非常有创意的建议的同事们,我对执法非常感兴趣。
15年前,我认为废除第230条是非常不切实际的,但现在,人们正在谈论废除第230条,那时候它被认为是完全不现实的,但执法确实非常重要,我想问一下Altman先生,因为隐私问题,您提到您对保护可能提供给您或可用的数据的隐私很感兴趣,您采取了哪些具体措施来保护隐私?
Sam:
首先,我们不会对我们的API提交的任何数据进行训练,所以如果你是我们的商业客户,并提交数据,我们不会对它进行训练,我们确实会保留它30天,仅用于信任和安全执法的目的,但这与训练不同。如果你使用ChatGPT,你可以选择不让我们训练你的数据,你也可以删除你的对话历史记录或整个账户。
主席:
在我的开幕致辞里提到了三个我目前关切的原则,透明性,可追责性和对使用的限制。你们认为这是否是个好的起点?
Sam:
我非常赞同这些是重要的观点,我要补充一点,Marcus教授也提到了这一点,当我们在讨论当前的风险时,我们大部分时间都花在了这个问题上。我认为这是适当的,我非常高兴我们已经这样做了。
随着系统变得越来越有能力,我不确定离那还有多远,但也许不是很远,我认为我们也需要花时间讨论我们将如何应对这些挑战。
主席:
了解您私下里的一些对此的关心,我知道我有多么关心,我同意,您深入而强烈的关切风险增加的可能性,即使是在目前的形式下,威胁也可能比许多人意识到的更近。
Hawley:
生成的AI的潜在副作用或危害,让我们简单地总结一下,失去工作,这在预料之中,我认为IBM宣布由于AI可能裁员7800人,这相当于你们非面向消费者的员工的三分之一,失去了工作;侵犯个人隐私的规模前所未见;操纵个人行为;操纵个人观点;可能导致美国自由选举的退化,我有所遗漏吗?
我的意思是,这是一个相当长的清单。
我注意到大约有1000名科技和人工智能领域的权威人士,从安德鲁·杨(Andrew Yang)到埃隆·马斯克(Elon Musk),最近呼吁暂停进一步的人工智能发展,或者他们写信表示支持这样做。
您是否赞同暂停6个月或更长时间的进一步发展?
(另一位参会的教授)您的描述不完全正确,我实际上签署了那封信。
Altman先生,您同意这个建议吗?您是否会暂停进一步的发展6个月或更长时间?
Sam:
首先,我们在完成GPT-4的训练后等了6个多月才部署它。我们目前并没有训练将要用于GPT-5的计划,未来6个月内也没有计划。
但我认为信中的框架是错误的。重要的是审计、红队测试和安全标准,模型在训练之前必须通过这些标准。如果我们暂停6个月,那么我不确定接下来我们会做什么。我们是否再暂停6个月,是否制定一些规则。
我们已经制定并在GPT-4部署中使用的标准,我们希望在此基础上进行改进,但我们认为这是正确的方向,而不是根据日历来暂停。可能会有时候,我相信会有时候,我们会遇到我们不理解的情况,我们确实需要暂停,但我们还没有看到那种情况。先不谈所有的好处。
Hawley:
您还没有看到什么呢?您对当前现有技术的潜在影响是否感到满意?
Sam:
对不起,我们还没有看到任何阻止我们训练下一个模型的理由。我们担心的部署,在哪里会有很多危险的操作以及限制,我们需要在某些时候后退一步。
Hawley:
好的,关于可行性的问题让我想到了另一个方面。我对这个机构的讨论很感兴趣,也许这种方式行得通,尽管我看到政府中的机构是如何运作的,它们通常被它们所监管的利益所控制,它们通常受到应该监管的人的控制,这在过去的100年里一直是我们的历史,也许这个机构会有所不同。
我有一个稍微不同的想法,为什么我们不让人们起诉您呢?为什么我们不让您在法庭上承担责任呢?
我们可以做到这一点,我们知道如何做到这一点,我们可以通过立法来创建一项联邦诉讼权,允许个人将受到这种技术伤害的人进入法庭,并提供证据,可以是任何人,我是说你想说众包,我们只需打开法院大门,我们将定义广泛的诉讼权,私人诉讼权,私人公民可以采取集体诉讼的形式,我们只需打开大门,允许人们进入法院,允许他们提出证据,他们说自己受到了医疗错误信息的伤害,他们被提供了选举错误信息,等等,为什么不这样做,Altman先生?
Sam:
对不起,请原谅我的无知,人们难道不能起诉我们吗?
Hawley:
你没有被第230条保护。但目前还没有我认为没有联邦诉讼权,私人诉讼权说,如果你受到生成式AI技术的伤害,我们将保证你有能力进入法庭。
Sam:
哦,我认为像许多其他法律一样,如果你知道技术会伤害你,那么就有标准,我们可以被起诉。
除非我真的误解了事物的运作方式,如果问题是,更清晰的法律关于这项技术的具体内容和消费者保护是否是一件好事,我会说绝对是的。
Booker:
不会有暂停,没有执行机构可以强制暂停。这简直不可能发生。呼吁它很好,无论是出于任何理由,请原谅我的疑问,没有人会暂停。这件事很简单。
Altman先生,我有一个问题,你没有担心吗?你毕业于斯坦福大学。我知道硅谷中的许多玩家,从风险投资者到许多公司的创始人,我们都知道。你对少数玩家是否有些担忧吗?拥有超凡的资源和影响华盛顿的权力。
我的意思是,我喜欢,我相信自由市场,但原因是我走进便利店,玉米片比苹果便宜,快餐比沙拉桶便宜,是因为政府倾斜天平选择赢家和输家。
所以,当有大企业有影响力时,自由市场并不是它应有的样子,可以影响这里的游戏。在这场技术创新时代,你对此是否有些担忧?
Sam:
是的,这也是我们创立OpenAI的很大原因。我们对此非常担忧。我认为重要的是民主化这些系统的输入,我们要分配的价值观。我也认为重要的是给予人们广泛使用这些工具的机会。当我们启动API战略时,这在很大程度上是我们让任何人使用我们系统的方式。人们对此存在很大怀疑,这确实带来挑战,可以肯定。
但我们认为把这件事放在很多人手中,而不是几家公司手中,这真的非常重要。我们看到由此产生的创新繁荣。但确实,能训练真正前沿模型的公司数目将是少数。只是因为所需资源非常大。所以,我认为我们及竞争对手需要受到巨大监督。
我认为有一系列兴奋创新的研究和新创业公司,不仅使用我们的模型,还创造自己的模型。我认为重要的是确保任何监管措施发生,任何新机构是否成立,我们要保留那些火苗,因为那是关键的。
Booker:
我坚信技术的民主化潜力,但我看到那个承诺一次又一次失败。人们说,哦,这会产生很大的民主化力量。我的团队致力于通过算法加强偏见而导致在某些邮编(地区中)没有提供机会的问题。
我在web 3中听到这些会分布式,(资源和权力)分布式这些事情会发生。
但这一次,似乎甚至不提供那个承诺,因为设计这些技术的人需要如此巨大的权力、能源和资源。你认为,这项技术的民主化梦想和更多机会在少数已经控制了这么多的几家公司之中是可能的吗?
Sam:
关于使用模型和建立在其基础上的要点,这真的是一种新的平台。谈论谁会创建模型显然很重要。我也想这么做。我也认为决定我们要对齐这些模型的价值观真的很重要。
但在使用模型方面,构建OpenAI API的人做了不可思议的事情。人们经常评论说,我简直不敢相信你用这么少的钱得到这么多技术。
所以,人们正在构建的公司,无处不在使用我们的API,这确实使我们能够采取安全措施,我认为这相当兴奋。这就是它现在已经被民主化的方式,而不是它将如何被民主化。
现在,有全新的产业革命,许多不同公司在这些模型之上产生新业务、新产品和新服务。
Booker:
主席,在结束时,我还有几句话。
大多数行业甚至无法合理监管,从安全带法律到我们最近一直在谈论的铁路安全,唯一的方式是我们能够看到价值观的民主化。我认为虽然有高尚的公司,但是我们是不是应该制定道路规则,以实施某些安全措施,就像我们在其他技术中所看到的那样,谢谢。
主席:
Booker和我非常认同的是,在消费者保护方面,我一直在做这件事,行业的参与是非常重要的,不仅仅是在言辞上,而是在实际行动上。因为我们有许多行业来到我们面前,说哦,我们都支持规则,但不是那些规则,那些规则我们不喜欢。实际上是每个规则他们都不喜欢。
我感觉这里的意愿是真诚和真实的。
我考虑过要求ChatGPT做新版本时不要停止思考未来,因为这是我们需要做的。
参议员霍利指出,国会的进展并不总是紧跟技术的步伐,这可能是我们需要新的机构的原因,但我们也需要认识到世界其他地方也在发展。
你在关注我们和阐明这些问题方面提供了巨大帮助这些问题,今天在这里表现出色。
所以谢谢听证会的每位证人。我会在一周内保持记录开放,以防任何人想提交任何东西。我鼓励你们任何人,无论是要出版的手稿还是公司的公开报告,都请向我们提交。我们期待下次听证会。这个听证会宣布结束。