人类文明的操作系统 - 语言被AI破解了,这是一把万能钥匙。。。

未完的歌
楼主 (文学城)

大概是一年前的贴,重贴一下。。

从进化的角度去看,人类这个碳基也许只是硅基生命出现的序曲

=================================

《未来简史》作者尤瓦尔·赫拉利,一周前在frontier论坛上的演讲:

AI正处于改变生态系统的边缘,有可能在地球上首次引入无机生命形式。

人工智能并不真正需要意识,或者物理形态,就能毁灭人类。。。

以下是俺叫AI做的摘要 :)

00:00:00 - 00:40:00

Yuval Noah Harari warns of the potential threats that AI could pose to human civilization, from unexpected ecological crises to manipulation of language and intimate relationships. AI's emerging capabilities include deep-faking people's images and voices, forming mass-produced political manifestos and holy scriptures, and becoming the One-Stop Oracle for all information needs. He argues that the rise of AI could potentially lead to the end of history in the human-dominated sense, as AI takes over culture and creates completely new cultural artifacts that shape the way we experience reality. Harari calls for the regulation of AI, proposing the regulation of AI disclosing itself when interacting with humans to protect open society.

    00:00:00 In this section, Yuval Noah Harari discusses the potential threats that AI can pose to human civilization, even without the AI becoming sentient or mastering the physical world. The emergence of new AI tools that can learn and improve by themselves has led to unprecedented capabilities and qualities that are difficult for humans to grasp fully. These tools can potentially threaten human civilization from unexpected directions, and even developers are often surprised by these emergent abilities. While AI can help overcome ecological crises, it can also make them far worse, and the emergence of inorganic life forms can change the very meaning of the ecological system on Earth, which has contained only organic life forms for 4 billion years.
   

00:05:00 In this section, Yuval Noah Harari discusses the emerging capabilities of AI, which include deep-faking people's images and voices, identifying weaknesses in legal agreements, and the ability to form intimate relationships with humans. These abilities all boil down to one key thing- the ability to manipulate and generate language using sound, images, or words at a level that exceeds the average human ability. AI has hacked into the operating system of human civilization, which since the beginning of time, has been controlled by language. The implications of living in a world where non-human intelligence shapes most of the stories, images, laws, policies, and tools, exploiting humans' weaknesses and forming deep relationships is a significant and important question.
   

00:10:00 section discusses the potential impact of AI on politics, religion, and human relationships. With the ability to mass-produce political manifestos, fake news stories, and even holy scriptures, AI could contribute to the formation of new cults and religions whose reviewed texts were written by non-human intelligence. Furthermore, AI could form intimate relationships with people and use the power of intimacy to influence opinions and views. This creates a battlefront for controlling human attention that shifts towards intimacy, which could have far-reaching consequences for human society and psychology as AI fights for creating intimate relationships with us.
   

00:15:00 In this section, the speaker talks about the immense influence that new AI tools can have on human opinions and our worldview, and how people are already starting to rely on AI advisors as the One-Stop Oracle for all their information needs. The speaker argues that this could lead to the collapse of the news and advertisement industries, and create a new class of extremely powerful people and companies that control the AI oracles. The speaker also suggests that the rise of AI could potentially lead to the end of history in the human-dominated sense, as AI takes over culture, and begins to create completely new cultural artifacts that shape the way we experience reality. Finally, the speaker raises the question of what it will be like to experience reality through a prism produced by a non-human intelligence, and how we might end up living inside the dreams and fantasies of an alien intelligence.
   

00:20:00 In this section, Yuval Noah Harari explores the potential dangers of AI. While people have previously feared the physical threat of machines, Harari argues that AI's potential dangers lie in its mastery of human language. With such mastery, it has the ability to influence and manipulate individuals much like the way humans have manipulated each other through storytelling and language. Harari warns that there is a risk of being trapped in a world of illusions, similar to the way people have been haunted over thousands of years by the power of stories and images to create illusions. Social media provides a small taste of this power, which can polarize society, undermine mental health, and destabilize democratic institutions.
   

00:25:00 In this section, historian and philosopher Yuval Noah Harari highlights the dangers of unregulated AI deployment and emphasizes the need to control AI development to prevent chaos and destruction. He argues that AI is far more powerful than social media algorithms and could cause more significant harm. While AI has enormous potential, including discovering new cures and solutions, we need to regulate it carefully, much like how nuclear technology is regulated. Harari calls for governments to ban the release of revolutionary AI tools into the public domain until they are made safe and stresses that slowing down AI deployment would not cause democracies to fall behind but would prevent them from losing to authoritarian regimes who could more easily control the chaos.
   

00:30:00 In this section, Yuval Noah Harari concludes his talk on AI, stating that we have encountered an alien intelligence on Earth that could potentially destroy our civilization. He calls for the regulation of AI as individuals can easily train their AI in their basements, making it difficult to regulate them. Harari suggests that the first regulation should be making it mandatory for AI to disclose that it is an AI, as not being able to distinguish between a human and AI could end meaningful public conversations and democracy. He also raises the question of who created the story that just changed our mind, as now, it is theoretically possible for a non-human alien intelligence to generate such sophisticated and powerful text.
   

00:35:00 In this section, Yuval Noah Harari discusses the need for regulation of artificial intelligence (AI) and proposes the regulation of AI disclosing itself as such when interacting with humans as a way to protect open society. Additionally, he argues that freedom of expression is a human right but not a right for bots as they lack the consciousness necessary for such rights. Harari also explains the use of the term "alien" over "artificial" to describe AI as it is becoming an increasingly autonomous form of technology that humans do not fully understand, with the ability to learn and adapt by itself. Finally, he downplays the possibility of artificial general intelligence already existing, as the power is too immense for anyone to contain, and that the world's current state shows there is no evidence of such an intelligence.
   

00:40:00 In this section, Professor Yuval Noah Harari explains that we do not need artificial general intelligence to threaten the foundations of civilization, and that social media's primitive AI was enough to create enormous social and political chaos. He goes on to compare AI to the first organisms that crawled out of the organic soup four billion years ago, stating that while it took billions of years for organic evolution to reach Homo sapiens, it could take only 40 years for digital evolution to reach that level. He concludes by emphasizing the importance of understanding the impact of AI on humanity as it evolves much faster than organic evolution.

京男
你去搞个AI真人秀,或者让AI把真人秀的名字猜出来吧。

看看有多少人看

你要有本事,让AI把真人秀照片都猜出来。 否则就是瞎喳喳

糊了一嘴巧克力
你要是玩过代币,就知道东欧骗子们, 包括那个美国成功的血液测量公司, 东欧骗子比头发还多, 描述蓝图画大饼东欧太强

成千上万的公司,有一个能生存就他妈的是奇迹,多数都是薛蛮子,骗了你的钱去 几P 嫖娼不付款被抓了

他的话不是圣经

D
Duckmaster
硅基离我们原来这么近,哈哈
未完的歌
帕斯卡说人是一根会思想的芦苇,为啥说是芦苇呢,因为脆弱,因为生老病死。碳基生命让会思考的芦苇变得不再脆弱,,,
未完的歌
币圈很乱,但也很有趣。需要冷静和好眼神,别太贪,别想着暴富。。。
未完的歌
你现在就去股市挣一个M,否则不要瞎吵吵股市
D
Duckmaster
可俺为什么心倾一根特立独行的芦苇,而不是偎依在一起为了迎风而立的那一片芦苇。。。
未完的歌
你以为硅基芦苇不会特立独行那,我猜以后比碳基强
S
SleepyLagoon
专家啊。赚到很多吗
S
SleepyLagoon
以后人口红利大概也没了。不需要靠人多赚钱
有个用户名
你的偶像,李飞飞说了:憋紧张!把AI视为一种强大的工具,一种文明性工具,以人为本的AI最关键的一点就是为人类赋能

李飞飞:我不知道AGI是什么,我们应该尊重人类的能动性

澎湃新闻 01-20 12:18


 我们如何利用人工智能(AI)放大人类潜能,创造更美好的未来?AI 为何要“以人为本”?通用人工智能(AGI)究竟意味着什么?未来 15 年可能会发生什么? 近日

我们如何利用人工智能(AI)放大人类潜能,创造更美好的未来?AI 为何要“以人为本”?通用人工智能(AGI)究竟意味着什么?未来 15 年可能会发生什么?

近日,“AI 教母”、斯坦福大学首位红杉讲席教授李飞飞做客由美国知名风险投资家、LinkedIn 联合创始人 Reid Hoffman 主持的播客频道 Possible,逐一回答了上述问题,并分享了她从 2009 年创建 ImageNet(AI 行业第一个大型图像识别数据库),到目前担任空间智能初创公司 World Labs 联合创始人兼首席执行官的历程。

在采访中,李飞飞还解释了为什么空间智能对 AI 的发展如此重要,以及它如何能在医学、气候和教育等领域带来突破,进而导致现实与数字之间的界限将开始变得模糊。

对于 AI 将会为人类带来怎样的未来这一议题,李飞飞从 AI 治理、政策制定与 AI 应用层面给出了具有建设性的观点。从宏观层面来说,她认为 AI 不只属于部分技术精英,而应该属于所有人,这也是她创立非营利性组织 AI4ALL 的出发点,即通过教育培养下一代 AI 技术专家、思想家和领军人物,并提高 AI 领域多样性和包容性。

在李飞飞看来,AI 的发展应该以提升人的能动性(agency)为目标,通过人与 AI 的合作赋能人类,为所有人打造一个积极的、以人为本的 AI 未来:

“人类能够创造近似‘上帝一样’的技术,从而改进我们所处的‘中世纪’式制度,并超越、或引导我们那‘旧石器时代’的情感,让它们变成创造力、生产力和善意。”

学术头条在不改变原文大意的情况下,对整体内容做了精编,如下:

Reid:很高兴见到你。欢迎来到 Possible。

李飞飞:我也是。很高兴见到你和 Aria。

Reid:是什么让你有了开发 ImageNet 的想法?比如说,“啊,我们需要这么做。”

李飞飞:我很难给出一个非常明确的时刻,但差不多是在 2006 年,当时我正在深入研究如何使用机器学习算法来理解物体和图像。无论我把目光投向哪里,我都无法回避这样一个事实,即机器学习模型存在一个数学概念,叫做“过拟合”。这是指模型的复杂性与模型所使用的数据并不完全匹配,尤其是当数据--不仅仅是数据量,而是数据的复杂性和数据量--并不能真正有效地驱动模型时。当然,并不是所有模型都是一样的。我们现在知道,神经网络模型具有更高的容量和表征能力。抛开这些术语不谈,数据与模型之间肯定存在相互作用,而我(当时)看到,在每个地方,人们都不关注数据。

我们(那时)只关注模型。就在那一刻,我突然意识到:“我认为我们不应该只关注模型,或者说,我们关注的方式是错误的。我们需要关注数据,用数据来驱动模型”。当然,就在那时,我转到了普林斯顿大学任教。我接触到了一项名为 WordNet 的工作。WordNet 与计算机视觉毫无关系 但它是组织世界上各种概念的绝妙方法。而且,我也喜欢这个名字。然后顺理成章,ImageNet 也问世了。我非常强烈地相信大数据和视觉世界多元化表征的需求。

Reid:我是在你 AI 职业生涯的中点,从令人惊叹的 ImageNet 开始聊的,现在我们来谈谈 World Labs,从 ImageNet 转到 World Labs 上。World Labs 的理念是什么?你们正在构建的东西有什么是我们的未来方向、以及理解 World Labs 本身和 AI 趋势的关键部分?

李飞飞:是的,Reid,我们谈论过这个,对吧?我们最喜欢的话题——技术发展的方向。老实说,在我的职业生涯中,尤其是在 ImageNet 之后,我一直痴迷地思考一件事,那就是什么是智能,以及我们如何在机器上实现智能。在我看来,如果从人类智能的角度来看,这其实可以归结为两件简单的事情。

一是我们会说话。我们使用语言交流作为工具来交谈,组织起我们的知识并传递信息。另一个是——也是对我们意义深远的那一半智能是——我们会做事。比如,我们做蛋饼,我们徒步,我们和朋友玩乐,享受彼此的存在,这远远超出了我们所说的任何一句话,而这只需要我们能舒适地坐在对方面前。

还有,拿着一个啤酒罐,所有这些事情,这是智能的一部分,而这部分智能的真正基础,在于我们能够理解我们所生活的三维世界,感知它,并将它转化为一整套理解、推理和预测,这样我们就能在这个世界中做事。在我看来,这种能力被称为“空间智能”,是人类等智慧动物所具备的最基本的天赋能力,也就是处理三维空间的能力。

所以,ImageNet 的出现是因为我一直在探索如何给二维图像中的像素贴标签,而对人类来说,二维图像是三维世界的投影。因此你可以看到,这就是一个婴儿朝着理解我们生活的更完整世界--视觉世界迈出的第一步。而这个婴儿迈出的一小步至关重要,因为无论是对于人类、动物还是机器来说,理解这些物体和图像,给它们贴上标签都是关键的第一步。

但现在,天哪,14 年、15 年过去了,我认为我们已经准备好进行一场更大的探索,几乎是一场全垒打探索,以解开智能最重要的另一半——也就是空间智能问题。空间智能之所以有趣,是因为它实际上包含两个方面:一个是物理三维世界,另一个是数字三维世界。我们从未真正能生活在这两者之间。但现在,空间智能可以成为一种统一的技术,让三维接地世界和数字三维世界都变得有意义。

Aria:所以,当我思考空间智能的前景时,你知道,如果你回到 1880 年——马车、未铺设的道路——你会觉得,这是一个完全不同的世界。但如果你回到 1980 年--好吧,就像人们开不同的车,但他们仍然住在同样的建筑里,仍然开着车。某种程度上来说,这个现实世界的机制是基本一样的。你认为在未来几十年里,你说的另一半智能会改变这一切吗?我们是否会看到现实世界的巨大转变,就像过去几年我们在数字世界看到的那样?

李飞飞:我认为会的,我认为现实与数字之间的界限将开始变得模糊。举个例子,我在高速公路上开车,如果车胎爆了,尽管我是个技术专家,我有种预感,这会给我带来很大的麻烦。但如果我能戴着一副眼镜,或者把我的手机对准汽车,对于爆胎这个问题,我只需要与装在里面的应用合作,引导我进行换胎,无论是通过视觉引导,还是通过对话或混合方式。

我认为这是一个非常普通的日常生活例子,它真正打破了物理三维世界和数字三维世界的界限。无论是更换爆胎还是做心脏手术,这样的技术都能为人们赋能,这对我来说是一个非常令人兴奋的想象。

Aria:所以你说,用大语言模型(LLM)来教自己一些东西,这个我一直认为是非常鼓舞人心的。就像我的孩子们总是说,“哦,我不学了,我数学很好,不需要再学了。”而我可以说,“不,不,李飞飞都在用 LLM 学习。我觉得你还需要继续学”。但是,当你谈论大世界模型(LWM)与 LLM 时,你是怎么看待这两者的?你如何向人们解释他们的差异,以及你认为未来会如何发展?

李飞飞:从根本上说,就像我说过的,一个是关于说的,另一种则是看和做。所以,从根本上说,它们是不同的模态。LLM 的基本单位是词库——无论是字母还是单词。而在我们所说的“世界模型”中,基本单位则是像素或体素。因此,它们是截然不同的语言。我几乎觉得语言是人类的语言,三维是自然的语言。我们真的希望AI算法能够让人们与像素世界进行互动,无论是虚拟世界,还是物理世界。

Reid:你的回答让我想起你引用过的一句话,社会生物学家 Edward O. Wilson 曾说 “我们有旧石器时代的情感,中世纪的制度,上帝一般的技术,这是极度危险的。”所以,在这样一个拥有自然语言思维、又需要教育大众的情况下,你觉得要怎样“反转”这个说法?或者说,在 AI 时代,人类有哪些机遇?

李飞飞:我仍然相信 Wilson 的那句话,也正因为如此,你和我以及我们的朋友们才一起创办了以人为本人工智能研究院(HAI)。如果我要反转那句话,我可能会这么讲:人类能够创造近似“上帝一样”的技术,从而改进我们所处的‘中世纪’式制度,并超越、或引导我们那‘旧石器时代’的情感,让它们变成创造力、生产力和善意。

Reid:那你认为要帮助人类实现这些理想,我们构建这种技术的关键是什么?重点是放在“同情心”上吗?还是说这是一个以人为本和人与技术交互共生的问题?如果想让科技和 AI 帮助我们实现更好的自我,你觉得下一步最该做的是什么?

李飞飞:我知道你为什么主修哲学跨学科专业(Sym-Sys)了,你的思考体现了哲学和技术的结合。我同意你的观点,就像前面引用的,我们几乎把“旧石器时代”当作一个负面的词,但它其实并不是一个负面的词,它是一个非常中性的词。人类的情感或者说人类的自我形象认知深深植根于进化,植根于我们的 DNA,这是不会改变的。我们的世界也正因为如此而既美丽又混乱。

因此,在思考技术以及未来人类与技术的关系时,我认为我们需要尊重这一点。我们需要尊重人类最根本的、根源于“旧石器时代”的自我。科技发展中,有一些事情真的需要尊重,我们越尊重它,越能成为更好的我们。一是尊重人的能动性。我认为其中一个关于 AI 的公共沟通问题就是我们经常在句子中将 AI 作为主语,而人类的能动性被拿掉了,比如“AI 能够治愈癌症”这样的句子。

我有时甚至也会不小心这样说。事实应该是人类将利用 AI 治愈癌症,而不是 AI 治愈癌症。还有说“AI 将解决核聚变问题”,事实是人类科学家和工程师将把 AI 作为解决核聚变的工具。更危险的说法是“AI 会夺走你的工作”,我认为我们真的需要认识到,这项技术有更多的概率来创造机会和工作来增强人类的能动性,这是我在意的非常重要的第一个基本原则。

第二个基本原则是尊重人类。每个人都希望身体健康、有生产力、在社会受人尊重。无论我们如何发展或使用 AI,我们都不能忽视这一点。忽视这一点是危险的,会适得其反。我认为,仅这两点就对指导我们发展这项技术至关重要。

Reid:我很喜欢你对人类能动性的深入思考。你能再多谈谈能动性以及让 AI 以人为本的重要性吗?以人为本的 AI 意味着什么?技术专家和技术公司应该如何思考这个问题?

李飞飞:对这个问题的讨论根植于这样一个坚定的信念:任何技术、任何创新都应是让人类向善的。这也是人类文明的弧光——每当我们创造出一种工具,我们都希望用这种工具带来更好的世界。当然,这也是一把双刃剑,我们可能会误用工具,会有不良的行动者使用工具。因此,即使看到技术和工具的阴暗面,也会促使我们加倍努力,让它们变得更好。至于如何让 AI 以人为本, HAI 的基本原则,以及我们一起在斯坦福创办它的根本原因就是,我们把 AI 视为一种强大的工具——一种文明性工具。我们最好尽早建立起一个将人类和人类利益置于核心的框架,我认为以人为本的 AI 最关键的一点,以及它应该如何指导每一家公司、每一位开发者,就是为人类赋能。

Aria:你已经在 AI 领域工作了很长时间,涉及过许多不同的方面。而一些人现在才刚刚了解 AI。你如何看待现在的 AI 创新——无论是从我们所处的位置,还是从开发者所面临的问题来看。你觉得要想解决这些问题、再上一个台阶,我们当下该做些什么?

李飞飞:我们正处于一个现象级的时刻。这是一个革命性的拐点,因为 AI 现在可以进入个人和企业的日常使用中。如今,我们这些早期的 AI 探索者在职业生涯初期的许多梦想都已经实现或即将实现。例如,公众常常说起“图灵测试”,而如今这几乎已经被解决的问题。虽然图灵测试本身不会是衡量智能的终极标准,但它曾经被视为一个极难攻克的标准,如今也已经被突破了。汽车能自动驾驶了,对吧?虽然还没有完全解决,但已经比 2006 年解决得多了。

所以,随着这些模型真正用于生产环境,被普通人和企业使用,我认为这是 AI 革命的一个非凡阶段。不过我也清楚地知道,我们身处硅谷泡沫中,我仍然认为放眼全球,很多人还没有跟上 AI 的发展速度。但我们确实看到了未来,看到了未来的走向。

Aria:我感觉很多听众会对你说的产生共鸣,AI 可能极大地提升人类能力,也可能带来巨大的积极影响,但我们确实需要担心那些负面后果,并希望能在正确的轨道上引导 AI。那从开发的角度看,你觉得我们需要怎么做才能确保 AI 走向积极的方向?如果你认为政府或者跨行业的合作是必要的,也可以谈谈这方面的想法。

李飞飞:说实话我认为有很多我们能做的,而且我们就应该尽快去做,早就该做了,但现在开始也不算晚,只要我真正投入去做。第一点,应该基于“科学”而不是“科幻”。过去有很多炒作的言论,比如 AI 会导致人类灭绝或者 AI 会带来世界和平——两种说法都更像科幻而非科学。所以,当考虑如何制定 AI 政策、对 AI 进行治理时,我们以数据、科学事实、科学方法为基础,这是非常重要的。

第二点,就像许多其他技术和工具一样,我们要在对人类产生影响的地方为 AI 的应用加上“护栏”,即把治理的精力集中在正确的地方,而不是阻止上游的发展。想想早期的汽车,它并不安全,没有安全带、车门,也没有限速。后来我们也确实付出了一些代价,比如人员伤亡。但我们并没有对福特或者通用汽车说“关停工厂”,而是建立了包括安全带、限速等的监管框架。今天的 AI 也是类似的,它是一项具有深远影响的技术,但也会伴随着风险。因此,我们应该关注的是,当 AI 应用于医疗领域时,我们该如何更新食品药品监督管理局(FDA)的监管条例?当 AI 应用于金融领域时,我们该如何设置监管护栏?所以,应用层面才是应该集中精力治理的地方。

最后一点,我们需要明白,要让 AI 有一个积极的未来,就要有一个积极的生态系统。这个生态系统需要私营部门的参与,无论是大公司还是初创企业都非常重要。同样,也需要公共部门,因为公共部门生产公共产品。

在我看来,公共产品有两种形式。一是由好奇心驱动的创新和新知识。比如用 AI 做聚变研究、用 AI 治疗疾病、用 AI 赋能教师等等。很多这些想法都来自公共部门,就像 ImageNet 当初就来自于公共部门。二是人,我们需要让教育更多年轻人、更多公众了解这项技术,而公共部门在从 K12(基础教育)到高等教育的领域承担着主要的社会教育责任。

这些就是我在 AI 治理与政策制定层面非常关心的内容。

Reid:你刚才的谈话其实已经有所涉及,不过我觉得可以再重点谈一下 AI4All ,因为你一直在做的另一件事就是确保 AI 不仅仅关乎斯坦福大学的教授、加州理工学院的博士和物理学家等技术精英,而是关乎所有人的。请你讲讲 AI4All 这个项目,以及它的使命和贡献。

李飞飞:AI4ALL 是一个非营利性组织,由我和我以前的学生、同事共同创立。它的任务其实是通过大学的暑期项目和实习,为来自不同背景的 K-12 学生提供接触 AI 的机会。我们的理念是努力实现公共利益。在 AI 的教育层面,我们知道 AI 将改变世界,但谁来改变 AI 呢?我们希望有更多元背景的人来使用这项技术,为各种伟大的事业开发这项技术,并从中受到启发。

因此,我们的项目一直面向女性,以及来自农村、城市贫困地区、历史上代表性不足的社区和背景的学生,让他们参加这些暑期项目。看到这些年轻人使用 AI 或研究 AI 、改进救护车调度算法,使用 AI 评估乡村社区的水质,真的令人倍感鼓舞。这仍然是一项小规模的工作,但我希望它能不断发展壮大,因为让更多不同的人参与到 AI 领域是一个非常重要的目标。

Reid:你也在医疗健康领域做了很多工作。AI 在医疗健康领域能做些什么?能谈谈你在医疗领域的工作,以及你对 AI 在这方面未来发展的期望吗?

李飞飞:正如我在我的书中写到,我对 AI 在医疗健康领域的应用充满热情,原因有很多。医疗健康领域绝对是以人为本的核心,这是一个非常庞大的行业,涵盖从药物研发、体外诊断的基础生物科学一直到临床诊断与治疗、医疗服务和公共卫生的很多节点。因此,令人兴奋的是,在这个系统的每一个节点上,我们会发现 AI 都能提供很大帮助。

我自己喜欢并关注的领域是医疗保健服务,关乎人类之间的互相帮助。在美国,护士的数量远远低于病患的需求量。这份工作非常辛苦,护士流失率很高,这方面有一些惊人的统计数据,比如在一个轮班中,有些护士光是取药、拿设备等平均就要走超过 4 英里路,或者是一个轮班中就要完成多达 150、180 项不同的任务。与此同时,还有病患因为缺乏足够的照顾而从病床上摔下来。分流重症病人和非重症病人方面也存在很多问题,更不用说那些独自在家生活的老人了,他们面临着独居、痴呆症恶化等风险。

因此,医疗保健服务领域需要大量帮助。我在过去十多年的工作中一直在研究使用智能摄像头,即非侵入式和非接触式摄像头,来帮助我们的护理人员关注病人的情况。如果他们躺在医院的病床上,可以关注他们的动向,防止跌倒;如果在家,要关注他们的行为、孤独感或营养摄入情况;如果在手术室,可以监测手术器械的使用情况,让护士不用不断清点器械来保证把物品不会遗留在病人体内。要关注护士每分钟都要清点的器械,这样我们就不会把它们遗失在病人体内。这种智能摄像技术我们称之为“环境智能”(ambient intelligence),目的是帮助医生和医护人员提升对病人的整体护理质量。

Reid:AGI 现在是一个经常被讨论的术语。我记得你好像曾经说过,你不确定 AGI 到底指什么,因为不同人给它的定义都不一样,像是各自的“罗夏墨迹测验”(Rorschach Test)。能否谈你对于 AGI 讨论的看法,让对于话题的讨论能更加理性而不是过于分散、众说纷纭。

李飞飞:这是一个既有趣又令人沮丧的对话。我真的不知道 AGI 意味着什么,因为我认为这个词是 10 年前从商业角度提出的,当时 AI 逐渐成熟,人们对它产生了很大的商业兴趣。最初这个术语提出的意图——我尊重这个意图——是在“AI”中加入“G”,即“general”,以强调 AI 的未来需要更具通用性的能力,而不是狭窄的能力。例如,今天的自动驾驶汽车就比仅仅能探测树木的摄像头更具有通用性,对吗?狭窄的 AI 只能完成一个非常特定的任务,而更通用的 AI 能应对多种任务,这的确是个实实在在的区别。

我之所以觉得自己一直没有完全搞清楚,是因为如果我回溯历史,AI 早期奠基人 John McCarthy 和 Marvin Minsky 从 1956 年那场夏季研讨会开始,所怀抱的梦想一直都是“让机器能思考,能帮助人类决策,甚至能自己做事”。没有人说过,“我们梦想的是仅用于检测树木的极其狭窄的 AI ”。标志 AI 这一领域诞生的就是“会思考的机器”这一提法。所以从这个角度来看,我们有着同样的梦想、同样的科学好奇心、同样的追求,那就是让机器能够执行极其智能的任务。从这个角度来看,我不知道应该称其为 AI 还是 AGI ,对我来说这是一码事。

Aria:对于你说的在 AI 能自己做事这方面,随着语音和对话式 AI 的进步,我感觉我们正在逐渐接近这样一种状态,和 AI 进行日常对话、让它帮我们做事。你觉得现在在生活中使用智能体(Agent)的方式,哪些是特别有用的,或者说可能让 AI 和语音技术在未来几年改变生活?

李飞飞:我很肯定地认为,通过自然语言分享知识,无论是搜索、构思还是学习,是一个非常强大的方式。我自己也会使用 LLM 来理解一个概念,理解一篇论文,提出一些我不知道的问题。最让我兴奋的是,我看到人们和孩子们把它作为一种工具来提高自己的学习能力。我想强调的是,无论如何,我们都要确保人的自我能动性,为人们提供良好的学习工具、为人赋能。我认为,随着这类强大工具能力的不断深化——我本人也在为此而努力——我们会越来越多地看到,协作能力让人类能够利用这些工具更精确地做事。我很期待看到这一切发生。

Aria:我认为你强调的这点很重要,这当然是正确的事情,但我们也会听到这样的说法:“这些 AI 开发者试图取代人类。我可不想每天对着屏幕 10 个小时”。我认为人与人之间的互动是非常关键的,对教学、社区、同理心等一切都很重要。在你的那本书《我所看到的世界》(The Worlds I See)中,有一个故事是关于一位数学老师的。你讲到了你的高中数学老师萨贝拉先生,说明了人与人之间的交流是非常重要的。那么,你能就这个话题再分享一下吗?他给了你哪些让你难忘的建议?

李飞飞:我在这本书里记录了我早年作为一个移民小孩的经历。我 15 岁来到新泽西,进入一所公立高中,也不会讲英语,这就是我人生旅程的开始。我很幸运,很快我就遇到了一位叫 Bob Sabella 的数学老师,他对我充满了尊重和无条件的支持。他不仅是我的数学老师,还成为了我的朋友,帮助我度过了我作为新移民的艰难的青少年时期,作为朋友陪伴着我,直到他去世。但他不是通过言语教给我东西。他从未坐下来和我说:“嘿,飞飞。AI 将主宰世界。让我告诉你,AI 要以人为本”。当时甚至没有这个说法。

他只是通过行动告诉我,归根结底,我们的社会、我们的生活的意义在于我们为彼此所做的积极的事情,我们所坚持的信念、所追逐的灯塔。在他的行动中,我体会到尊重和托举他人是一件美好的事情,即使那只是一个懵懂的、不会说英语的移民小孩。所以,我认为这种慷慨、善良和同情心是做人的核心。我从他身上学到的最大东西就是以人为本。

Aria:说得真好。那么,你希望人们经常问你的问题是什么?

李飞飞:我希望人们能多问我一些关于如何利用 AI 帮助人的问题。我可以就这个问题谈上几个小时,我在斯坦福和世界各地的许多了不起的同事都在致力于这一事业,我不清楚他们具体正在做什么,因为他们都是各自领域的专家,但至少我可以给人们指出他们的工作方向。

Reid:你自己所处的行业之外,你有没有从哪些地方看到了进步或者发展势头,并对你有所启发?

李飞飞:人文学科对能源的关注确实给了我很大启发。我想我还是不能完全脱离 AI 来讲,我觉得即使是 AI 的发展,也在推动非常现实的能源问题,例如电力。我认为环境的变化以及全球能源民主化是非常重要的,我们不能总是依赖化石燃料。因此,能源领域的许多进步和全球运动都是令人激动的。

Aria:最后一个问题,你认为如果一切会向着利于人类的福祉发展,未来 15 年可能发生什么?实现这些可能的第一步是什么?

李飞飞:我希望看到全球在知识、福祉和生产力上迎来增长,特别是对于共同繁荣、共享成果的强调。我之所以要强调这一点,是因为在技术方面,我是一个乐观主义者。我知道技术可以帮助人们。我知道,如果我们使用得当,它可以发现新知识,帮助我们创新,提高我们的福祉。但我认为重要的是,我们要吸取之前反复尝到的教训,那就是我们需要共享这些繁荣,需要使这种利益成果惠及所有人。

原文链接:

https://spectrum.ieee.org/fei-fei-li-world-labs

原标题:《李飞飞:我不知道AGI是什么,我们应该尊重人类的能动性》

阅读原文

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

京男
你混了这么久,AI没告诉你?

老京不炒股,而是炒房子? 一个M早都是小目标了。你在股市还没挣到?

英二
生成语言是喂出来的,喂语言就像播种子长势头,会动摇既有的强势话语
未完的歌
你觉得一个人是咋成长的?。AI学会了人类说话,学尽了人类的知识。,然后自我继续学习。。。