霍金曾经的预言:失控的人工智能很难被阻止住

今日头条
Toutiao
最新回复:2023年4月10日 19点34分 PT
  返回列表
33412 阅读
4 评论
孙立平社会观察



著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。

在RT美国台(RT America)播出的节目中美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。

霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”

他指出,人工智能可以比人类的智慧发展得更快。

他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”

他认为,有益的人工智能将出现在人类生活的各方面。

霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

霍金认为,脆弱的地球无法支撑人类再生活1000年,地球上的生命面临被灾难抹杀的危险与日俱增,比如核战、基因工程病毒或人工智能崛起等,人类必须尽快逃离。

我们必须继续进入太空

在一次演讲中,霍金花了一个小时讲述了有关人类对宇宙起源理解的进程,从原始的人类创造神话到依据“M理论”做出的最新预言。他说:“也许有一天,我们将能够利用引力波回望大爆炸的核心。”

霍金指出:“宇宙学一直在不断取得进展,但为了人类的未来,我们必须继续进入太空。”霍金曾表示,他打算乘坐维珍集团老板理查德·布兰森的太空飞船进入太空。他继续说:“因此,我希望鼓励公众对太空感兴趣,在这方面我很早就获得了培训。”

此前在《如何制造太空船》一书中,霍金曾在其后记中警告称,由于面临着战争和疾病威胁,地球正变成越来越危险的地方。霍金阐述了他的未来太空旅行观点。他说:“我认为地球上的生命面临被灾难抹杀的危险越来越高,这些危险包括突然爆发的核战、基因工程病毒以及其他因素。如果不进入太空,我认为人类将不再拥有未来。”

霍金向参加其演讲的学生们呼吁:“记住要仰望星空,而不要只关注你的脚下!试着了解你所看到的,并思考宇宙存在的意义。你们要保持好奇心,但是生活中似乎总有些事情是你们能做到并取得成功的,最重要的是永远不要放弃!”

在他以“宇宙起源”为主题的演讲中,他表示他目前正在努力去证明宇宙起源同样遵守物理学规律,同时符合现代物理学家称为M理论的内涵。

M理论包含了爱因斯坦的广义相对论,该理论将空间和时间相结合,凭借这些爱因斯坦预测黑洞的存在以及量子理论,它预言了亚原子粒子,设在日内瓦的欧洲核子研究中心的大型强子对撞机正对其进行测试。霍金称:“这是唯一具有我们认为终极理论应该具有的全部属性的统一理论。”

霍金是有名的“外星殖民”理论的支持者。霍金十分确信在地球之外的其他世界存在着智慧生命,但他警告人类应当想尽一切办法避免与这些外星生命接触。

霍金表示:“我们只需要看看自己,就能知道这些外星生命会如何变得让我们宁愿没碰见过他们。如果外星人来拜访人类,我想其结果会变得与哥伦布到达新大陆时非常相似,那对美洲土著可并不有利。”

F
FollowNature
1 楼
只要是机器,人类设个开关就放心了。没有能量,啥智能都白搭。
在河边
2 楼
开关能解决问题? 人能开与关,智能机器也可以开与关(让其它机器来开关),只要有逻辑关系,控制与反控制是可变的。 不过人类克隆技术迟早会开发与成熟,生命意义将改写,生命也将成为产品,生命不再崇高,与智能机器将会竞争。
旁观者XWY
3 楼
核武器也是人类自毁的创造。有矛就会有盾。
a
abvysk2023
4 楼
机器人身上绑多个机枪,满街扫射,人类就完了。