霍金的遗愿清单:离开地球和警惕人工智能(图)

今日头条
Toutiao
最新回复:2018年3月14日 2点26分 PT
  返回列表
42377 阅读
30 评论
澎湃新闻

 

  轮椅上的斯蒂芬霍金终于离开了地球,可以和爱因斯坦、牛顿他们一起打打牌了。

  在过去的二十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。

  现在我们就梳理下霍金通过各种渠道谈论这两个话题的言论。

  关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。

  2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。这样的指数增长不能持续到下个千年。 到2600年,世界将拥挤得摩肩擦踵,电力消耗将让地球变成炽热的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。

  而在2017年7月,霍金就痛批美国总统特朗普出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。

  也是在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。

  离开地球,霍金也不是光嘴皮子吓唬吓唬大家,2016年4月12日在纽约宣布启动突破射星计划,将同俄罗斯商人尤里米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。

  除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。

  2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。他还说,自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种优势,霍金解释自己的警告时说道,他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。

  2016年10月19日,剑桥大学莱弗休姆的未来智能中心(LCFI)正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。我们花了大量的时间来学习历史。霍金说,让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。 我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。霍金说。

  2016年1月26日和2月2日在BBC电台第四频道播出霍金瑞思系列演讲(Reith Lectures),在演讲中他直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金依旧认为科技进步是人类的新威胁。他甚至提及若人类最终得以在其他星球建立家园,或许还能幸存下来。

  尽管地球在某一年遭受灭顶之灾的可能性很低,但随着时间的推移,在未来几千或几万年,这会是可以预见的事情。那时,我们应该已经进入太空、住到其他星球上。所以地球上的毁灭并不意味着人类的终结。然而,至少在未来数百年里我们还无法在太空世界建起人类的地盘。所以我们现在必须非常小心。

  2015年,霍金曾联合思想家乔姆斯基马斯克等数千名知识分子发表联名公开信中警告:必须取缔机器人杀手的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。

  这封公开信由未来生活研究所(Future of Life Institute)发起,这个团体致力于缓解人类面临的生存风险,警告人们启动人工智能军备竞赛的危险。公开信中谈到人工智能技术已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。

  而早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。

  霍金也许对人类和科技的未来是悲观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技能帮这个种族在外星球继续繁衍。

  让我们别忘记霍金的预言和警告。

霍金家人发表声明:他的勇气与坚持鼓舞了全世界



  据美国《时代周刊》报道,英国著名物理学家史蒂芬霍金去世,享年76岁。霍金家人发表声明,称他的勇气与坚持鼓舞了全世界。

  据英国《卫报》报道,霍金的突然去世已经得到其子女的证实。霍金生前曾患上肌肉萎缩性侧索硬化症,全身瘫痪,不能言语。霍金的孩子的声明中写道,他的勇气、坚持以及他的杰出及幽默鼓舞了世界各地的人。声明中写道,我们将永远怀念他。

  史蒂芬威廉霍金(Stephen William Hawking),1942年1月8日出生于英国牛津,英国剑桥大学著名物理学家,现代最伟大的物理学家之一、20世纪享有国际盛誉的伟人之一。

  霍金21岁时患上肌肉萎缩性侧索硬化症(卢伽雷氏症),全身瘫痪,不能言语,手部只有三根手指可以活动。1979至2009年任卢卡斯数学教授,主要研究领域是宇宙论和黑洞,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,在统一20世纪物理学的两大基础理论爱因斯坦创立的相对论和普朗克创立的量子力学方面走出了重要一步。获得CH(英国荣誉勋爵)、CBE(大英帝国司令勋章)、FRS(英国皇家学会会员)、FRSA(英国皇家艺术协会会员)等荣誉。

  2012年4月6日播出的热播美剧《生活大爆炸》第五季第21集中,史蒂芬霍金本色出演参与了客串。2017年为英国BBC录制纪录片《探索新地球》。物理学家斯蒂芬霍金11月6日表示,技术有望逆转工业化对地球造成的一些危害,有助于消除疾病和贫困,但人工智能需要加以控制。

  霍金在2011年接受美国著名知识分子视频共享网站BigThink访谈时,称地球将在200年内毁灭,而人类要想继续存活只有一条路:移民外星球。霍金表示,人类如果想一直延续下去,就必须移民火星或其他的星球,而地球迟早会灭亡。至于这个时间期限,霍金预言,地球将在200年内毁灭。此消息一出,引起坊间热议。

  73岁的霍金因患有运动神经元疾病,导致肌肉萎缩及瘫痪。霍金近年力撑安乐死,主张人们有权决定自己的生死。霍金近日受访时透露,若觉得已对世界再无贡献,或成为至爱的负累,他会考虑用协助自杀(Assisted Suicide)的方式,结束生命。

 

B
Biangbia
1 楼
人离不开重力氧气和水,这些不是凭想像就能获得,宇宙中存在宜居的星球的概率是1,但能在1亿年内找到这个星球的概率接近0。 人工智能受控于人时的危害不会超过核污染,而不受控于人的核武器和生物技术的危害不低于人工智能
l
leslieking
2 楼
让我们记住这位伟人对未来的警告,霍金过世了,要记住他的警告:霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。
w
wx3000
3 楼
科幻电影看多了。人如果破坏地球后寻找新家的话,将来也会破坏新家,倒不如从终止破坏行为上找对策。
青山留夕阳
4 楼
此刻,全人类向您默哀!!!
N
Near50
5 楼
伟人
秦城典狱长
6 楼
走好,不送
燕超尘
7 楼
既然他认为地球在200年内就会毁灭,那还有什么必要警惕人工智能,前后矛盾!
栾世清
8 楼
科学家到了他那境界就变了想象家。 以科学家的身份/说服力讲想象的事情就很难说好事坏事。
走马读人
9 楼
萎缩 vs.凋萎 /i/ vs.?
b
bia
10 楼
assisted suicide?
走马读人
11 楼
凋谢乾枯口 死气沉沉萎 精神从何来 求生靠圣水
低智商猪头
12 楼
楼下,200年内地球毁灭不代表人类毁灭;人类如果继续存在的话,就必然与人工智能产生关系,这种关系是机遇和威胁的结合体。人类需要依靠自身的理性和直觉来提早布局,控制人工智能的发展。有什么不对吗?霍金在学术领域的成功比不上他在科普领域的贡献,时间简史和果壳中的宇宙,让多少人对物理产生兴趣,这些贡献很重要,更何况在他身残志坚的情况下,积极乐观的人生态度,更值得我们学习。
八戒.
13 楼
那么多人,搬家需要大量火箭,这些火箭喷射物本身足以烧死所有人了。
r
rdsman
14 楼
八戒,搬家时只有苗条的人才能登上飞船...
走马读人
15 楼
時間簡史 pp256 解密英漢字 pp200 + 通天塔基 pp125 后者目前是不为多数理解加有意排斥的,历史将证明孰是孰非.
D
DEFAULT
16 楼
基本上能够说出“地球会在200年后毁灭”是非常伟大且有智慧的,不信你等着瞧。
走马读人
17 楼
新生思想从来受到两种对待: 迅速接受,因为与权威们不谋而合; 排斥抵制,因为权威们尚未在此下足功夫。
走马读人
18 楼
语言似乎简单,幼儿即可牙牙学语, 实际上语言学尚在初级阶段。 任何自以为是的学阀必将被驳斥得体无完肤.
e
eachnet88
19 楼
和达尔文一样的臆想家。和许多所谓的哲学家一样,坚持无神论到最后只能预言地球和他一样很快灭亡。
A
AsiaRanch
20 楼
医学界要做的事情太多了。
路边的蒲公英
21 楼
霍金智商有问题,计划生育比离开地球容易得多。不过阿三数量越来越多也的确是个问题。
穿
穿越云端
22 楼
移民外星球?去哪?这是人类说干就能干成的吗? 他为什么不呼吁全球人类进行计划生育?这不才是更可行,更现实?
燕超尘
23 楼
就算人类能成功找到可以移居的星球并且有办法把所有地球人都弄过去,地球人怎么知道那个星球上哪些是食物,难道以为外星球的食物和地球上长得一样?估计地球人还没搞清楚哪些东西可以吃就已经饿死了
燕超尘
24 楼
那个星球的环境有没有好到大家可以住在大自然里而不需要房屋?如果不是,刚搬过去的时候怎么办?万一会下雨怎么办,大家都淋着吗?如果造房子哪些是建筑材料知道吗?这个要摸索多久?
虽然
25 楼
不必担心,人类文明将由机器人传承下去
非否
26 楼
楼下clueless的不少。 离开地球的重要性在于勿把所有鸡蛋放在一个篮子里,不是人类从地球搬家。 警惕AI是因为机器智能已在多领域被证明发展速度和潜力远超人类。AI和人比如同成人和toddler比。见过三岁小儿控制成人的吗? 把AI和核、生物武器比是根本不懂AI的威胁。简单说,后两者不会主动追着人类到另一个星球。 另外,宜居星球与其说寻找不如说是改造。搜Terraforming
吃素的狼
27 楼
盲目崇拜任何人都是误导。 当年牛顿也有犯迷糊的时候,何况霍金。
n
noconfusion
28 楼
This guy has lost his mind long time ago.
z
zzbb-bzbz
29 楼
大阴帝国御用咳血家,呕心沥血给世人洗脑,临死还不忘记祸害人类
W
WWTP
30 楼
还是别去祸害其它星球了。另外,人工智能是不可能停止的,太多聪明人想当上帝了。