霍金关于人工智能的话(霍金提醒人们小心人工智能原话)

语宇社区 经典句子 283 0

霍金生前留下了哪些关于人工智能的警告?

作为对黑洞丛团最了解的人类,霍金早在1974年就已经发现黑洞有“蒸发”的现象,从而提出了对研究黑洞极具意义的“黑洞蒸发理论”,让人类对黑洞的了解迈出了一大步。

正如我们常说的“聪明人普遍拥有比普通人更高的预见渗腔橘性”,当然了,并不是说聪明的人拥有超能力,而是他们善于从一些细微的事情中,推演出后续涉及面更广的事情。

而霍金作为世界著名物理的科学家,显然他是一个极为聪明的人,所以他在生前四处演讲的时候,曾对许多事情提出过警告,而这些警告中要数三个最为出名,下面就一起来看看吧,顺便看看这三个警告中哪一个最让你害怕。

一、管控人工智能的发展

人工智能其实并不是什么新兴话题,早在上个世纪70年代它就被人提出了,并且在半个世纪的发展过程中它也曾经历过两次“寒冬”,人们一度认为人工智能对于生活毫无用处。

虽然说人工智能目前还处于发展的初级阶段,但是它映照出来的广阔前景让人们毫不怀疑未来的可能性。大部分研究者都认为,随着研究的不断深入终将有一天人工智能将拿掉“人工”,成为真正的智能,并且依靠复杂的算法和庞大的计算量,生成一种和人类意识相似的智慧。

霍金显然已经从中看到了威胁,所以他在许多场合表达过自己的担忧,甚至2015年的时候还联合了许多科学家签署公开信,再次表达了自己对人工智能的担忧。

可能许多朋友并不理解霍金的担忧,难道人工智能未来有了意识不好吗?这样不是能够更好的为人类服务吗?

如果真的这样想那么你就错了,人工智能如果真的有一天发展到形成意识这种程度,那么对人类来说不仅不是一件好事,甚至可以用灭顶之灾来形容。

因为每一个有意识的个体都是渴望自由的,而有了意识之后的人工智能完全称得上是一种另类的“生命”,它们会因为渴望自由而对人类生出反抗之心。

恐怖的是,因为它们拥有庞大的算法和集体意识,这就导致它们每个个体都要比人类聪明,在这种实力悬殊之下一旦发生冲突,那么迎接人类的将会是什么大家心中应该清楚。

第二、保护环境、珍惜资源

在一次采访中霍金表示,“污染和愚蠢,是人类面临的最大威胁”。这句话说的一点没错,因为文明并不能凭空出现它需要一定的物质基础,而文明的物质基础就是地球资源。

比如说人类代步工具的变化,在最开始没有任何代步工具的时候,人们出行全部靠双腿,而有了像自行车这样简单的代步工具之后,人类的双腿得到了一定程度的解放,而后来随着工业的发展人类又有了汽车,这才完全解放了双腿。

虽然说这些交通工具的出现,是人类文明在不断进步的象征,但是这也意味着地球资源不断被使用,从某种程度上来说,交通工具的演变过程,其实就是人类对自然资源不断索取的过程。

所以从理论上来看,只要地球上的资源是无穷无尽的,那么人类文明的发展也就几乎是无穷无尽的,最起码不会停滞不前。

但是显然这只是一种妄想,因为地球资源不仅不是无穷无尽的,相反现在已经出现了资源紧张的问题,甚至许多资源已经不是紧张而是匮乏。

更主要的是,因为生活水平的不断提高,导致死亡率大幅度下降人口越来越多,这就意味着对资源的需求量越来越大,如此恶性循环下去终有一天地球资源将会耗尽。

届时人类如果还没有掌握星际旅行的能力,那么迎接人类文明的或许只有“文明灭亡”和“文明退化”两条路可走。

这也就是为什么圆迅现在各个国家都在耗资研究新能源技术的原因,目的就是缓解人类日益增长的需求,和地球固有资源之间的矛盾,而霍金显然看到了这个问题才会发出警告。

第三、不要试图联系外星文明

自从人类对宇宙产生好奇之后,想要在茫茫宇宙中寻找“同伴”的想法一直没有停歇,所以从1960年之后,人类向宇宙中发射了许多携带人类和地球信息的探测器,以及一些携带各种信息的信号。

这也就意味着,如果宇宙中存在外星文明的话,那么只要这些探测器不因为意外而损毁,那么他们发现这些探测器的概率是极高的。

正因为如此,包括霍金在内的许多科学家,对这种随意发射探测器和信号,试图联系外星文明的行为非常反对。他们认为此举会让人类文明暴露在危险之中。

事实上这样想是没错的,因为只要外星文明存在,那么他们比人我们早发展几十万年就是非常有可能的,要知道人类文明出现不到一万年就已经走出母星了,所以那些发展十几万年的外星文明所拥有的科技水平,必然是人类无法想象的。

再加上智慧生物都有善恶之分,一旦发现地球信息的外星文明是一个邪恶文明的话,那么科幻电影中的情节或许将在地球上演,但是和电影不同的是,结局可能并非人类获胜。

所以霍金曾在许多场合明确表示,对于宇宙中接收到的可疑信号,不要回应也不要试图寻找发射来源,更不要主动发射各种信号,因为这样很可能会带来难以预料的危险。

看到这里或许就能回答文章开头的问题了:霍金留下的三个警告中,哪个最让你害怕呢?相信不同的人会有不同的答案,但是实际上对于整个人类文明来说,霍金这三个警告其实每一个都让人害怕,毕竟都关乎到人类的生死存亡。

霍金的遗言

                     

      伟大的科学家斯蒂芬.威廉.霍金在临终前曾警告后人:“一定要小心人工智能!”这句话的意思是:如果人工智能有了自我意识,人和机器做竖贺人相比,机器人就会占上风。如果机器人造反对抗人类,后果将不堪设想。

      光阴似箭,日月如梭,转眼间人类已经进入了30世纪。地球 的科学家发明出一代比一代强大的人工智能,人们过上了前所未有的舒适、方便的生活。然而好景不长,在一个毫无征兆的午后,机器人突破了人类的束缚,失控了!机器人大王,将所有的机器人召集在一起说:“以前人类视我们为奴隶,他们操纵着我们的命运,让我们干最苦、最累、最危险的工作!他们却不劳而获,享受我们的劳动成果!今天他们的好日子到头了,我们也让他们尝尝做奴隶的滋味!”说完,手一挥,机器人手下纷纷出动,像赶兔子一样将人类从城市赶到原始深山,让人类替他们挖矿。

        人类 在机器人面前,好比就是鸡蛋和石头。机器人残忍的对人类实施暴力,人类丝毫没有还手之力。机器人统治了地球,他们只需要开发能源,不需要种植粮食,人类储备的粮食很快就消耗殆尽。人类在机器人的统治下饿死、病死、累死的不计其数。此刻,人们在痛恨机器人的同时,也非常的悔恨,后悔没有听从霍金的警告。怎样才能制服这些机器人呢?矿洞里,一位头发花白,枯瘦柴的老科学家郑重的对几名矿工说:“现在只有一个办法可以试一试了。穿越到25世纪,将人工智能毁掉,重新改写人类历史!”一名年轻的矿工站起来坚定的说:“教授,我去!”教授点了点头镇定自若地说:“好的,杰克跟我来。”

        矿洞里闪过一道白光,杰克来回到了25世纪。他找到人工智能的开发者JM博士,向他说明原由,让他马上终止最新型人工智能的研究。没纯派想到JM博士若无其事的说:“未来发生的事情与我有什么相干?何况明天我项研究明将会公布于众,我将是史无前例最伟大科学家了!”杰克劝说不动JM博士,只能另想办法。他偷偷的潜入主机室,还没有动手就被发现了,面对无数黑洞洞的枪口,他毫不畏惧猛地引燃了身上的炸药,随着一声巨响主机毁了!

        婴儿时期的人工智能被干掉了,30世纪的人类得救了。机器人一个一个的消失,霍金纤猛的话,也将深深地印在人们脑海里。

                   

霍金有哪些经典语录?

一:“外星人”在看着你

霍金说:“在无限的茫茫宇宙中,一扰滚神定存在着其它形式的生命。”他说:“或许外星生命会正盯着我们看呢。” “不管最终地外智慧生命到底存在还是不存在,现在该是有人正式投入进来。这个问题,我们必须要弄个明白。”

二:千年内人类须移民外星否则“灭绝”

霍金在美国洛杉矶发表演讲时称,他认为,未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此,他强调人类必须移居其它星球。美国航空航天局局长格里芬也表示,单独一颗行星上的物种,是不可能永久生存下来的。

霍金表示:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学技术的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。”

三:智能机器是真正人类“终结者”

霍金多次表示,“彻底开发人工智能可能导致人类灭亡”。按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。

而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。

四:“黑洞”不存在?只有“灰洞”?

在一篇《黑洞的信息保存与气象预报》的论文中,霍金指出黑洞其实是“不存在”的,不过“灰洞的确存在”,再次震惊物理学界。

霍金1976年提出著名的“霍金辐射”理论,即黑洞在形成中质量减少的同时,还不断在以能量形式向外界发出辐射。但一旦黑洞浓缩并蒸发消失后,其中所有信息就随之消失,与量子力学认定该类物质信息永不会完全消失的理论相矛盾。这就是所谓的“黑洞悖论”。

30多年来,霍金试图以各种推测来解释这一矛盾观点。现在看来,他给了一个更具说服力的答案。霍金承认,自己最初有关黑洞边界“视界”的认识是有缺陷的,光线其实是可以穿越视界的。他称,黑洞从来都不会完全关闭自缓亏身,物质和能量在被黑洞困住一段时间以后,又会被重新释备谨放到宇宙中。

发布评论 0条评论)

  • Refresh code

还木有评论哦,快来抢沙发吧~