人工智能
霍金对人工智能,霍金对人工智能的名言
2024-12-17 12:17:07 人工智能 0人已围观
大家好,今天小编关注到一个比较有意思的话题,就是关于霍金对人工智能的问题,于是小编就整理了2个相关介绍霍金对人工智能的解答,让我们一起看看吧。
霍金生前最担忧的“武器”人工智能,在世界各国都进展顺利,霍金的警告在理吗?
霍金的警告不是没有道理,首先,人工智能的发展是人类探索未知,勇敢挑战自然的强烈欲望,人工智能本身也是把双刃剑,当我们人类利用好了就能为自己创造出无穷尽的价值,利用不好那就会给全人类带来灾难,这种说法并不是夸大其词,我们自己可以想象的到那种情景的发生会带来什么样的后果!
从另一个角度说,人工智能也有强弱之分,能够在很多人的心思以为人工智能就是有智慧的机器人,其实不然,从实质下去讲,弱的人工智能和斧头锤子是一样的,都是人类的工具,所不同的是锤子和斧头只是体力劳动工具,而弱的人工智能则可以协助人类从某些脑力劳动中解放出来!强人工智能则是能系统性的代替人类某方面的智力逻辑思考,并做出执行行为,假如这些强人工智能再次发展,学会了自我学习,反思,那就真的危险了。真的到那时候灾难也许不会太远了,可能我有点杞人忧天吧。
我觉得有道理,人和人在认知不同的情况下,看到同样的事物,会有不同的想法。世界上能达到霍金那个水准的人并不多,他接触到的层面我们这些普通人看不到,他有顾虑是因为比我们看的多。
在理,生于忧患死于安乐,科技总要往前走,叫人提防并不是不做,叫人做也不代表可以完全信任。克隆人美女仆人也应该普及,但是同时也要提防,要提防并不是不做,要做也并不是可以不考虑后果乱做。
霍金预言,“彻底开发人工智能可能导致人类灭亡”。你认为霍金的这一预言会实现吗?
谢谢朋友邀答。
曾经的科学巨匠,对普通物理和量子物理作出了巨大贡献的“霍金”,终于结束了他伟大而痛苦的一生,回归了宇宙的怀抱。
而在他离开我们这个现实世界的头几年,“霍金”在开发“人工智能”和我们的天眼计划,导致地球被外星生物发现,还有对“外星人”的探索方面,多次发声。一是“外星人”可能会毁灭地球。另一个就是“全面开发人工智能可能会导致人类灭亡”。还好,大师说的是“可能”,而不是“肯定”。
作为一个在科学领域举足轻重的人,他对科学的贡献无可置疑,但是我们不能因为某人曾经的贡献,就对其盲目的崇拜。
就“人工智能”而言,既然是“人工智能”,就说明这个“智能”,是人类赋予给机器的,所以,“人工智能”超越人类,最终毁灭人类,应该是不可能的。如果说“科技进步到终极,可以毁灭人类、地球”,这个说法应该是正确的,因为现在已经可以了。但导致“人类毁灭”的绝不是“人工智能”,只能是人类自己。
至于是否有“外星人”的存在,这个不用怀疑,宇宙中,人类肯定不是唯一的“智慧种族”。
关于这一点,包括“爱因斯坦”在内的很多科学家,晚年都开始信奉和研究“神学”。而所有与“神”有关的传说和著作,包括“圣经”。其中很多关于“神”的描述。都与传说当中的“外星人”相吻合。
霍金在2017年发表了关于人工智能将毁灭人类的言论,在他认为计算机可以模仿人的智能,并在不久的将来超越人类智能。我们现在无法确定,人类最终是得到人工智能的帮助还是被毁灭?
在去年的浙江乌镇的围棋峰会上AlphaGO以3:0战胜了世界围棋冠军珂杰,以及美国佐治亚理工大学开发出的机器人,可以弹奏木琴,不仅可以独立演奏,还可以配合合唱团的演奏等等,让我们看到人工智能的智能。
早在2005年,瑞典科学家成立了一项“蓝脑计划”,该计划是一个设想复制人类大脑的计划,以达到治疗帕金森氏症的目的。制造科学史上第一台会“思考”的机器,它将拥有感觉、痛苦、愿望甚至恐惧感。如果蓝脑计划成功了,意味着我们可以通过电脑来复制人类的大脑,关于人工智能的前景可以说是不可想象的。
科学技术是可以造福于人类,也可以用来祸害人类。实际上人类早就有毁灭自己的人力了,如果发生战争,现有的核武器会把人类毁灭很多次。
人工智能和其他科学技术一样,是福是祸取决于人类怎么使用它,如果将来人工智能能毁灭人类,那也不是人工智能自己的选择,而是人工智能技术被人类滥用,比如在核武器上使用。
那些认为人工智能总有一天会控制人类,甚至去毁灭人类,我想是想多了!
斯蒂芬.威廉、霍金走了,带着全世界人民对他的思恋,希望他在天国可以自由自在的旅行。霍金先生给我们留下许多宝贵的精神财富和善意的衷告,世界上太需要这样一位先知先觉的思想哲人啦。关于人工智能将来会超越人类智慧向话题一值是科学家们观注的热点,工具的发明是人类手臂的延伸,人工智能的出现是人类智慧的扩展。目前,最先进的计算机秒计算速度不断刷新计录。早就超过了人类大脑计算速度,在科学技术诸多领域为人类作出巨大贡献。有科学家耽心智能机器会不断加速度重新设计自己,人类受生物进化速度影响,最终被机器人超越和打败。为什么会有这种想法呢?因为人类基因中携带自私,贪妾遗传密码。几千年来人类社会征战杀伐掠夺财富就是有这些遗传基因,另一个方面也促成了人类社会不断进步和创新。机器智能只是我们改造世界的工具,不管怎样智慧也是为人类服务的,不会存在思想和欲望。现在人类社会是纯生物阶段。如果为来科技发展了,把人类大脑移植到机器中进入人机时代,也只是延长了大脑生命,增强了生存能力,智慧不可能有太大超越,既使大脑中还存在自私,贪婪基因,但享受的生物躯体没了,这种自私基因也就无的放矢,不足为患矣!
谢谢悟空问答邀请。首先向斯蒂芬霍金这位伟大的科学家致敬,“他的工作和成就将会持续影响这个世界多年,他坚韧不拔的勇气、他的幽默感激励了世界各地的人们”, 他说过,“果它不是你所爱的人的家,那它就不是宇宙”。人们会怀念他的。他科学界最耀眼的明星,他的见解塑造了现代宇宙学,激发了全球数百万观众的眼球。
2016年3月的“人机大战”过后,一些军事专家预言,未来战场上,人类和机器人、机器人和机器人作战的场景将会成为常态,美国国防部一名官员对媒体表示,随着军事活动向智能化延伸,最终可能导致机器人能够自主地决定使用武器。霍金告诫人们:“彻底开发人工智能可能导致人类灭亡。”尽管被媒体热炒的“机器终结论”看起来像是杞人忧天,但军事智能化无疑是一把“双刃剑”。世界确实充满了未知,对这种风险人类也应谨慎对待。
“彻底开发人工智能可能导致人类灭亡”的说法,这种可能性是存在的,但是不能够害怕。为什么这么说哪,第一,我们片面的截取了霍金发表的部分言论作为论点。他2017年在4月27日的GMIC大会上做了演讲并回答了一些关于人工智能的问题,表示了对人工智能发展的担忧,但同时他也认为人工智能的发展“本身是一种存在着问题的趋势,”也提出了一些期望,“而这些问题必须在现在和将来得到解决。”所以,人工智能的崛起要么成为人类历史上最好的事,要么成为最糟糕的事情。是好是坏我们仍不确定,但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。研究人工智能要规避风险,而不是推断人工智能会导致人类灭亡;第二,机器只是工具,是纯理性的,不同功用的机器人只是在执行不同的任务指令,不论多么智能,也只是能处理更复杂的指令。第三,要想毁灭人类,毁灭我们这个地球,只能是我们人类自己。因为即使没有人工智能,全球核武器国家拥有近22,400枚非部署实战核弹头,只要人类按下一个按钮,他就会发射,从而引发一种毁灭;而机器不会主动操作,除非人类在编写程序时故意留下漏洞。
所以我们不必担心人工智能的发展。至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到“充分发展”,还有很长的路要走。如何趋利避害是所有人需要考虑的问题。另外一个担忧是由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。而主要是人工智能系统失控的潜在风险,记着,只是失控。
到此,以上就是小编对于霍金对人工智能的问题就介绍到这了,希望介绍关于霍金对人工智能的2点解答对大家有用。