人工智能
霍金与人工智能,霍金与人工智能的关系
2024-12-16 21:45:08 人工智能 0人已围观
大家好,今天小编关注到一个比较有意思的话题,就是关于霍金与人工智能的问题,于是小编就整理了3个相关介绍霍金与人工智能的解答,让我们一起看看吧。
霍金生前最担忧的“武器”人工智能,在世界各国都进展顺利,霍金的警告在理吗?
霍金的警告不是没有道理,首先,人工智能的发展是人类探索未知,勇敢挑战自然的强烈欲望,人工智能本身也是把双刃剑,当我们人类利用好了就能为自己创造出无穷尽的价值,利用不好那就会给全人类带来灾难,这种说法并不是夸大其词,我们自己可以想象的到那种情景的发生会带来什么样的后果!
从另一个角度说,人工智能也有强弱之分,能够在很多人的心思以为人工智能就是有智慧的机器人,其实不然,从实质下去讲,弱的人工智能和斧头锤子是一样的,都是人类的工具,所不同的是锤子和斧头只是体力劳动工具,而弱的人工智能则可以协助人类从某些脑力劳动中解放出来!强人工智能则是能系统性的代替人类某方面的智力逻辑思考,并做出执行行为,假如这些强人工智能再次发展,学会了自我学习,反思,那就真的危险了。真的到那时候灾难也许不会太远了,可能我有点杞人忧天吧。
我觉得有道理,人和人在认知不同的情况下,看到同样的事物,会有不同的想法。世界上能达到霍金那个水准的人并不多,他接触到的层面我们这些普通人看不到,他有顾虑是因为比我们看的多。
在理,生于忧患死于安乐,科技总要往前走,叫人提防并不是不做,叫人做也不代表可以完全信任。克隆人美女仆人也应该普及,但是同时也要提防,要提防并不是不做,要做也并不是可以不考虑后果乱做。
如何看待霍金去世时留下的对人工智能的预言?
没价值,西方人就是说大话,听起来好像有道理,品味一下什么滋味都没有。听习惯了,也就当没说!
西方的宇宙大爆炸,才几天时间,就成了主流。东汉时期张衡《灵宪》、《草惘论》;范晔《张衡传》;更早的伏羲画卦。怎么了?不是人类文明历史啊?我强调中国传统文化《张衡传》,是世界之迷地震初心,有人说我自大。是我自大吗?一个小草民。是中国传统文化的伟大,范晔《张衡传》里:《地震为什么会动》,超越了西方《壶盖为什么会动》。是先有的《灵宪》还是先有的宇宙大爆炸?今天国外学成回来博士后,还指出雾霾聚成团,成为星球。这是现代科学验证《灵宪》。所以地球哪有板块?地震跟一个假设构造有关,这不就是谣言吗?
霍金预言预言很多,现在我驳斥他,就是因为挖掘出,中国传统文化【震】的存在!老祖宗留下【震】文化遗产,西方都没听说过,地震局有人说地震仪不是预报地震的。是金子总会发光的,传承1800年是个奇迹,我挖掘十年也是个奇迹,更奇迹的是让国家知识产权局给否认了,网上公开驳回。有法不依,公权力藏私利。驳回还让我复议!我只掏钱一次合法费用,地震预报专利是公益性防震减灾,就评我的觉悟,做了我该做的,已经做完了。
真对霍金预言,再联想到震文化,这预言没有根,沙滩上房子没基础。霍金就好像住在自家房子,评论美国9.11大厦。如果把震文化能溶入霍金预言,那霍金是人类顶级科学家,不能溶入、格格不入,霍金这辈子就是个伪科学家。
国家自然灾害防御委员会,名誉主席陈一文,看过我论述震文化遗产,他评论说:“如果是这样,历史就得重写”。现在震文化遗产,,不是地震局的问题,是气象局;教育局的问题。地震局人之道为而不争。
霍金为什么警告人类不要进行人工智能,人工智能真的有那么可怕吗?
是的,现代机器智能的发展已经突飞猛进,进步速度极快,已经超乎我们的想象,硬件技术的突破为人工智能提高了良好的基础,软件的发展已经超过人的智能,如围棋的智能软件已经超过人。
会自我学习的软件已经出现,并不断提高,向中国太湖之光超算计算机一旦与这样的软件结合,将无法想象会出什么样的结果。
人类发展到今天,回顾历史,战争的规模和武器的杀伤力越来越大,并不断提升,已经拥有毁灭地球的能力。 智能武器,智能战士将很快出现与网络联通已是必然。所有的系统都将与网络联通这是未来趋势。
人类的野心总是在不断的膨胀,一旦被这样的人或国家利用将是人类的一场灾难。另外智能软件的辩识能力及软件的自我意识形态如何控制都将是一个难题,一旦智能软件的意识形态变得和野心家一样,通过网络控制智能战士及,智能武器系统或其它重要系统如核电等人类将无法控制,那将是人类毁灭之时,我们拭目以待。
任何事物的发展都是利弊共存的,其中也包括科学,包括人工智能。只不过在发展到一定程度后要权衡是利大于弊还是弊大于利,毕竟我们希望科学能够使人类进步。
最近两年,人工智能发展火热,从智能家居、伴读机器人、无人机、无人驾驶汽车再到长得和人很相似且能够和人类自由对话的Sophia等等,人工智能的发展速度确实是惊人的。
不过,科技的进步的同时,也需要考虑伦理道德等因素。
也许是电影看多了,总感觉如果任由人工智能发展,有的时候可能就会出现电影上所描述的机器人成为了另外一种“人类”,参与自然人的生活,由于人工智能的算法能够快速匹配知识,所以机器人的思考速度会远超人类,到这个时候,如果人类没有掌握控制权,那么真的会挺可怕的。
《西部世界》中形象的诠释了人工智能和人类共存的过程中出现的问题,人工智能的发展代表了人类科学的进步,同时我们要兼顾发展过程中出现的隐患,不要到时候亡羊补牢。
以上仅代表个人观点。
任何事物都有两面性,人工智能也是如此,它在给人类带来便利的同时也同样会有负面作用。作为万物之灵的人来讲,有生以来在这个星球上没有受到过来自智能方面的挑战,而这次好像要来。霍金的担心和警告不无道理。
机器的智能会加速发展,超越人类只是时间问题,这是一定的。关键在于,高度发展的人工智能能否被人类所控制,如果可以控制,则不管它如何发展,人类没有必要过度担心。
从现实角度上讲,人工智能的发展不会因为担心和警告而停止,这并不以人的意志为转移,这是人的本性所决定的。所以未来人类面对的一定是发达的人工智能时代,警告或许可以让人类增加某些对人工智能发展方向的约束,但是,人工智能超越人类智慧的那一天一定会到来。
关键的问题来了,如果那一天到来,我们能够控制吗?本人认为,应该是可以控制的,所以并不可怕。
人类之所以担心人工智能的发展会带来灾难,是因为人类对自己认识而得出的答案,因为人类本身会“作恶”,所以推断未来的智能机器同样会“作恶”。那么人类为什么会作恶呢?原因是人类自身存在一个万恶之源——“我”,有了“我”,才有了欲望,有了欲望才有了万恶。假如没有这个“我”,世界将是另一番景象。
那么,未来的人工智能会不会也产生“自我意识”是关键问题,如果是否定的,那么人工智能将永远受人类支配,人工智能也不会给人类造成过分的危害。
人的自我意识是如何产生的,现在人类本身还搞不明白,只有人类把这个事情弄明白,才有可能让机器有“自我”,否则机器不可能产生自我。
人类能够明白为什么会产生“自我”,看似很简单的问题,其实不然。这可能是人类对宇宙、对生命的终极认识问题,或许是人类永远的追求目标,这个目标或许是人类存在的意义所在。所以,如果人类存在,这个目标或许永远不能达到。就是说我们永远也不能了解我们为什么会有自我,所以人工智能永远不会有“自我”存在,不会自我产生欲望,所有的行为都是来自人类的设计。还有一点,如果人工智能是被制造,那么它一定会永远处在被动地位,如果进化到类似于自然生成,那么它在地球这个环境之下,它也绝对不会超过人脑的进化。所以,人工智能是可控的,过度的担心没有必要。
人类最担心的应该是自己,一切的恶都来自于我们自身。(胡思乱想见笑了)
到此,以上就是小编对于霍金与人工智能的问题就介绍到这了,希望介绍关于霍金与人工智能的3点解答对大家有用。