线上服务咨询
就目前而言,人工智能不是威胁
发表时间:2019-07-24 17:24:46
文章来源:沈阳软件开发
标签:网站建设 小程序开发 小程序制作 微信小程序开发 公众号开发 微信公众号开发 网页设计 网站优化 网站排名 网站设计 微信小程序设计 小程序定制 微信小程序定制
浏览次数:0
霍金每天都在大喊大叫让我们小心人工智能,有些人认为这是危言耸听。他们提出了四个理由。近年来,人工智能的话题一直很热门。在一些科幻电影中,人工智能的发展无法被压制,成为人类文明的终结者。一些大奶牛,如比尔盖茨和霍金,已经警告过人工智能的发展;但是其他人认为人工智能在这个阶段不是威胁。 2014年,SpaceX首席执行官埃隆马斯克在推特上写道:“博斯特罗姆的《超级智慧(Superintelligence)》非常值得一读。我们需要小心人工智能。”同年,剑桥大学宇宙学家斯蒂芬霍金接受了BBC的邀请。采访中说:“全人工智能的发展可能会导致人类的终结。”微软联合创始人比尔盖茨也警告说:“我对人工智能持谨慎态度并持怀疑态度。”人工智能带来的世界末日将如何实施?计算机科学家Eliezer Yudkowsky于2008年出版《全球灾难风险(Global Catastrophic Risks)》:AI未来有多大可能从单细胞生物发展到人类智能?他回答说:“有可能形成一个物理大脑。计算的速度是人类大脑的一百万倍.如果人类大脑加速,那么一年的主观思维将在31秒内。一旦它是完成了,一千年就过去了八个半小时。“Yudkowsky认为如果我们不这样做就太晚了:”当你的神经元完成时,人工智能的时间维度与我们不同。当你想想'我应该这样做',你错过了机会。“
牛津大学的哲学家尼克博斯特罗姆(Nick Bostrom)在他的《超级智慧(Superintelligence)》中提出了一个所谓的最大化纸夹的想法:人工智能被设计用于制作纸夹并在耗尽其原始原材料供应之后它将利用任何可用的原子它的影响范围,包括人类。正如他在2003年的一篇论文中描述的那样,“首先改变整个地球,为回形针制造设施增加空间。”在很短的时间内,整个宇宙由一个回形针和一个回形针制造商组成。
网站建设,小程序开发,小程序制作,微信小程序开发,公众号开发,微信公众号开发,网页设计,网站优化,网站排名,网站设计,微信小程序设计,小程序定制,微信小程序定制