18842388900

网站建设 APP开发 小程序

Article/文章

记录成长点滴 分享您我感悟

您当前位置>首页 > 知识 > APP开发

就目前而言,人工智能不是威胁

霍金每天都在大喊大叫让我们小心人工智能,有些人认为这是危言耸听。他们提出了四个理由。近年来,人工智能的话题一直很热门。在一些科幻电影中,人工智能的发展无法被压制,成为人类文明的终结者。一些大奶牛,如比尔盖茨和霍金,已经警告过人工智能的发展;但是其他人认为人工智能在这个阶段不是威胁。 2014年,SpaceX首席执行官埃隆马斯克在推特上写道:“博斯特罗姆的《超级智慧(Superintelligence)》非常值得一读。我们需要小心人工智能。”同年,剑桥大学宇宙学家斯蒂芬霍金接受了BBC的邀请。采访中说:“全人工智能的发展可能会导致人类的终结。”微软联合创始人比尔盖茨也警告说:“我对人工智能持谨慎态度并持怀疑态度。”人工智能带来的世界末日将如何实施?计算机科学家Eliezer Yudkowsky于2008年出版《全球灾难风险(Global Catastrophic Risks)》:AI未来有多大可能从单细胞生物发展到人类智能?他回答说:“有可能形成一个物理大脑。计算的速度是人类大脑的一百万倍.如果人类大脑加速,那么一年的主观思维将在31秒内。一旦它是完成了,一千年就过去了八个半小时。“Yudkowsky认为如果我们不这样做就太晚了:”当你的神经元完成时,人工智能的时间维度与我们不同。当你想想'我应该这样做',你错过了机会。“

牛津大学的哲学家尼克博斯特罗姆(Nick Bostrom)在他的《超级智慧(Superintelligence)》中提出了一个所谓的最大化纸夹的想法:人工智能被设计用于制作纸夹并在耗尽其原始原材料供应之后它将利用任何可用的原子它的影响范围,包括人类。正如他在2003年的一篇论文中描述的那样,“首先改变整个地球,为回形针制造设施增加空间。”在很短的时间内,整个宇宙由一个回形针和一个回形针制造商组成。

01F3DC8A-DB49-8081-F36A57121B21.jpg

我怀疑这一点。首先,所有这些世界末日的场景都涉及一系列“if-then”事故,任何时候的失败都会被推到所谓的世界末日。英格兰西部布里斯托尔大学电气工程教授艾伦·温菲尔德在2014年的一篇文章中说:“如果我们成功地建立了与人类相同的人工智能,那么如果人工智能充分意识到它是如何工作的那样理解它是否成功如果超级AI意外地或恶意地开始消耗资源,如果我们无法拔掉插头和电源,那么是的,我们可能会遇到问题。这种危险并非不可能。第二,如果按照时间段进行检查,你会发现人工智能的发展远远低于预期。谷歌执行主席埃里克施密特回应马斯克和霍金:“你认为人类获胜了吗?”注意到这个?你不认为人类会关闭。这些电脑?“谷歌自己的DeepMind开发了AI关闭开关的概念,被称为”大红色按钮“,可以用来接管AI。正如百度副总裁Andrew Ng所说(对马斯克的回应),“就像我们甚至不在火星上一样,我们担心火星上会有人满为患。”第三,人工智能的世界末日情景通常是基于关于自然智能与人工智能的误差比较。哈佛大学实验心理学家Steven Pinker在回答2015年Edge.org年度问题“你对机器思维怎么看?”时作了澄清。 “人工智能反乌托邦项目将一种狭隘的阿尔法男性心理学投射到智力概念中。他们认为,超人智能机器人将'放弃他们的主人或接管世界'作为他们的发展目标。 “同样,Pinker说,”人工智能将自然地沿着女性系统——发展,但不会想要消除无辜或主宰的文明。“”第四,暗示计算机将“想要”做某事(例如将世界变为一个纸夹)相当于AI有情感。正如科学作家迈克尔乔罗斯所说的那样:“当人们生活在一个奖励和惩罚的世界里时,我真的想做点什么,包括惩罚我们的不良行为。”鉴于历史上世界末日的预测率几乎为零。再加上几十年来人工智能的缓慢发展,我们已经有足够的时间建立自动防故障系统,以防止任何此类人工智能带来的世界末日。“

网站建设,小程序开发,小程序制作,微信小程序开发,公众号开发,微信公众号开发,网页设计,网站优化,网站排名,网站设计,微信小程序设计,小程序定制,微信小程序定制

相关案例查看更多