当前位置:IT09数码网 > 热点 > 数码快讯 > 正文

霍金警告机器人“起义叛乱”:潜藏威胁实验室中悄悄酝酿

http://www.it09.cn 时间:2016-07-14 15:44来源:IT09数码网

史蒂芬·霍金宣称,如果没有适当的防卫措施,人工智能将对人类造成难以控制的威胁。他警告称,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。

  史蒂芬·霍金宣称,如果没有适当的防卫措施,人工智能将对人类造成难以控制的威胁。他警告称,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。

随着人工智能的发展,机器能独立选择并针对目标开火的可能性也逐渐增高。未来的自动武器或“杀人机器人”,或许很快就能从科幻电影(图中为《终结者》电影画面)走向现实。

  随着人工智能的发展,机器能独立选择并针对目标开火的可能性也逐渐增高。未来的自动武器或“杀人机器人”,或许很快就能从科幻电影(图中为《终结者》电影画面)走向现实。

这并不是霍金第一次警告机器人“起义”的危险。就在去年,他警告称随着人工智能逐渐学习着为自己考虑,并且更加适应环境,人类正面临着不确定的未来。

  这并不是霍金第一次警告机器人“起义”的危险。就在去年,他警告称随着人工智能逐渐学习着为自己考虑,并且更加适应环境,人类正面临着不确定的未来。

  新浪科技讯 北京时间7月9日消息,据国外媒体报道,按照史蒂芬·霍金教授的说法,一场潜藏的威胁正在硅谷的技术实验室中悄悄酝酿。人工智能伪装成数字辅助设备和自动驾驶的交通工具,正在人类社会中逐渐站稳脚跟,它们或许有朝一日将导致人类的终结。

  这位世界知名的物理学家警告称,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。在接受采访时,霍金表达了对人类未来的担忧,“我不认为人工智能领域的进步一定是有益的。”

  霍金于近日参加了在加那利群岛举行的“斯塔尔慕斯节”(Starmus Festival),该活动的宗旨是使公众更加接近科学。他在采访中说:“一旦机器达到了能够自我进化的关键步骤,我们就无法预测它们的目标是否会和我们一样。人工智能具有比人类更快进化的潜力。我们需要确保人工智能的设计符合伦理,并且有到位的防护措施。”

  这并不是霍金第一次警告机器人“起义”的危险。就在去年,他警告称随着人工智能逐渐学习着为自己考虑,并且更加适应环境,人类正面临着不确定的未来。这位物理学家在参加伦敦的一次活动时说:“人工智能的全面发展可能意味着人类的终结。”

  去年早些时候,霍金表示人工智能领域的成功“将是人类历史上最重大的事件,不幸的是,这可能是最后一次。”他认为,数字个人助理如Siri、Google Now和Cortana等的发展,仅仅是一支数字技术大军的先兆,而这支大军会在接下来几十年里涌现出来。

在谈到电影《超验骇客》(Transcendence)时,霍金表示将这部电影误认为只是科幻故事将是“历史上最严重的错误”。

  在谈到电影《超验骇客》(Transcendence)时,霍金表示将这部电影误认为只是科幻故事将是“历史上最严重的错误”。

2015年,伊隆·马斯克将人工智能的发展比作“召唤恶魔”。这位特斯拉的创始人此前就发出警告,称人工智能技术有朝一日会比核武器更加可怕。

  2015年,伊隆·马斯克将人工智能的发展比作“召唤恶魔”。这位特斯拉的创始人此前就发出警告,称人工智能技术有朝一日会比核武器更加可怕。

  霍金也不是唯一持有悲观态度的人2015年,伊隆·马斯克将人工智能的发展比作“召唤恶魔”。这位特斯拉的创始人此前就发出警告,称人工智能技术有朝一日会比核武器更加可怕。

  不过,在接受英国广播公司的采访时,霍金教授指出人工智能技术也会有巨大的潜在好处,能帮助人类消除战争、疾病和贫穷。在最近接受拉里·金的采访中,他表示人类最大的威胁其实是自己的软弱。早在2010年接受拉里·金的采访时,霍金就提出人类两个最大的危险是贪婪和愚蠢,而在最近的这次采访中,他表示一切并没有太大改变。

  “我们当然没有变得少点贪婪或少点愚蠢,”霍金说,“六年前,我曾经警告过污染和人口过度拥挤。在那之后,情况变得更糟。以这种速率,2100年时人口将达到110亿。空气污染在过去五年变得更加严重。”说到人类面临的最严重问题,霍金表示,是“空气污染的增加……以及二氧化碳水平的上升。”(任天)

    【免责声明】本文仅代表作者个人观点,与IT09数码网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件内容有任何疑问或质疑,请联系本网将迅速给您回应并做处理。