世界论坛网 > 国际军事 > 正文  
英媒:人工智能武器比核弹还危险 因无情感毫不手软
www.wforum.com | 2018-07-18 20:26:07  世界军事网 | 0条评论 | 查看/发表评论

 

英媒:人工智能武器比核弹还危险 因无情感毫不手软

 资料图:俄军装配有机枪的作战机器人正在测试中

  英国《明星日报》网站7月15日报道称,从SIRI(苹果公司在其产品上应用的一项智能语音控制功能)到自动驾驶汽车,人工智能正日益侵入我们的日常生活。

  报道称,这项技术还可能会启动一场自主的武器军备竞赛,机器已经能够在没有人类干预的情况下自动选择和打击目标。

  网络安全专家罗曼·扬波利斯基博士披露了人类是如何通过追求这项技术将自己置于灾难边缘的。

  他解释说:“人工智能比核战争对人类构成了更大的危险。”

  “核武器很危险,但是它们只是工具——一旦爆炸,就不再有另外的敌对关系。”

  “然而,人工智能不仅是一种工具,而且是一种媒介——它处于一种持续的动态关系之中,而非是单一的危险局势。”

  这名路易斯维尔大学的博士说:“人工智能能够在多个领域构成危险,而且可以动态地适应我们试图消除危险所做的一切努力。”

  报道称,人们担心,一旦主要军事大国开始推进人工智能武器研发,一场全球性的自主军备竞赛将是不可避免的,这种技术轨道的终点是大规模生产的廉价的杀人机器。

  报道称,一个超级智能的人工智能机器不可能展现出爱或恨这样的人类情感,人类也没有理由预期人工智能机器会有意识的仁慈或心怀恶意。

  扬波利斯基博士描述了人工智能会构成危险的两种最有可能的情况:“机器想要获得权力或是类似的东西这种情况不太可能发生——更有可能发生的情况是,黑客和恐怖分子恶意使用,或是有人明确控制机器来执行此类任务。”

  他说:“一种尤其需要关注的情形是,军方的人工智能机器遭到黑客攻击。”

  报道称,另一个值得关注的问题是,人工智能原本被设定做某种好事,但是它为实现自己的目标开发出一种具有破坏性的执行手段。

  例如,如果一个超级智能系统的任务是完成一项雄心勃勃的地球工程项目,其副作用可能是对生态系统造成严重破坏,甚至将人类试图阻止其的行为视为一种需要解决的威胁。

  尽管有人仍对完全自主的人工智能机器是否能够真正实现持怀疑态度,扬波利斯基博士相信这将会实现,这也是越来越多科学家的共识。

  他说:“这很可能会在我们的有生之年实现——大多数人的预测是2045年。”

  斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、比尔·盖茨和许多其他科技大佬,最近都对人工智能构成的危险表示担忧。

(0)
当前新闻共有0条评论 分享到:
评论前需要先 登录 或者 注册
全部评论
暂无评论
查看更多
实用资讯
24小时新闻排行榜
乌军战线快要崩溃了 俄军惊人坦克曝光
习近平和朔尔茨在钓鱼台散步 让人刮目相
以色列导弹袭击后,伊朗马上宣布…
固态电池 开始出现“人传人”现象
国际首次 中国成功研制出这种芯片
48小时新闻排行榜
乌军战线快要崩溃了 俄军惊人坦克曝光
习近平和朔尔茨在钓鱼台散步 让人刮目相
以色列导弹袭击后,伊朗马上宣布…
固态电池 开始出现“人传人”现象
国际首次 中国成功研制出这种芯片
傻眼!女作家在机场被迫脱下戴了15年的“假
通车才3年:中国造价2亿的大桥 风一吹就倒
单亲妈被逼急“想肉偿”抵房租 房东傻眼
突发:全球最大光刻机巨头爆雷 股价跳水
扎心了!加国奶奶临终遗言大骂特鲁多
热门专题
1土耳其政变2ISIS3叙利亚局势
4朝鲜局势
广告服务 | 联系我们 | 关于我们 | 网站导航 | 隐私保护
Jobs. Contact us. Privacy Policy. Copyright (C) 1998-2024. CyberMedia Network. All Rights Reserved.