当前位置: 首页 » 资讯 » 行业资讯 » 正文

人工智能的潜在破坏力远超核弹?基辛格警告

分享到:
放大字体  缩小字体    发布日期:2023-02-14  来源:中国机器人网 |  作者:小球球  浏览次数:379
核心提示:美国《华盛顿邮报》网站11月24日刊登题为《为什么人工智能现在是亨利·基辛格主要关切的问题?》的文章,作者是戴维·伊格内修斯。全文摘编如下:  亨利·基辛格在职业生涯的大部分时间里都在思考核武器的危险。但这位现年99岁的美国前国务卿说,他现在被一个非常现代的问题“困扰着”,即如何限制人工智能的潜在破坏力——其威力可能远远超过最大的核弹。  11月16日,基辛格在华盛顿国家大教堂举行的一次论坛活动上,称人工智能是军备控
美国《华盛顿邮报》网站11月24日刊登题为《为什么人工智能现在是亨利·基辛格主要关切的问题?》的文章,作者是戴维·伊格内修斯。全文摘编如下:     亨利·基辛格在职业生涯的大部分时间里都在思考核武器的危险。但这位现年99岁的美国前国务卿说,他现在被一个非常现代的问题“困扰着”,即如何限制人工智能的潜在破坏力——其威力可能远远超过最大的核弹。     11月16日,基辛格在华盛顿国家大教堂举行的一次论坛活动上,称人工智能是军备控制的新前沿。他说,如果主要大国不想办法限制人工智能的影响力,“这简直是一场导致灾难的疯狂竞赛”。     基辛格是世界上最著名的政治家和战略家之一。他发出的警告表明,随着“思维机器”与全球商业、金融和战争的互相作用,全球对其威力的担忧与日俱增。他在一个主题为“人、机器和上帝”的论坛活动上,通过视频连线发表了上述讲话。
微信图片_20221125091738
    基辛格对人工智能的担忧得到了两名与会人士的响应。他们是谷歌前首席执行官埃里克·施密特和拜登政府负责网络安全的总统国家安全事务副助理安妮·纽伯格。     这位前国务卿警告说,人工智能系统可以改变战争,就像下象棋或玩其他战略游戏一样,因为它们能够做出人类想不出的、但具有毁灭性效果的举动。基辛格说:“我要说的是,在探讨我们提出的合理问题时,它们得出的结论未必与我们一样——而我们必须生活在它们的世界里。”     他接着说道:“我们周围有许多机器,它们的真实想法可能我们并不知道。如何给机器立规矩?就在今天,我们已拥有可以在不受任何人工干预的情况下进行空战……的战斗机。但这只是这一进程的开始。50年后的发展进程将让人难以置信。”     基辛格呼吁世界两个科技大国美国和中国就如何对人工智能设置道德规范和行为准则展开紧急对话。     基辛格建议,美国和中国可以启动一场高科技安全对话,并达成协议,从而“首先建立规模相对较小的机构,其职责是通报危险,并就如何降低风险进行沟通”。     现在,人工智能改变世界的力量已成为基辛格的主要关注点,同时,他还把施密特当作指导。去年,两人与美国麻省理工学院教授丹尼尔·胡滕赫尔合著了一本书,名为《人工智能时代与我们人类的威胁》,书中阐述了这项新技术所带来的机遇和危险。     基辛格有关人工智能的首次重要公开评论,是2018年他在《大西洋》月刊发表的一篇题为《启蒙运动如何终结》的文章。这篇文章的副标题概括了令人不寒而栗的信息:“从哲学、智力上——从各个方面来讲,人类社会都没有对人工智能的崛起做好准备。”     基辛格对大教堂内的听众说,尽管核武器具有毁灭性,但“它们不具备(人工智能的)这种能力,不能基于它们对危险的感知或对选择目标的感知来启动自己”。     将人工智能应用于战争时,人类能够限制其破坏能力吗?基辛格回答说:“我对乐观态度持保留意见,因为如果我们不解决它,它就真的会摧毁我们……我们别无选择。”
 
 
打赏
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

免责声明:
本网站部分内容来源于合作媒体、企业机构、网友提供和互联网的公开资料等,仅供参考。本网站对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何保证,亦不承担任何法律责任。如果有侵权等问题,请及时联系网站客服,我们将在收到通知后第一时间删除相关内容。
 

人工智能的潜在破坏力远超核弹?基辛格警告二维码

扫扫二维码用手机关注本条新闻报道也可关注本站官方微信账号:"xxxxx",每日获得互联网最前沿资讯,热点产品深度分析!
 

 
0相关评论