首页 >> 报刊 >> 期刊联盟 >> 报刊文摘
柳森:面对人工智能威胁,最该担心啥
2017年09月04日 10:32 来源:解放日报 作者:柳森 字号

内容摘要:日前, 116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国对可致命自动武器(通常称“机器人杀手”)施以禁令。解放周一:不过,相比马斯克过去数番发起的“人工智能威胁论”,他这一次呼吁禁止的对象更具体:不是宽泛的人工智能,而是军用的无人智能武器。徐英瑾:军用机器人、性爱机器人及工业机器人,曾被认为是人工智能技术三个最有前途的应用领域。“机器人武器”会是一种威胁吗解放周一:关于人工智能介入军事行动后可能带来的问题,有一个案例经常会被提及。该《规划》明确指出,人工智能已成为国际竞争的新焦点,应逐步开展全民人工智能教育项目,在中小学阶段设置人工智能相关课程、逐步推广编程教育。

关键词:机器人;武器;徐英瑾;开火;飞行器;马斯克;人工智能系统;人工智能威胁论;人工智能技术;教育

作者简介:

  日前,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国对可致命自动武器(通常称“机器人杀手”)施以禁令。

  该联名信因签署者包括埃隆·马斯克(特斯拉、SpaceX和OpenAI创始人)和穆斯塔法·苏莱曼(谷歌DeepMind联合创始人)而备受瞩目,也为甚嚣尘上的“人工智能威胁论”添上浓重一笔。

  军用人工智能系统,真的是人类打开的又一个“潘多拉魔盒”吗?面对人工智能介入军事行动,人类该如何展开思辨?

  复旦大学哲学学院教授徐英瑾对人工智能科学有长期关注,他将自己的思考向记者一一道来。

  马斯克是否危言耸听

  解放周一:这不是马斯克第一次公开宣扬“人工智能威胁论”了。您认为他的观点和立场立得住吗?您会从哪些角度,去审视他这一连串表态?

  徐英瑾:我个人认为,他目前的这番呼吁肯定是危言耸听了,因为他自己就花了很多钱投资人工智能。要判断一个“商人”的话的可信度,看一下他所说的和他的资金流向是否一致即可。他的资金流向,才体现他的真实意图。

  去年,马斯克曾宣布过以火星为目的地的载人飞行计划。试想一下,如果没有人工智能的帮助,无法先把机器人送上火星适应环境,这个计划无论如何是不可能实现的。

  由此,我个人推测,很可能存在这样一种逻辑链条:即马斯克本人希望在人工智能方面领先,于是故意制造目前这番言论,使其他竞争对手在脑子一糊涂的情况下,不再做相关领域的研究和探索。

  解放周一:不过,相比马斯克过去数番发起的“人工智能威胁论”,他这一次呼吁禁止的对象更具体:不是宽泛的人工智能,而是军用的无人智能武器。于是,人们的争论被进一步聚焦:“机器人武器”应当被禁止吗?

  徐英瑾:军用机器人、性爱机器人及工业机器人,曾被认为是人工智能技术三个最有前途的应用领域。虽然人工智能技术在这三个领域的运用,都会导致相关的伦理问题,但在不少人看来,军用人工智能系统所构成的伦理学问题最为尖锐。因为此类系统的任务,就是直接杀戮生命,或为杀戮提供间接帮助。这自然也就牵涉到了特定军事暴力行为的合法性问题。

  但值得思考的是:关于军事行动正当性和可辩护性的争鸣,古已有之、经久不绝,而军用人工智能系统的介入,又会在多大程度上改变此类问题的性质呢?实际上,战争本身的政治属性依然是一个与战争所使用的技术手段相对分离的话题。而在目前的情况下,具有自动开火能力的智能机器人的运用,只可能造成未来战争在战术层面上的变化,而不会像大规模杀伤性武器的运用那样,对国际安全局势产生全局性影响。

  “机器人武器”会是一种威胁吗

  解放周一:关于人工智能介入军事行动后可能带来的问题,有一个案例经常会被提及。美国海军早年曾就“自动开火武器的伦理规则,该怎么进行代码制定”展开激烈辩论。军方内部最集中的分歧点在于,能否赋予自动武器独立开火权。

  徐英瑾:当时,大部分人给出的意见是“不能”,认为一定要为自动武器设置人工干预的回路。即自动武器执行的任何动作,都需要人类指挥员来下命令。就像今天的无人机那样,遥控武器是不能自己开火的。而马斯克要反对的,显然就是那种在未来能够自动开火的东西。

分享到: 0 转载请注明来源:中国社会科学网 (责编:王禧玉)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们