“机器人三定律”已经过时了! 该如何保证AI不会伤害人类

来源:中国IT网 2019-03-27 15:11

如何保证机器人不会伤害人类?人工智能的伦理原则近来备受关注。联合国教科文组织总干事阿祖莱在3月初举行的“推动人性化人工智能全球会议”上就表示,目前还没有适用于所有人工智能(AI)开发和应用的国际伦理规范框架。对于科幻作家阿西莫夫上世纪设计、防止机器人失控的著名的“机器人三定律”,业界早已认识到其局限性。

  亚马逊推出智能背心,穿上不怕机器人

  据国外媒体报道,亚马逊正在使用一款智能背心来提高工人在仓库内与机器人相处时的安全性。这款智能背心的工作原理是可以与自动化机器人进行通信,当人类员工进入机器人工作区域内处理问题时(比如捡拾物品),机器人可以检测到背心的存在,识别出人类,并立即减速并实时更新自己的行进路线,远离背心区域,避开工作人员。

  2018年12月,亚马逊新泽西仓库发生一起事故,一台机器人刺穿了一罐坠落的防熊喷雾,释放出大量浓缩的辣椒素,直接导致附近的工人呼吸困难。这起事故导致24名员工被送往医院,其中一人伤势严重。这一事件引起了欧美工会对亚马逊自动化机器人安全性的担忧。而如何让机器人与人类和平共处、尤其是保护人类的安全,也在这次事故后被重新讨论。

  宗合

  业内

  呼吁

  超越“机器人三定律”

  人工智能期待新伦理

  ●什么是“机器人三定律”

  70多年前,科幻小说家阿西莫夫在科幻小说里为高智能机器人设定了著名的“机器人三定律”。“机器人三定律”规定:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。

  “机器人定律”需要更新细化

  “机器人不能伤害人,但机器人会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样避免?这些问题在今天要么需要细化,要么需要有更具体的原则来防范,而不能停留在七八十年前的认识水平。”中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任陈小平教授说。

  陈小平呼吁,为规避人工智能发展过程中的伦理道德风险,人工智能学术界和产业界,以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作。“就长期来看,不能等到出现了严重的问题,再制定措施去防止。”

  全球知名的艾伦人工智能研究所首席执行官埃齐奥尼两年前就呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。

  以人为本,首先要“保护人类”

  美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。

  百度公司创始人李彦宏在2018年提出了“人工智能伦理四原则”,首要原则就是安全可控。

  美国电气和电子工程师协会规定,人工智能要优先考虑对人类和自然环境的好处的最大化。该协会还规定,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可追责性,证明其为什么以特定方式运作。        新华社