机器人违背三大定律(机器人三大定律无法保护人类)

”2022/1129日,美国旧金山监事会批准了一项政策,允许该市警察使用具备杀伤力的武装机器人。消息一出,在全美引发争议。当地时间6日,旧金山监事会将对该项立法再次进行投票;当天,抗议民众手持“不要杀手机器人”等标语,聚集在市政厅外高呼口号。“

机器人违背三大定律(机器人三大定律无法保护人类)(1)

上则新闻让我想起小时后看科幻片时,我们经常讨论的一件事:如果机器人有一天强大的人类都控制不了怎么办?好在有资深的大人安慰我们,这种情况不会发生的:机器人有三大定律管制,你们放心吧,最后莫名奇妙的就相信了,有机器人的未来是多么的美好。

机器人违背三大定律(机器人三大定律无法保护人类)(2)

阿西莫夫的“机器人学三大法则”

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存

这个定律后来被人说是有漏洞的,为了维护人类整体的利益可能需要对个别极端人员进行制裁,后来就又补充增加了:第零定律:机器人必须保护人类的整体利益不受伤害。

但实际上这本身就是一个很模糊的定义,什么叫“人类的整 体利益”? 当遇到问题时,谁来解释定义这个概念,想想都知道会发生什么情况了,难道期望机器人对这个概念比我们人类理解的更深吗?威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”

机器人违背三大定律(机器人三大定律无法保护人类)(3)

遥控无人机

除了这个定律外,这个许多科学家、小说家都在积极的想法设法来防止机器伤人的事件发生,也产生了一些其他补充定律,这里要说明的是,智能机器人的伤人,不是后端遥控、或人为粗心闯入工厂机器人工作范围内的生产意外,这些伤人事件仍存在人为控制的范畴,而智能机器人伤人,是机器有自我辨别、自我逻辑的行为动作,实际上也许种族歧视吧,想想都有点害怕。

机器人违背三大定律(机器人三大定律无法保护人类)(4)

思考中的机器人

我们再回到现实中来,联合国自2017年以来在日内瓦举行外交对话,一直希望就解决杀手机器人的使用问题达成协议。但迄今为止,各国甚至就是否需要对此类武器进行管控也尚未达成一致意见。2021年12月,在美国再次拒签后,人民网也发表题为《莫让人工智能技术走入歧途》的文章;

机器人违背三大定律(机器人三大定律无法保护人类)(5)

现在不是有没有三大定律的问题了,是简单到机器人可不可以的问题;这期特别收集到几段智能机器人视频,看完之后也许能让我们明白,这已经不是科幻 。

科学家眼里的杀人无人机

土耳其武器制造商STM推出的自动杀人无人机Kargu

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页