让一个遵守机器人三定律的机器人去选,会让载满100人的火车驶向悬崖的a线,还是改道到轨道上绑着1人的b线?

谢谢邀请

首先我们来说说什么是机器人三大定律:一.机器人不得伤害人,也不得见人受到伤害而袖手旁观。二.机器人应服从人的一切命令,但不得违反第一定律。三.机器人应保护自身的安全,但不得违反第一、第二定律。

其实这只是一个小说家的概念,之后有人又加了几条定律。我们来看一下完整版的机器人定律:

第零定律:机器人必须保护人类的整体利益不受伤害。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。

第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。

第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。

元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。

第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。

繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。

然后我们看这个问题很有意思,怎么选择都是会死人,其实就是让机器人去选择一种人类的死法!小编我认为机器人如果是按照正常程序设计的,而他自己又不会更新的话,那么此时的机器人肯定会死机,因为他被定律控制,而他自己又无法做出判断,所以机器人会出现死机状态......

个人愚见,不喜勿碰。

2022-03-11

2022-03-11