机器人第四定律,机器人第三定律是谁发明的?

原创
zblog 2023-03-11 02:16 阅读数 3 #智能电网终端
文章标签 机器人第四定律

机器人的三定律是什么?(急用!)

第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。

第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。

第二定律:机器人应服从人的一切命令,但不得违反第一定律。

第三定律:机器人应保护自元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。

第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。

繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。身的安全,但不得违反第一、第二定律。

机器人第四定律,机器人第三定律是谁发明的? 智能电网终端

机器人三法则存在逻辑上的漏洞吗?

机器人三法则存在逻辑上的漏洞。机器人三原则理论提出的半个世纪以来,不断的被科幻作家和导演使用。但有趣的是,凡是出现三原则的电影和小说里,机器人几乎都违反了本条例。其中主要的一点就是机器人对“人类”这个词的定义不明确,或者是更改人类的定义。

比如某个极端主义者,像3K党有反对黑人倾向这样的组织,利用电脑病毒等手段,把机器人对人类的定义是:“只有白人是人类。”这样,机器人很有可能成为种族屠杀的工具。

扩展资料

阿西莫夫之后,人们不断提出对机器人三原则的补充、修正。

保加利亚科幻作家Lyuben Dilov1974年在小说《 Icarus's Way》中提出第四原则:第四原则:机器人在任何情况下都必须确认自己是机器人。

1989年美国科幻作家Harry Harrison在《Foundation's Friends》中又提出另一个第四原则:第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。

保加利亚科幻作家Nikola Kesarovski在《The Fifth Law of Robotics》(1983年)中又提出一个与Lyuben Dilov第四原则看似相似实则不同的第五原则:第五原则:机器人必须知道自己是机器人。

参考资料来源:百度百科-机器人学三定律

参考资料来源:百度百科-机器人三原则

求机器人三大定则

阿西莫夫( Isaac Asimov)与他的出版人坎贝尔合创了“机器人学三大定律”———  

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.

第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外

LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.

第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存

上述三项虽称为定律,但实际上是制造机器人时的三条守则。阿西莫夫是一个十分讲求逻辑和理性的作家,他有感于机器人为祸的题材充斥科幻界,试图做出纠正。在他看来,机器人既然由人类制造,为什么不能一开始便在设计上杜绝机器人伤害人类的可能性?阿西莫夫的三定律能使得所有机器人都设计得对人类绝对服从和忠诚,否则便不能继续操作。

在后面的实践中,阿西莫夫发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年阿西莫夫对原有的三定律进行修订,增加了第零定律

Law0:A robot may not injure humanity or, through inaction, allow humanity to come to harm.

第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。

第零定律的优先级高于所有其他定律。

除此,另一个科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的定律:

元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。

第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。

繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。

三定律的不断完善,说明人们对人工智能是否能最终统治人类持有疑虑,通过为机器人设定行为守则,来确保人类对于这个世界的统治和主导地位。

但是,第零定律的增加却未必能保护人类的安全,电影《机械公敌》中的超级大脑ViKi的逻辑实际就是在实现“第零定律”--它(他/她?)必须把保护整个人类整个种群的存在视为第一任务,所以它能够“合理合法”地强制每个人都待在家里,并以暴力对付反抗它意志的个人,而只是为了使人类避免自行残杀。虽然电影中没有交待第零定律,但ViKi已经通过自己的AI思考出了人类制定三定律的本质。为了达到“机器人学定律”的“本质”要求--保护人类(humanity)--ViKi选择了照顾整体利益高于人类个体(A HUMAN BEING)利益的行动,而导致了人类的灾难--其实对我们每个人,每个独立的个体而言,自由才是首要的,什么战争,什么所谓的“自相残杀”都不能比失去自由更让人类痛苦! 这一点,是作为机器人的那个AI所不能理解和领悟的。

总之,机器人学三定律及其扩充定律根本不能保证我们每个个体的安全,因它可能被日益发展的AI误解(其实不是误解,而是正解)!

热门