機器人三原則

機器人三原則

機器人三原則是1940年由科幻作家阿西莫夫所提出的為保護人類的對機器人做出的規定。

基本介紹

  • 中文名:機器人三原則
  • 第一條:機器人不得傷害人類
  • 第二條:機器人必須服從人類的命令
  • 第三條:機器人必須保護自己
起源,三原則,發展,

起源

科學技術的進步很可能引發一些人類不希望出現的問題。為了保護人類,早在1940年科幻作家阿西莫夫就提出了“機器人三原則”,阿西莫夫也因此獲得“機器人學之父”的桂冠!
機器人三原則

三原則

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
The Three Laws of Robotics:
1.A robot may not injure a human being, or, through inaction.
2.A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

發展

【弊端】
機器人三原則理論提出的半個世紀以來,不斷的被科幻作家和導演使用。但有趣的是,凡是出現三原則的電影和小說里,機器人幾乎都違反了本條例。其中主要的一點就是機器人對“人類”這個詞的定義不明確,或者是更改人類的定義。比如某個極端主義者,像3K黨有反對黑人傾向這樣的組織,利用電腦病毒等手段,把機器人對人類的定義是:“只有白人是人類。”這樣,機器人很有可能成為種族屠殺的工具。

相關詞條

熱門詞條

聯絡我們