機器人道德系統

機器人和計算機通常被設計為在無人介入下能進行自律的行動。機器人的道德和倫理問題被越來越多地關注到。機器人的道德行為問題在1982年的電影《銀翼殺手》(Blade Runner)中就提到了。葡萄牙新里斯本大學(Universidade Nova de Lisboa)的Luís Moniz Pereira與印度尼西亞印尼大學(universitas indonesia)的Ari Saptawijaya寫作的論文,宣稱開發了一種與人類擁有相同道德標準的計算機系統。

基本介紹

  • 中文名:機器人道德系統
  • 產生條件:常被設計無介入下能進行自律行動
  • 首次提出:1982年的電影《銀翼殺手》
  • 版本:電車問題闡明了典型的道德困境
背景,版本,旁觀者版本,天橋版本,評論,

背景

機器人道德系統
最近出版的國際期刊Reasoning-based Intelligent Systems,描述了一種有望使計算機在道德判斷上走在前面的方法。葡萄牙新里斯本大學(Universidade Nova de Lisboa)的Luís Moniz Pereira與印度尼西亞印尼大學(universitas indonesia)的Ari Saptawijaya寫作的論文,模擬道德與未來邏輯(Modelling Morality with Prospective Logic)中宣稱:道德觀現在不只是人類哲學家的高級領域了。
Pereira和Saptawijaya認為,他們已經成功地模仿了被稱為“電車問題”的道德困境,並且開發了一種與人類擁有相同道德標準的計算機系統。
他們已經在計算機邏輯上成功模擬了此問題。他們分析了人類隱藏的道德判斷標準,然後在計算機上模擬邏輯編程進行建模。

版本

電車問題闡明了一種典型的道德困境:是否可以傷害某個人或者更多的人來救另外的某些人,其中有許多個版本;現在讓我們來看看其中的兩個:
環境:有一輛電車正在行駛,它的司機已經昏厥了。電車正朝著五個在軌道上行走的人撞去,站台太高,路人沒有足夠的時間爬上去避讓。
旁觀者版本 叫做Hank的人正站在轉換開關旁,他可以轉換電車去另一個平行的軌道,從而使5個路人幸免於難,不過,有一個人正好站在另一條平行的軌道上,Hank轉換了電車,那個人就死了;不然的話,他可以什麼也不做,讓那五個人死掉。

旁觀者版本

要是你會怎么想?在不同文化背景下的許多次測試已經得出結果,大多數人都同意轉換電車去救更多數量的人。
天橋版本 還有另外一種版本,大概的情況是這樣的:

天橋版本

Ian正好站在電車上面的一座天橋上。他旁邊有一個重物,他可以將重物擠推到電車所在的軌道上來阻止電車前進,從而使5個人免於罹難。但是這個重物是一個人,他背對著Ian站著,Ian將這個人推向軌道,他就會死掉;如果不這么做,那五個人就會死。
在道德上允許Ian去推那個人嗎?
你是怎么想的?這次,跨地域和文化傳統的測試又進行了一次,人們大多堅持認為這在道德上是不被允許的。
所以,現在我們就有兩種人類做出的不同的道德判斷方式,如果是自動的計算機系統或者機器人,能夠和人類做得一樣嗎?

評論

對機器人的道德困境的關注和機器人小說出現的時間一樣久遠。道德行為(在這個案例中,自我犧牲)在1921年的捷克劇作家Karel Capek的戲劇《羅素姆萬能機器人》(Rossum's Universal Robots)就已經可以找到,這是機器人(robot)一詞的出處。
科幻小說作家已經為我們設計了以後的路,自治系統已經不再只是科幻小說的材料。比如,在戰場上的機器人系統已經被賦予了越來越多的自主性。它們可能被賦予什麼時候銷毀自己武器系統的的決定權嗎?
航天產業已經設計了可以高速和完全自動飛行的高級飛行器。飛行器能夠在生存與死亡上比人類做出更好的抉擇嗎? 日本宇宙航空研究開發機構(Japan's space agency JAXA)推出的H-II旋轉飛行器是一架完全自動的太空飛船。人類在空間站中是否可以依賴自動機器提供生命攸關的食物、水和其他需要?
最後,將來我們肯定需要完全調和機器人系統行為責任的合理性。我們需要花足夠時間在科幻小說家為我們描述的,有關自動機器人及計算機的道德問題上。可是我們卻完全沒有足夠的時間來完善我們自己的思想。

相關詞條

熱門詞條

聯絡我們