圖為科幻電影《終結(jié)者》中的金屬機器人。CFP
圖為民眾抗議殺人機器人的研發(fā)。資料圖片
圖為美國的無人機。資料圖片
【縱深報道】
2029年,人類和智能機器人之間的一場大戰(zhàn)打響:機器人“終結(jié)者”奉命殺死約翰·康納的母親莎拉·康納——這是由詹姆斯·卡梅隆于1984年創(chuàng)作的5部系列電影的序曲??苹米骷覜]有料想到,如今的科技已經(jīng)可以制造出這樣的機器人:它們一旦被授予使命后,會自發(fā)地做出殺人甚至暴動的決定。
這些機器人殺手在國際軍備討論中有一個恰如其分的名字:LAWS(Lethal Autonomous Weapons Systems,致命性自主武器系統(tǒng))。這種機器人已經(jīng)登上了歷史的舞臺,將它們帶到戰(zhàn)場上會引起各種各樣的爭議:如何定義這些機器人?它們到底能做什么?戰(zhàn)場上的倫理問題如何解決?
1942年,著名的美籍俄羅斯裔科幻作家艾薩克·阿西莫夫在《驚奇科幻小說》中提出了機器人的倫理問題,他被世人視為機械倫理學(xué)之父。阿西莫夫在1942年出版的小說《轉(zhuǎn)圈圈》中描述了機器人三定律。他提出,所有的機器人程序都必須考慮到這三條定律,目的是為了約束這些自主機器人的行為,讓它們服從以保護人類為目的的強制性道德準(zhǔn)則。
■阿西莫夫機器人定律
第一定律:機器人不得傷害人類,或坐視人類受到傷害;
第二定律:除非違背第一法則,否則機器人必須服從人類的命令;
第三定律:在不違背第一及第二法則下,機器人必須保護自己。
此后,阿西莫夫又添加了一條定律,即第零定律:機器人不得傷害人類族群,或因不作為使人類族群受到傷害。
機器人遵守這些定律而引發(fā)的困局是阿西莫夫所著500本書籍的主題。他嚴(yán)肅地思考了這些定律的意義,并想象了這些定律被采納時發(fā)生的情形。然而時至今日,阿西莫夫關(guān)于機械倫理的設(shè)想并未如愿:如今的機器人并沒有安裝強制它們服從機器人定律的機制或指令。為什么會這樣呢?