国产一级 片内射视频播放,欧美高清精品,午夜精品小视频,秋霞AV免费

      1. <source id="cerrj"><address id="cerrj"><kbd id="cerrj"></kbd></address></source>
        1. <wbr id="cerrj"></wbr>
              1. 海東日?qǐng)?bào)首頁

                殺人機(jī)器人:危險(xiǎn)不科幻

                2016-05-29 11:14:24 來源:光明日?qǐng)?bào) 點(diǎn)擊:

                ■機(jī)器人的道德問題

                設(shè)想這樣一個(gè)場(chǎng)景:一輛高速行駛的無人駕駛汽車前方,出現(xiàn)了一個(gè)追逐皮球而橫穿馬路的孩子,而逆向車道上有一個(gè)騎著自行車的成年人。此時(shí),自動(dòng)駕駛系統(tǒng)經(jīng)過分析會(huì)有兩種選擇:一是減速但維持前進(jìn)方向不變,這樣有可能撞到孩子;二是減速并向左轉(zhuǎn)向,這將會(huì)威脅到騎行者的安全。自動(dòng)駕駛系統(tǒng)應(yīng)該如何抉擇?撞向孩子還是成年人?

                經(jīng)常有媒體表示,自動(dòng)駕駛汽車可媲美人類司機(jī),這也是一些汽車制造商在標(biāo)榜安全性時(shí)提到的新賣點(diǎn)。這種觀點(diǎn)的受眾范圍很廣,讓我們很難在未來禁止自動(dòng)駕駛汽車。在理想情況下,它們的反應(yīng)和決策能力確實(shí)是無可挑剔的:它們能夠根據(jù)預(yù)設(shè)的程序決定,到底是選擇挽救追皮球的孩子,還是騎自行車的人。

                那么應(yīng)由誰來制定機(jī)器人的道德規(guī)則?又該如何制定這種道德規(guī)則?要回答這些問題并不容易,但是不可避而不談。如一些研究者證明的那樣,在邏輯學(xué)家看來,有些道德問題的邏輯過于復(fù)雜甚至是不可判定的。

                現(xiàn)在的機(jī)器人沒有被預(yù)裝阿西莫夫定律的另一個(gè)原因是:我們制造某些機(jī)器人的目的就是為了殺戮。這已經(jīng)變成了一個(gè)嚴(yán)重的問題,值得我們思考和討論。

                人類制造用來殺戮同類的機(jī)器人已經(jīng)有數(shù)十年的時(shí)間,而且只要“機(jī)器人”“自主性”和“殺戮”這個(gè)三個(gè)特性一同出現(xiàn),情況就變得十分棘手。拿地雷舉例,我們可以說它具有自主性,因?yàn)楫?dāng)它“覺察”到四周出現(xiàn)物體時(shí)會(huì)“決定”爆炸,而這個(gè)決定并不需要人類的許可。美國(guó)在許多戰(zhàn)場(chǎng)上使用的無人機(jī)其實(shí)是遠(yuǎn)程遙控的,通常情況下,它們?cè)谕斗盼淦髑皶?huì)等待操作員給出明確的指令。不過在執(zhí)行對(duì)地打擊任務(wù)時(shí),它們同樣造成了不小的傷害,奪取了許多無辜者的生命。一些無人機(jī)可以在自動(dòng)模式下工作,自行決定是否開火,并不需要人類的干涉。

                在聯(lián)合國(guó)于2013年發(fā)表的一份報(bào)告中,南非比勒陀利亞大學(xué)的法學(xué)教授克里斯托弗·海因斯認(rèn)為,自主殺人機(jī)器人已經(jīng)在一些國(guó)家的軍方實(shí)驗(yàn)室誕生了,并且磨刀霍霍準(zhǔn)備開始行動(dòng)。毫無疑問,人類能夠創(chuàng)造并利用具有部分智力的自主軍事武器,把它們派遣到地面戰(zhàn)場(chǎng)上或空中去搜索敵人。無須人類許可,它們就能自己辨認(rèn)并消滅目標(biāo)。就算我們假定在戰(zhàn)斗決策中有人類存在,如果不對(duì)這些機(jī)器人自主性的深層概念進(jìn)行調(diào)整的話,它們?nèi)钥梢云查_人類獨(dú)自執(zhí)行任務(wù)。

                ■我們要往何處去?

                現(xiàn)在,我們需要回答的問題可歸結(jié)為:我們是否真的希望在這條路上走下去?是否應(yīng)該限制或者禁止使用自主殺人機(jī)器人?

                在為這些武器系統(tǒng)辯護(hù)的論據(jù)中,有兩條關(guān)鍵的理由。首先,現(xiàn)在采取任何措施都已太遲,這些系統(tǒng)已經(jīng)存在。其次,這些機(jī)器人終有一日會(huì)變得更為精準(zhǔn),它們會(huì)更加尊重平民和交戰(zhàn)規(guī)則??偠灾@些武器能夠讓戰(zhàn)爭(zhēng)和沖突變得更為“干凈”。

                第一條論據(jù)可以被輕松反駁。人類已經(jīng)制造出了核武器、化學(xué)武器以及細(xì)菌武器,但這不能阻止各國(guó)簽訂國(guó)際條約來管理和禁止這些武器。這些協(xié)議的簽訂有效限制了上述武器的使用。因此,各國(guó)政府可以協(xié)商一致,停止自主殺人機(jī)器人的研發(fā)?,F(xiàn)在這個(gè)問題已被搬上了國(guó)際法庭進(jìn)行討論。

                第二條論據(jù)——殺人機(jī)器人可使戰(zhàn)爭(zhēng)變得更加“干凈”是無效的。實(shí)際上,這條論據(jù)等同于將“只攻擊敵人”“不要攻擊平民”等道德準(zhǔn)則強(qiáng)加給殺人機(jī)器人。然而,我們連怎樣將阿西莫夫的機(jī)器人定律寫入系統(tǒng)代碼都做不到,這些道德準(zhǔn)則更是無從談起。

                或許,當(dāng)我們研發(fā)出具備更加先進(jìn)分析能力的機(jī)器人時(shí),再重新考慮這個(gè)問題也不遲。但就目前而言,我們無法編寫出類似于阿西莫夫機(jī)器人定律的道德規(guī)范。機(jī)器人需要有精確移動(dòng)的能力,能夠向人類或非人類目標(biāo)快速而準(zhǔn)確地開火,但它們不能決定是否開火,以及對(duì)誰投放致命的火力。

                一封發(fā)表在2015年7月的公開信得到了2萬人左右的簽名,簽名者是人工智能領(lǐng)域的專家以及其他對(duì)此話題頗為關(guān)切的人,其中包括著名物理學(xué)家斯蒂芬·霍金以及蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克。這封公開信要求停止研發(fā)具有殺人能力的自主系統(tǒng),并表示這些系統(tǒng)可以被恐怖分子當(dāng)作武器。

                自主殺人機(jī)器人的問題比其他類型的武器(如核武器)更嚴(yán)重,因?yàn)樽灾鳉⑷藱C(jī)器人的技術(shù)研發(fā)比較分散。機(jī)器人是由眾多程序和相對(duì)容易獲取的硬件制造而成的。但是,其軟件易于復(fù)制和傳播,這與核武器完全不同。機(jī)器人技術(shù)領(lǐng)域的任何進(jìn)步都有可能被最邪惡的恐怖分子盜取。

                版權(quán)聲明:

                1、凡本網(wǎng)注明"來源:海東日?qǐng)?bào) 版權(quán)均屬海東日?qǐng)?bào)所有,任何媒體、網(wǎng)站或單位和個(gè)人未經(jīng)本網(wǎng)書面授權(quán)不得轉(zhuǎn)載、鏈接、轉(zhuǎn)貼或以其他方式復(fù)制發(fā)表。

                  

                2、已經(jīng)本網(wǎng)書面授權(quán)使用作品的媒體、網(wǎng)站,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源及作者”。違反上述聲明者,本網(wǎng)將依法追究其相關(guān)法律責(zé)任。

                相關(guān)新聞