【延伸閱讀】英媒:殺人機(jī)器人與現(xiàn)代戰(zhàn)爭密切相關(guān) 要求取締或?yàn)闀r(shí)已晚
參考消息網(wǎng)9月8日報(bào)道 英國《衛(wèi)報(bào)》網(wǎng)站8月22日發(fā)表了題為《我們不能取締殺人機(jī)器人——現(xiàn)在為時(shí)已晚》的報(bào)道。
對于機(jī)器人技術(shù)和人工智能領(lǐng)域?qū)<野l(fā)出的取締“殺人機(jī)器人”的呼聲,有一種回應(yīng)是:你們?yōu)槭裁礇]有早些想到這一點(diǎn)?
在呼吁制定這方面禁令的116名專家當(dāng)中,包括像特斯拉公司首席執(zhí)行官埃隆·馬斯克這樣的重量級人物。他們說:“讓我們采取行動的時(shí)間不多了。一旦潘多拉盒子被打開,就很難再關(guān)上。”但是或許這樣的系統(tǒng)早就存在,比如由英國BAE系統(tǒng)公司研發(fā)的“雷神”隱身無人戰(zhàn)機(jī),或者由三星公司制造并被部署到韓國邊境的SGR-A1無人哨戒機(jī)槍。自動坦克也在籌劃之中,而人類對于會造成傷亡的無人機(jī)的控制正在變成只是程度大小的問題。
不過從本質(zhì)上講,自從機(jī)器人問世,殺人機(jī)器人就伴隨我們左右。1920年捷克作家卡雷爾·恰佩克創(chuàng)作的科幻劇本《羅素姆的萬能機(jī)器人》讓我們第一次擁有了機(jī)器人這個(gè)詞。他筆下的人形機(jī)器人反抗并屠殺人類。從那以后,機(jī)器人一直在做這樣的事情,從賽博人到終結(jié)者。關(guān)于機(jī)器人的故事很少有好的結(jié)局。
甚至很難不在機(jī)器人世界末日即將到來的背景下去思考馬斯克和與他一道發(fā)聲的人所提出的這個(gè)問題。即便人類最終的命運(yùn)沒有面臨威脅,我們也知道其中的某一臺機(jī)器會出現(xiàn)故障,產(chǎn)生像《機(jī)械戰(zhàn)警》中Omni公司的機(jī)器人警察所制造的那種混亂。
這似乎讓一個(gè)極為嚴(yán)肅的話題變得過于輕松。這些故事盡管引發(fā)了人們深層的恐懼,說到底不過是娛樂。不過,讓這一討論的焦點(diǎn)最終集中在機(jī)器人技術(shù)有好有壞上,進(jìn)而暗示只要我們避免壞的技術(shù),就會天下太平,這樣的方式未免過于簡單。
這個(gè)問題要更為復(fù)雜。一方面,這涉及更廣泛、也越來越緊迫的機(jī)器人道德規(guī)范的問題;另一方面,這也關(guān)乎現(xiàn)代戰(zhàn)爭的本質(zhì)。
我們?nèi)绾巫屪詣蛹夹g(shù)系統(tǒng)既安全又遵守道德規(guī)范?避免機(jī)器人給人類造成傷害是阿西莫夫在小說《我,機(jī)器人》中所探討的主題,這本科幻小說短篇集對后世影響巨大,以至于阿西莫夫的“機(jī)器人三定律”如今有時(shí)幾乎與牛頓的三大定律一樣重要。具有諷刺意味的是,阿西莫夫的小說主要是關(guān)于這些出發(fā)點(diǎn)良好的定律如何在一些情況下遭到破壞的。
無論如何,道德問題不能簡單地被當(dāng)做一個(gè)放之四海而皆準(zhǔn)的原則。歷史學(xué)家尤瓦爾·諾亞·哈拉里指出,無人駕駛汽車需要一些行為準(zhǔn)則來確定在面對不可避免并有可能致命的碰撞時(shí)應(yīng)該怎樣做:機(jī)器人應(yīng)該去救誰?哈拉里說,或許我們會得到兩種模式:利己主義(把駕駛員的生命放在第一位)和利他主義(把別人的生命放在第一位)。
“人權(quán)觀察”組織2012年的一份關(guān)于殺人機(jī)器人的報(bào)告帶有些許科幻色彩。報(bào)告說:“將害怕的平民與具有威脅性的敵方戰(zhàn)斗人員區(qū)分開來,需要士兵了解一個(gè)人行為背后的動機(jī),這是機(jī)器人辦不到的事情。”此外,“機(jī)器人不能受到人類情感和共情能力的約束,而這種情感和共情能力會對殺戮平民的行為起到重要的阻止作用。”但是前面的說法是在表達(dá)一種信仰——使用生物特征識別技術(shù)的機(jī)器人在作出評估方面難道不比用直覺去判斷的驚恐的士兵更勝一籌嗎?至于后面的說法,給人的感覺是:有時(shí)的確如此。但是另外一些時(shí)候,身處戰(zhàn)區(qū)的人也會肆意強(qiáng)奸和屠殺。
這樣說不是要反駁報(bào)告對于自動機(jī)器人士兵的恐懼,我本人也同樣對這樣的前景感到害怕。不過,這讓我們又回到了一個(gè)關(guān)鍵的問題上,這個(gè)問題無關(guān)技術(shù),而是關(guān)乎戰(zhàn)爭。
目前我們對于戰(zhàn)爭倫理的看法已經(jīng)帶有強(qiáng)烈的隨心所欲的色彩。“人權(quán)觀察”組織的報(bào)告說:“使用完全自動的武器帶來了問責(zé)方面的嚴(yán)重問題,這會破壞在平民保護(hù)方面的已有手段。”這樣的觀點(diǎn)不假,但是只要核武器在國際范圍內(nèi)是合法的,這種說法在道德倫理上就站不住腳。
自動化軍事技術(shù)的問題與不斷變化的戰(zhàn)爭性質(zhì)本身存在密切的關(guān)聯(lián),在恐怖主義和叛亂活動頻繁的年代,戰(zhàn)爭不再有開始或結(jié)束,也不再有戰(zhàn)場或軍隊(duì):正如美國戰(zhàn)略分析家安東尼·科德斯曼所言:“現(xiàn)代戰(zhàn)爭所帶來的教訓(xùn)之一是,戰(zhàn)爭不再能稱之為戰(zhàn)爭。”不管我們?nèi)绾螒?yīng)對這一問題,戰(zhàn)爭都不會再像諾曼底登陸。
古往今來的戰(zhàn)爭無不在使用當(dāng)時(shí)可以獲得的最先進(jìn)的技術(shù);“殺人機(jī)器人”也不例外。潘多拉的盒子隨著煉鋼技術(shù)的出現(xiàn)而被打開,或者打開得更早(而開啟它的幾乎從來都不是女性)。可以肯定,有人從中得到了好處。
我們務(wù)必克制自己要鑄犁為劍的沖動,不過讓國際武器貿(mào)易行業(yè)不要制造殺人機(jī)器人就如同讓飲料制造商不要制造橙汁。(編譯/李鳳芹)

資料圖片:圖為英國“雷神”隱身無人戰(zhàn)機(jī)。(圖片來源于網(wǎng)絡(luò))
(2017-09-08 00:14:02)
