【延伸閱讀】《終結(jié)者》電影或成真?專家稱須防AI武器“反噬”
參考消息網(wǎng)9月19日?qǐng)?bào)道 西班牙《阿貝賽報(bào)》網(wǎng)站9月17日發(fā)表了題為《自動(dòng)化武器:殺人機(jī)器人的威脅》的報(bào)道,具體內(nèi)容編譯如下:
全世界的軍隊(duì)因?yàn)槿詣?dòng)化武器的生產(chǎn)而發(fā)生了翻天覆地的變化。然而,正如愛爾蘭信息工程專家勞拉·多蘭所言,人類卻尚未掌握能夠保證這些武器不犯錯(cuò)或誤傷大批平民的辦法。
多蘭指出,假如使用不當(dāng),這種武器就很可能導(dǎo)致大規(guī)模意外事故。因此任何武器都應(yīng)當(dāng)受到人類控制。假如無(wú)法受到控制,就必須禁止使用,因?yàn)榇祟愇淦骰蛟斐梢庀氩坏降奈kU(xiǎn)后果。
多蘭多年來一直致力于信息工程領(lǐng)域的研究。他曾在谷歌公司任職,2017年曾參與美國(guó)國(guó)防部的“梅文計(jì)劃”。該計(jì)劃旨在招募人工智能領(lǐng)域的專業(yè)企業(yè),以達(dá)到在伊拉克、敘利亞和阿富汗等戰(zhàn)亂地區(qū)利用圖像識(shí)別技術(shù)作戰(zhàn)的目的。
從技術(shù)角度看,得益于人工智能技術(shù)的發(fā)展,美軍無(wú)人自動(dòng)化武器(無(wú)人機(jī))能夠識(shí)別打擊目標(biāo)并實(shí)施攻擊,因此似乎沒有必要配備專人監(jiān)控這些自動(dòng)化武器。但多蘭認(rèn)為,這構(gòu)成了一個(gè)巨大的風(fēng)險(xiǎn),因?yàn)槿魏稳硕紵o(wú)法保障戰(zhàn)爭(zhēng)機(jī)器能夠準(zhǔn)確識(shí)別一個(gè)舉著槍的戰(zhàn)士和一個(gè)同樣舉著槍的獵人。
多蘭還表示,如果由全自動(dòng)化武器來決定孰死孰活,而無(wú)需人類介入,那么這無(wú)疑意味著一個(gè)巨大的道德缺口。機(jī)器畢竟是機(jī)器,它們?nèi)狈θ祟愄匦?,例如在作出艱難的道德倫理抉擇時(shí)所必需的同情心和同理心。

資料圖片:科幻電影《終結(jié)者》中的“天網(wǎng)”獵殺機(jī)器人。(西班牙《阿貝賽報(bào)》網(wǎng)站)
