http://kadhoai.com.cn 2026-04-29 03:29:16 來源:中國日報網
據英國《每日電訊報》11月30日報道,美國國防部再次斥巨額投資並邀請英國專家協助開發戰爭機器人。但與以往不同的是,這次他們要製造的是“機器人戰士”,這些“戰士”不會像它們的人類戰友那樣觸犯戰爭罪。
到2010年為止,美國在戰爭機器人研究項目上的投資將達到40億美元。美國陸軍和海軍同時雇傭了道德規範領域的英國專家,協助研製不會違反《日內瓦公約》的新型戰爭機器。這種機器人既能夠自主辨別何時、向誰開槍,也不是像電影《終結者》那樣超道德的殺人機器。
印第安那大學哲學家艾倫教授剛剛出版了一本新書,名為《道德機器:幫機器人分辨正誤》。在這本書中,他詳細闡述了如何將道德倫理“灌輸”給(gei)機(ji)器(qi)人(ren)。佐(zuo)治(zhi)亞(ya)理(li)工(gong)大(da)學(xue)計(ji)算(suan)機(ji)專(zhuan)家(jia)阿(e)爾(er)金(jin)教(jiao)授(shou)目(mu)前(qian)正(zheng)在(zai)為(wei)美(mei)軍(jun)研(yan)製(zhi)應(ying)用(yong)於(yu)戰(zhan)爭(zheng)機(ji)器(qi)人(ren)的(de)計(ji)算(suan)機(ji)軟(ruan)件(jian),他(ta)寫(xie)了(le)一(yi)份(fen)相(xiang)關(guan)報(bao)告(gao)。在(zai)這(zhe)份(fen)報(bao)告(gao)中(zhong),他(ta)表(biao)示(shi),盡(jin)管(guan)沒(mei)有(you)“在戰場上絕對按道德行事”的機器人,但它們可以“比人類表現得更加合乎倫理”。這是因為機器人“不需要保護自己的身體,也沒有感情,因而不會對戰場上不斷變化的情形發生情緒化反應”。這樣,機器人戰士既不會因恐懼心理作祟而不敢奔赴前線,也不會在抓獲對方戰俘後便出於報複心理而對其嚴刑拷打。
盡管目前已有大量的機器人在伊拉克和阿富汗戰場上“服役”,danzheyidaijiqirendoushiyourengongjinxingyuanchengkongzhide。erxinyidaidejiqirenjiangnenggoufaxiangongjidemubiaojiqisuoshiyongdewuqi,qufendifangmubiaoshiwuqihuolihaishiwuzhuangshibing,bingnenggoushibiejiuhuchehepingminzheyangderuanmubiao。zhuanjiahuijiangfuhe《日內瓦公約》的戰爭規則寫入到軟件中,然後將它裝到機器人體內,這樣機器人就可以知道什麼時候開槍了。
然而,一些分析人士擔心,製造完全不犯錯誤的機器人是不可能的。設菲爾德大學的沙爾奇教授就是這一計劃的主要批評者之一。他說:“聽到這個設想我不禁打了個寒顫。我已經在人工智能領域工作多年,但讓機器人來決定人類的終結,這種想法太可怕了。”(王菁)