中國自動化學會專家谘詢工作委員會指定宣傳媒體
新聞詳情

美國防部巨資開發"機器人戰士" 請道德專家參與

http://www.kadhoai.com.cn 2026-04-07 09:24:03 來源:中國日報網

   據英國《每日電訊報》11月30日報道,美國國防部再次斥巨額投資並邀請英國專家協助開發戰爭機器人。但與以往不同的是,這次他們要製造的是“機器人戰士”,這些“戰士”不會像它們的人類戰友那樣觸犯戰爭罪。

  到2010年為止,美國在戰爭機器人研究項目上的投資將達到40億美元。美國陸軍和海軍同時雇傭了道德規範領域的英國專家,協助研製不會違反《日內瓦公約》的新型戰爭機器。這種機器人既能夠自主辨別何時、向誰開槍,也不是像電影《終結者》那樣超道德的殺人機器。

  印第安那大學哲學家艾倫教授剛剛出版了一本新書,名為《道德機器:幫機器人分辨正誤》。在這本書中,他詳細闡述了如何將道德倫理“灌輸”給(gei)機(ji)器(qi)人(ren)。佐(zuo)治(zhi)亞(ya)理(li)工(gong)大(da)學(xue)計(ji)算(suan)機(ji)專(zhuan)家(jia)阿(e)爾(er)金(jin)教(jiao)授(shou)目(mu)前(qian)正(zheng)在(zai)為(wei)美(mei)軍(jun)研(yan)製(zhi)應(ying)用(yong)於(yu)戰(zhan)爭(zheng)機(ji)器(qi)人(ren)的(de)計(ji)算(suan)機(ji)軟(ruan)件(jian),他(ta)寫(xie)了(le)一(yi)份(fen)相(xiang)關(guan)報(bao)告(gao)。在(zai)這(zhe)份(fen)報(bao)告(gao)中(zhong),他(ta)表(biao)示(shi),盡(jin)管(guan)沒(mei)有(you)“在戰場上絕對按道德行事”的機器人,但它們可以“比人類表現得更加合乎倫理”。這是因為機器人“不需要保護自己的身體,也沒有感情,因而不會對戰場上不斷變化的情形發生情緒化反應”。這樣,機器人戰士既不會因恐懼心理作祟而不敢奔赴前線,也不會在抓獲對方戰俘後便出於報複心理而對其嚴刑拷打。

  盡管目前已有大量的機器人在伊拉克和阿富汗戰場上“服役”,但(dan)這(zhe)一(yi)代(dai)機(ji)器(qi)人(ren)都(dou)是(shi)由(you)人(ren)工(gong)進(jin)行(xing)遠(yuan)程(cheng)控(kong)製(zhi)的(de)。而(er)新(xin)一(yi)代(dai)的(de)機(ji)器(qi)人(ren)將(jiang)能(neng)夠(gou)發(fa)現(xian)攻(gong)擊(ji)的(de)目(mu)標(biao)及(ji)其(qi)所(suo)使(shi)用(yong)的(de)武(wu)器(qi),區(qu)分(fen)敵(di)方(fang)目(mu)標(biao)是(shi)武(wu)器(qi)火(huo)力(li)還(hai)是(shi)武(wu)裝(zhuang)士(shi)兵(bing),並(bing)能(neng)夠(gou)識(shi)別(bie)救(jiu)護(hu)車(che)和(he)平(ping)民(min)這(zhe)樣(yang)的(de)軟(ruan)目(mu)標(biao)。專(zhuan)家(jia)會(hui)將(jiang)符(fu)合(he)《日內瓦公約》的戰爭規則寫入到軟件中,然後將它裝到機器人體內,這樣機器人就可以知道什麼時候開槍了。

  然而,一些分析人士擔心,製造完全不犯錯誤的機器人是不可能的。設菲爾德大學的沙爾奇教授就是這一計劃的主要批評者之一。他說:“聽到這個設想我不禁打了個寒顫。我已經在人工智能領域工作多年,但讓機器人來決定人類的終結,這種想法太可怕了。”(王菁)

版權所有 工控網 Copyright©2026 Gkong.com, All Rights Reserved