中新網(wǎng)7月30日電 據(jù)外媒報(bào)道,“機(jī)器人殺手”聽起來像一場科幻小說噩夢,但其實(shí)際殺傷力已引起學(xué)術(shù)界與科技業(yè)人士的關(guān)注。近日,有不少相關(guān)業(yè)界人士擔(dān)心這些機(jī)器人可能會(huì)加劇“種族滅絕和軍事力量競爭”。
據(jù)報(bào)道,約1000名科技領(lǐng)域領(lǐng)導(dǎo)人日前在一封公開信中寫道:“自主武器使用人工智能來選擇目標(biāo),而無需人為干預(yù),就像是繼火藥和核武器后的第三次戰(zhàn)爭革命。”
在信函上署名的英國科學(xué)家史蒂芬·霍金(Stephen Hawking)和蘋果公司共同創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等為此感到不安。這是因?yàn)榕c無人機(jī)同不的是,這種機(jī)器人有一定的自主決策能力和行為能力。不像無人機(jī)那樣需要人工操作。
信函寫道:“今天人類的關(guān)鍵問題是,是否要開始一個(gè)全球人工智能(artificial intelligence)武器競賽,還是阻止它的啟動(dòng)。”
他們在布宜諾斯艾利斯舉行的2015年人工智能國際聯(lián)合會(huì)議開幕式上公布的信函也指出:“如果任何重大軍事力量推動(dòng)人工智能武器發(fā)展,全球軍備競賽幾乎是不可避免的。”
據(jù)科學(xué)家所說,自動(dòng)殺人機(jī)器的想法因阿諾·施瓦辛格(Arnold Schwarzenegger)的電影《終結(jié)者》出名,正由科幻小說變?yōu)楝F(xiàn)實(shí)。信中寫道:“這類系統(tǒng)雖不合法,但可能在數(shù)年間在現(xiàn)實(shí)中啟用,而不是幾十年。”
科學(xué)家們還描述了自主武器落入恐怖分子、獨(dú)裁者和軍閥手中后的末日情景,手持這些武器的人可能會(huì)進(jìn)行種族滅絕。
信中還寫道:“人工智能可有許多用途,能使戰(zhàn)場對人類更安全,特別是平民,人類無須創(chuàng)建新的殺人工具。”
此外,科學(xué)家也指出,這種武器的發(fā)展雖可減少戰(zhàn)場傷亡的程度,但人類進(jìn)入戰(zhàn)場的門檻降低了。
為此,該小組發(fā)出呼吁:“若你反對把人工智能作軍事用途,請?jiān)谶@封公開信上簽名。”