盡管ChatGPT在軍事領域前景廣闊,但同時在安全性、可靠性等方面,將面臨一系列道德、法律、倫理挑戰。

  ChatGPT的效率取決於數據庫的數量和質量,是依靠海量數據積累來輸出對話。戰場上信息千變萬化,變量極多,基於已知經驗的AI,可能無法解析全新的突發事情,造成誤判。

  AI主導的武器爭議更多。2021年6月在利比亞,一架土耳其制造的“卡古-2”型無人攻擊機,在沒有後臺人員控制的情況下,完全憑預設程序,對一支武裝部隊進行機場掃射,並造成傷亡。

  這類致命性自主武器系統(LAWS),被俗稱為“殺人機器人”,能夠自主偵察、識別,直至自主發動攻擊。近些年來,不斷有和平組織推動禁止“殺人機器人”的研制和部署。如果完全脫離人類指令,自主武器很可能會誤傷不具攻擊力的戰俘、傷員,惡化事態。

點讚(0) 打賞

Comment list 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部