智能系統或誤判 全自動言之尚早
Ta Kung Pao
儘管ChatGPT在軍事領域前景廣闊,但同時在安全性、可靠性等方面,將面臨一系列道德、法律、倫理挑戰。
ChatGPT的效率取決於數據庫的數量和質量,是依靠海量數據積累來輸出對話。戰場上信息千變萬化,變量極多,基於已知經驗的AI,可能無法解析全新的突發事情,造成誤判。
AI主導的武器爭議更多。2021年6月在利比亞,一架土耳其製造的「卡古-2」型無人攻擊機,在沒有後台人員控制的情況下,完全憑預設程序,對一支武裝部隊進行機場掃射,並造成傷亡。
這類致命性自主武器系統(LAWS),被俗稱為「殺人機器人」,能夠自主偵察、識別,直至自主發動攻擊。近些年來,不斷有和平組織推動禁止「殺人機器人」的研製和部署。如果完全脫離人類指令,自主武器很可能會誤傷不具攻擊力的戰俘、傷員,惡化事態。
More Related News