如何累積數據

  •訓練和實戰之間存在著巨大的反差,要想獲得足夠豐富可靠的訓練數據,就需要使人工智能的應用場景盡可能地貼近實戰,過程中或會出現意外傷害。要想讓人工智能軍事應用變得更安全,就得在初始階段承擔更大的風險;若想將潛在風險降至最低,則其發展便將舉步維艱。

  算法潛藏歧視

  •在民用領域,算法歧視主要同企業文化、設計者個人背景等原因相關,而軍事領域的人工智能算法歧視還同國傢利益、民族意識等密不可分。算法歧視會有意識或無意識地對人工智能武器在盟國和敵對國的應用進行區分,帶來嚴重的倫理問題,也將給人類和平事業造成巨大威脅。

  錯誤識別判斷

  •一些對人類而言不足以影響識別的輕微改變或偽裝,也可能使人工智能的識別判斷出現失誤甚至無法識別。歷史上,已經出現過類似的先例。1983年9月26日,蘇聯的導彈自動預警系統受雲層反光影響,誤判美國向蘇聯發射洲際彈道導彈,幸而當時執勤人員未相信系統報告的錯誤信息。

  資料來源:《軍事文摘》

點讚(0) 打賞

Comment list 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部