專家警告AI恐誤判致核戰 冷戰時期曾一觸即發

綜合報導  / 美國

AI可能成為戰略工具嗎?美國外交關係協會學者「丹巴克」指出,核武攻擊預警系統不該由AI人工智慧主導,否則可能對全球核安造成威脅,因為AI的深偽技術會導致誤判,幾分鐘內就能導致世界末日,並且以1983年美蘇冷戰時期為例,災難就差點爆發,多虧一名執勤的蘇聯軍官確認警報是誤報,才避免悲劇的發生。

AI人工智慧發展,可能威脅世界核安,現在有專家開始,關注核武大國可能把,使用核武的決定權交給AI,美國外交關係協會學者丹巴克說:「歷史上聽過許多關於,機器人與人工智慧風險的討論,以及與核武器的互動,這些討論大多聚焦發射決策本身,也就是美國總統或軍方人員,是否將發射決定權交給機器,我們認為以目前來看,是微乎其微。」

但專家說更大挑戰是,隨著AI技術複雜化,產生的影片音訊等假訊息,可能影響發射決策之前的過程,或在危機期間誤導領導人,並舉出2022年,俄羅斯入侵烏克蘭幾週後,就出現烏克蘭總統澤倫斯基,呼籲投降的假影片。

更極端的情況下,這些假訊息,甚至可能讓核武國家領導人相信,敵方正在展開,先發制人打擊等的假警報,可能為世界帶來災難,這些都對核安構成隱患,美國外交關係協會學者丹巴克說:「所以任何AI工具,或其他技術可能竄改預警訊息,或製造混亂,或模糊不清或引發誤判,導致核武器意外被使用,這些都是我在思考,更廣泛核武器政策議題中,反覆在想的問題。」

1983年9月26日,就差點爆發核戰,蘇聯的核武預警系統誤報,顯示美國發動核攻擊,就多虧了這位軍官冷靜判斷,避免災難發生,euronews報導說:「(軍官)斯坦尼斯發夫彼得羅夫,1983年,在莫斯科核預警系統值勤時,系統發出美國剛發射飛彈警報,彼得羅夫告訴上司,警報是系統故障引發的。」

丹巴克認為,核預警和指揮控制系統,不該使用AI,只會帶來更多的欺騙風險,而人類的判斷,在核安體系中無法被取代,並呼籲正在推動,AI軍事化應用的美國,應設下嚴格紅線,提高資訊核查標準,明確標示分析結果等,關鍵判斷環節應由人類主導。

美國國務院軍備控制官員迪恩(2024)說:「我們已做出非常明確和堅定承諾,在核武器使用情况下的決策,只能由人類做出,我們絕不會把核武使用的決策權,交給人工智慧。」根據美國法律,總統下令使用核武器時,不用和任何人商議,無論是用於報復,或先發制人的攻擊,美國軍方也隨時準備部署,攜帶核彈頭的飛機和潛艦,例如美國的洲際彈道飛彈,能在30分鐘內命中目標,而隨著核武大國戰術核武器,加速發展,美國有搭載核彈頭的,海射巡航飛彈,可由多款艦艇搭載隱蔽性強,F35戰機測試核彈投放也大成功,俄羅斯還有海燕核動力飛彈,和水下無人載具海神,號稱無人能攔截,各國核武器發展已開始常規化,法國也有新一代,空基核打擊武器。

Defense Updates報導說:「ASMPA-R其中重要的技術優勢,在推進系統,同早期採衝壓式噴射引擎,即飛行能吸入空氣,相較火箭引擎,能更有效率燃燒燃料,這一設計使其能持續,維持超音速飛行,據報導ASMPA-R在試射中,速度達3馬赫。」核武大國都想確保,戰略上的主動權,然而新削減戰略武器條約,將在2月到期,以後的核武競賽,就怕比冷戰時更可怕。

新聞來源:華視新聞



新聞關鍵字

加入Line好友