科技發展 軍事熱點

【換日綫特約】當AI遇上戰略核武

Source: Unsplash, by Johannes Daleng

隨著近年尖端科技的研發,人工智能(Artificial Intelligence, AI)的應用似乎已成大勢所趨。Siri、Google duplex、Deep L翻譯系統——從購物網站的客戶服務chatbot的日常到無人飛行載具(Unmanned Aerial Vehicle, UAV)等軍事裝備,亦不難看見AI的影子。然而當AI遇上戰略武器,比方說,核武,又將為世界帶來怎樣的改變。未來的戰爭會是什麼樣子?各國核威攝力與相互保證毀滅(Mutually Assured Destruction, MAD)的平衡會否被打破?地緣政治的關係又是否還一如既往。這些在AI持續發展並越趨廣泛的應用於戰略之時,更值得被深思。

AI的吸引力

就軍事作戰的角度而言,AI於自主武器系統(Autonomous weapon system)的應用是非常具吸引力的。先不說在戰略上省了人力物力,以及一般而言獲取的偵察情報相較人類的要有效率、準確度亦較高,自主系統的最大優勢在於,它能抵達一般人類難以觸及、相對危險程度較高的地域,比方說,太空、深海、南北極,又或是如反介入/區域拒止(Anti-Access/Area Denial, A2/AD)這種現時地緣政治關係上比較敏感的區域。

而在指揮控制(Command and Control)和精確打擊及運輸(Precision strike and delivery)的應用上,自主系統不但能更精確的計算每一項戰略計劃與補給程序,於導彈的偵察、瞄准、警報和防禦系統亦有著舉足輕重的作用。事實上,冷戰時期的美國和前蘇聯便已意識到自主與半自主系統用於導彈警報的潛能——當預警系統偵察到危害本土安全的第一次打擊時,可自行發動彈道飛彈的還擊,也就是核武的第二次(報復性)打擊。1985年蘇聯便部署了一個名為「死亡之手」(Dead Hand/ Perimetr)的戰略核武操控裝置,用以確保如若莫斯科遭受華盛頓導彈轟炸,將實行大規模的報復性還擊。換句話來說,即以相互保證毀滅(MAD)來確保、並鞏固前蘇聯的核威攝力。

根據美國2018的〈核態勢評估報告〉(Nuclear Posture Review),俄羅斯已成功研發有ultimate killer robot之稱,可潛伏著深海、並具有thermonuclear warhead的核能力無人機Oceanic Multipurpose System Status 6。 2019年更是首次部署無人潛航器(Unmanned underwater vehicles,UUV)核動能潛艇波塞頓(Poseidon),其一定程度自主行動能力不但能解決深海行動的通訊困難,亦為本來就已異常鞏固的莫斯科核威攝力再添一層防衛。

然而,乍看AI於戰略核武的應用雖像如虎添翼,其潛在的危險性卻絕不可小覷。或許更值得注意的是,當AI融入戰略核武,將為原來的核威攝力理論帶來怎樣的威脅。

AI的潛在危機

所謂核威攝力,就是利用其擁有的戰略核武所能對敵方構成的威脅,來勸阻或脅迫對方採取對自身有利的行動。然而傳統威攝理論本來就是建基於數個假設。而當中尤關AI應用的,便是威攝理論只適用於所有決策者均處於客觀的狀態並作出最理性的決定,這是其一。其二,是沒有任何意外,或是第三方的介入使用。

在軍事AI的眾多爭議裡,有一個普遍的說法是,人工智能的精確性遠比人類要高,因為人會累,機器不會,人會受情緒影響犯錯,電腦不會。然而現實與理論總是存在一定的差距,當軍事技術發生故障之時,AI可是有著的直接引發軍事衝突的災難性可能——自主系統用於預警系統和指揮控制以後,或許能獲更大的偵察至乎部署等精確性,但現實是,歷史上並不缺乏因技術故障而差點引發核戰的例子——1980年六月上旬美國的預警系統(Early Warning System)就因一塊電腦晶片的故障而發出警報指蘇聯已發射核武導彈、1983年蘇聯的預警系統亦曾因其衛星誤把雲層反射的陽光判斷為美國洲際導彈的引擎,故發出華盛頓正在發動導彈攻擊的警報。事實上,在兩國關係極為緊崩之時,這樣的系統故障所帶來的後果可說是致命的。就好比這個1983年的例子,在莫斯科無法判斷導彈發射情報是否有誤之時,如若不是當時的蘇聯軍官斯坦尼斯拉夫‧彼得羅夫(Stanislav Petrov)決定將事件報告為系統故障,今天讀到的冷戰結局恐怕就要改寫。

再者,當軍事AI漸趨依賴科技的同時,亦意味著將有更多遭受如黑客、恐怖分子未經援權使用的安全危機。試想像如若震網病毒攻擊的不是伊朗核設施,而是核武擁有國的指揮控制中心會有怎樣的後果,大概就不難理解此等 AI應用的潛在危機。

國際關係再平衡?

誠然,尖端科技特別是AI 的應用,比方說上述所提到的UUV Poseidon,毫無疑問地大幅提升了俄羅斯的軍事水平,但是亦引伸出一個關於大國政治更嚴峻的問題。鑑於軍事AI於戰略的潛在能力,擁有能夠研發此等應用的國家將陷入新一輪的軍備競賽,致使在可見的將來,全球安全亦只有一并下降的可能。另一方面,已發展與發展中國家會因為軍費與技術而再度拋離原有的差距,還是,發展中國家在面對能利用軍事AI在一場不對稱戰爭中抗衡軍事霸權、扭轉局勢?

太多的未知,孰好孰壞。但幸與不幸,潘多拉的盒子已然打開。

Reference

Blair, B.G. (2020). ‘Loose cannons: The president and US nuclear posture’, Bulletin of the Atomic Scientists, vol.76, no.1, pp.14-26, p.15

Boulanin, V., Saalman, L., Topychkanov, P., Su, F. and Carlsson, M.P. (2020). Artificial Intelligence, Strategic Stability and Nuclear Risk. The SIPRI. Retrieved from https://www.sipri.org/publications/2020/other-publications/artificial-intelligence-strategic-stability-and-nuclear-risk

Gady F. (2019). ‘Russia’s First ‘Poseidon’ Underwater Drone-Carrying Submarine to Be Launched in 2019’. The Diplomat. Retrieved from
https://thediplomat.com/2019/02/russias-first-poseidon-underwater-drone-carrying-submarine-to-be-launched-in-2019/

Geist, E. and Lohn, A.J. (2018). ‘How Might Artificial Intelligence Affect the Risk of Nuclear War?’ Rand Corporation. Retrieved from https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE296/RAND_PE296.pdf

U.S. Department of Defense. (2018) Nuclear Posture Review. Retrieved from https://media.defense.gov/2018/Feb/02/2001872886/-1/-1/1/2018-NUCLEAR-POSTURE-REVIEW-FINAL-REPORT.PDF

Saalman, L. (2019). The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk Vol. II East Asian Perspectives. The SIPRI. Retrieved from https://www.sipri.org/publications/2019/other-publications/impact-artificial-intelligence-strategic-stability-and-nuclear-risk-volume-ii-east-asian

Leave a Reply

Your email address will not be published. Required fields are marked *