English簡體繁體
【熱點話題】:美國大選 中美關係 全球治理 氣候變化 脫鉤
中文英文中英對照

人工智能與國家安全

2024-08-08
Nye.jpg

人類是能夠製造工具的物種,但是我們能控制自己製造的工具嗎?20世紀40年代,羅伯特·奧本海默和其他物理學家開發出第一枚核裂變武器時,他們擔心自己的發明可能毀滅人類。目前為止,這種情況還沒有發生,但控制核武器一直是一項挑戰。

如今,許多科學家將人工智能(能讓機器執行人類智能才能完成的任務的算法和軟件)視為同樣具有變革意義的工具。與以前的通用技術一樣,人工智能具有巨大潛力,可以向善,也可以作惡。在癌症研究領域,它幾分鐘內整理和總結出的研究成果,人類團隊需要幾個月時間才能完成。此外,它能可靠地預測蛋白質摺疊模式,而研究人員需要多年才能發現。

但是,對於與社會格格不入的人、恐怖分子和其他希望造成破壞的群體來說,人工智能降低了作惡成本和門檻。蘭德公司最近一項研究里發出警告,“復活一種類似於天花的危險病毒,其邊際成本可能只有10萬美元,而開發一種相對應的複雜疫苗則可能需要超過10億美元”。

此外,一些專家擔心,高級人工智能將比人類更加聰明,甚至能控制人類,而不是人類控制它。開發這種超級智能機器(稱為通用人工智能)需要多長時間?各界的預測從幾年到幾十年不等。但無論如何,人工智能的風險正日益增長,值得更多關注。

40年來,阿斯彭戰略小組(由前政府官員、學者、商界人士和記者組成)每年夏天都舉行會議,討論一項重大的國家安全問題。以往的會議主題包括核武器、網絡攻擊和中國崛起等問題。今年,我們重點關注人工智能對國家安全的影響,探討其益處和風險。

人工智能的益處,包括能夠更好地整理大量情報數據、加強預警系統、改進複雜的後勤系統,以及檢查計算機代碼,從而提高網絡安全。但也存在巨大風險,例如自動武器的進步、編程算法意外出錯,以及出現可能削弱網絡安全的對抗性人工智能。

中國一直在投入大量資金用於人工智能軍備競賽,並且擁有一些結構性優勢。人工智能的三大關鍵資源是訓練模型的數據、開發算法的優秀工程師,以及運行算法的計算能力。中國在數據訪問方面幾乎沒有法律或隱私限制(儘管意識形態限制了一些數據集),而且擁有大量優秀的年輕工程師。中國落後於美國的領域,是為人工智能提供計算能力的先進芯片。

美國的出口管制使得中國難以獲得這些高級芯片和製造這些芯片的昂貴的荷蘭光刻機。阿斯彭小組的專家一致認為,在人工智能領域,中國落後美國一兩年,但情況仍然不穩定。去年秋天會晤時,拜登總統和習近平主席同意就人工智能舉行雙邊會談,而阿斯彭小組對人工智能軍備控制的前景並不樂觀。

自動武器構成了特別嚴重的威脅。經過聯合國十多年的外交努力,各國仍未能就禁止致命自動武器達成一致意見。國際人道主義原則要求軍隊區分武裝戰鬥人員和平民,五角大樓長期以來一直要求在武器發射前必須有人類參與決策,但某些情況下,例如防禦來襲的導彈時,人類沒有時間進行干預。

由於背景很重要,人類必須嚴格界定(在代碼中)武器能做什麼和不能做什麼。換句話說,人類不能僅是參與決策,更應該做好監管。這不僅僅是一個推測性的問題。烏克蘭戰爭期間,俄羅斯干擾烏克蘭軍隊的通訊信號,迫使烏克蘭人對他們的設備進行編程,以便讓這些設備自主做出何時開火的最終決策。

人工智能最可怕的危險之一,是將其用於生物戰或者恐怖行動。1972年,各國同意禁止生物武器。當時人們普遍認為生物武器沒有用處,因為它存在“反噬”的風險。但是隨着合成生物學的出現,有可能開發出只消滅一類人群而不影響另一人群的武器。或者,擁有實驗室的恐怖分子可能只是想殺死儘可能多的人,就像1995年日本的末日邪教奧姆真理教一樣——他們使用了不會傳染的沙林毒氣,但如今的壞人可以使用人工智能創造傳染性病毒。

在核技術方面,各國於1968年達成了一項核不擴散條約,目前該條約已有191個成員國。國際原子能機構定期檢查各國的核能源計劃,以確保這些計劃僅用於和平目的。儘管冷戰時期競爭激烈,但核技術領域的領先國家在1978年同意對最敏感設施和技術的出口採取限制措施。這樣的先例為人工智能發展指明了一些路徑,儘管這兩種技術之間存在明顯差異。

不言而喻的是,技術的發展速度遠遠超過了政策或者外交,尤其是考慮到私營部門激烈的市場競爭產生的推動作用。如果今年的阿斯彭戰略小組會議得出一項重要結論,那就是政府需要加快步伐。

全文翻譯自報業辛迪加(Project Syndicate),原文標題“AI and National Security”(2024)。