![]() |
| (圖片來源:Instagram/Evolving AI) |
2024年11月,美國總統喬·拜登和中國國家主席習近平就人工智能帶來的國家安全風險發表首個實質性聯合聲明。他們指出,美國和中國都認為“需要保持人類對使用核武器決定的控制”。
這聽起來像是外交層面“唾手可得的”成果,因為找不到任何一個有理性的人支持將核武器控制權交給人工智能。但在中國政府面前,尤其在重大安全問題上,根本不存在什麼“唾手可得的”成果。中國天生對美國的風險規避提議持懷疑態度,俄羅斯也曾在多邊機構反對類似措辭。與美國就人工智能和核安全問題進行雙邊會談,會讓俄中關係出現分歧,因此,在這一領域取得進展並非板上釘釘的事。
最終,雙方歷經一年多的談判,才達成這份看似簡單的聯合聲明。聲明的內容簡單,其結果卻意義重大,因為它表明,即使在激烈爭奪人工智能領導地位的時候,這兩個人工智能超級大國也能開展建設性風險管理。
此外,2024年初,我們兩國的外交官和專家在日內瓦舉行過一次漫長的專門會議,討論人工智能的風險。這是關於該主題的首次會議,沒有取得任何重大成果,但會議召開本身是一個重要里程碑,雙方也確定了一些需要進一步研究的主要風險領域。
如今,隨着人工智能在民用和軍事領域研發和部署的勢頭加快,中美兩國需要在此基礎上,就人工智能的風險持續開展高級別外交磋商,即便雙方都力爭取得人工智能競賽的領先地位。他們必須這樣做,因為人工智能的風險真實存在,而且只會增加。
例如,隨着人工智能能力的進步和普及,恐怖組織等非國家行為體可能利用人工智能威脅美國、中國乃至世界其他地區。此類威脅可能採取多種形式,包括癱瘓關鍵基礎設施的網絡攻擊、難以檢測或應對的新型生物武器、破壞政府和社會穩定的虛假信息宣傳活動,以及能夠悄無聲息地在任何地方發動襲擊的致命無人機。
風險還不止於此。隨着美中兩國軍方加大人工智能的應用,縮短決策周期並改變威懾框架,人工智能系統無意之間引發衝突或導致局勢災難性升級的風險隨之增加。隨着人工智能在全球銀行體系內扮演越來越重要的角色,如果缺乏有效的防火牆,人工智能驅動的交易可能導致市場崩盤。展望未來,我們可以想像,一個強大但目標失控的人工智能系統(其目標與創造者的初衷相悖)可能會對人類造成嚴重威脅。作為世界上的兩個人工智能超級大國,美中兩國需要直接對話,共同應對這些以及其他潛在風險。
有管理的競爭
接觸並不意味着中美兩國會停止激烈競爭。今年秋天,中國對微芯片和其他人工智能系統組件生產至關重要的稀土元素實施了更為嚴格的新出口管制,表明中美競爭已經變得異常激烈。
我在擔任拜登政府國家安全顧問期間,努力確保美國在人工智能領域的領先地位,使這項技術為我們所用,而不是對我們不利。我預見到,在軍事、情報和商業應用領域,以及世界各國對美國和中國人工智能模型及應用的採納方面,競爭只會愈演愈烈。
正因為競爭如此激烈,外交才顯得至關重要,哪怕是在當前局勢高度緊張的時候。如果美中兩國不就風險進行磋商,不探討人工智能在應對從氣候危機到公共衛生等跨國挑戰方面帶來的巨大機遇,貿然競相發展,那將是極其不負責任的。
誠然,兩國頂尖思想家都參與了“二軌”外交,即政府體制外的對話,這通常涉及大學、商界領袖和民間團體。此類討論很有價值,應該繼續下去。但歸根結底,政府間的直接接觸是不可替代的,即使最初可能規模不大。鑒於科技進步的驚人速度,以及在外交領域取得突破面臨的種種可預見困難,這種接觸刻不容緩。人工智能風險管理是一個未知領域,因此進展既不會迅速也不會輕鬆。美中兩國必須立即行動起來。
許多評論人士將人工智能與數十年的核武器控制相提並論,這種類比不無道理。超級大國有責任管控強大技術帶來的風險。我們過去通過軍控協議成功履行了這一責任,包括在冷戰最激烈的時期,但人工智能帶來了不同的挑戰,需要比軍控更具創新性的方法。
造成這種情況的原因很多。首先,驗證更加複雜。統計具有可探測特徵的導彈和彈頭是一回事,統計算法則是另一回事,更不用說辨別特定算法的所有功能和應用。
其次,兩用挑戰在人工智能領域有不同的表現。誠然,原子裂變既可民用也可軍用,但和平利用核能與核武器之間界限分明,國際原子能機構在監管方面也積累了豐富經驗。相比之下,同樣的人工智能模型既可以促進科學研究和經濟增長,也可能造成可怕的致命後果。這使得中美之間的競爭動態更難管控,機遇與風險之間的界限也更難辨別。
第三,軍控討論主要集中在國家對其他國家的威脅上,而人工智能的風險不僅涉及國家間威脅,還涉及非國家行為體威脅以及人工智能錯位帶來的風險。這給外交帶來了不同的挑戰和機遇。
第四,至少在美國,人工智能的發展並非由政府驅動,而是由私營部門驅動,且並非由一家公司主導,而是由眾多相互競爭的公司主導。這意味着,旨在降低技術風險的討論必須包括更廣泛的參與者。
最後,對於人工智能能力的發展速度和範圍,存在着各種各樣的觀點。有些人認為,它是一種“常規”技術,需要數十年才能全面普及,另一些人則認為超級智能的爆髮指日可待。核武器的威力或許可以略微增強或減弱,運載工具的速度可能更快或機動性更強,但你清楚自己面對的是什麼。人工智能能力的演進和影響則遠沒有那麼明確。
擔任國家安全顧問期間,我致力於確保美國政府能夠應對每一種可能出現的不確定情況。這需要更高的靈活性、更精細的策略和更穩健的行事風格。核武器控制框架並非一朝一夕形成,相關出口管制、測試方案、核查協議和保障措施的制定耗時數年,而維護這些措施則需要數十年的外交努力。在人工智能領域,我們正處於類似目標的初級階段,但實質內容和複雜性卻截然不同。正因如此,立即着手降低風險顯得更加重要。
全文翻譯自報業辛迪加(Project Syndicate),原文標題為“China and America Must Get Serious About AI Risk”,2025
