根據美國政府在AI中的技術領先地位,美國人工智能公司OpenAI,人類和Google警告說,美國的技術領導者“並不廣泛,正在縮小”,因為諸如DeepSeek R1之類的中國模型表明了越來越多的能力。
這些最新的提交從2025年3月開始,突出了對國家安全風險,經濟競爭力以及戰略監管框架的需求,以維持美國在全球競爭以及中國在該領域的國家提高進步的情況下保持美國領導地位。 Anthropic和Google於2025年3月6日提交了他們的回复,而Openai的提交隨後於2025年3月13日提交。
中國挑戰和DeepSeek R1
中國DeepSeek R1模型的出現引起了美國AI主要開發人員的重大關注,他們認為它不比美國技術優越,而是令人信服的證據,表明技術差距正在迅速閉合。
Openai明確警告說:“ DeepSeek表明我們的領先優勢並不廣泛,正在縮小”,將模型描述為“同時獲得國家補貼,國家控制和自由使用”,這是他們認為對美國利益和全球AI發展特別威脅的組合。
根據Openai的分析,DeepSeek構成的風險類似於與中國電信巨頭華為相似的風險。 Openai表示:“與華為一樣,在關鍵基礎設施和其他高風險用例中,建立在DeepSeek模型之上的風險很大,因為CCP可能會強迫DeepSeek操縱其模型造成傷害。”
該公司進一步引起了人們對數據隱私和安全性的擔憂,並指出中國法規可能要求DeepSeek與政府共享用戶數據。這可以使中國共產黨能夠開發更先進的AI系統,同時損害州利益,同時損害個人隱私。
人類的評估主要關註生物安全性。他們的評估表明,DeepSeek R1“即使以明顯的惡意意圖提出,也遵守了大多數生物武器化問題。”這種提供潛在危險信息的意願與美國領先模型實施的安全措施相反。
“雖然美國今天在AI上保持領先地位,但DeepSeek表明我們的領先優勢並不廣泛,正在縮小。”擬人自身的提交回應,加強了警告的緊急語氣。
兩家公司都以意識形態的方式進行了競爭,Openai描述了美國領導的“民主AI”與中國“專制,專制AI”之間的競爭。他們認為,DeepSeek的報導意願為“身份欺詐和知識產權盜竊等非法和有害活動(例如,盜竊)的指示進行了指示,這反映了兩國之間的AI發展的根本不同的道德方法。
DeepSeek R1的出現無疑是全球人工智能種族的重要里程碑,儘管美國對先進半導體的出口控制權,並強調了協調政府在維持該領域的領導地位的政府行動的緊迫性。
國家安全的影響
所有三家公司的意見都強調了先進的AI模型引起的重要國家安全問題,儘管它們以不同的角度應對這些風險。
Openai的警告重點關注CCP對像DeepSeek這樣的中國AI模型的影響。該公司強調,中國法規可能會迫使DeepSeek“妥協關鍵的基礎設施和敏感應用程序”,並要求與政府共享用戶數據。這些數據共享可以使更複雜的AI系統的開發與中國的國家利益保持一致,從而既有立即的隱私問題又有長期安全威脅。
Anthropic的關注中心對先進的AI能力帶來的生物安全風險,無論其原籍國如何。人類特別令人震驚地披露,“我們最近的系統,克勞德3.7十四行詩,證明了其支持生物武器開發方面的能力的改善。”這種坦率的入院強調了先進的AI系統的雙重使用性質以及對強大的保障措施的需求。
人類學還確定了他們所說的與NVIDIA的H20芯片有關的“美國芯片限制中的監管差距”。儘管這些芯片滿足了中國出口的績效要求降低,但它們“在文本生成(’採樣’)中表現出色,這是高級強化學習方法的基本組成部分,對當前的邊界模型能力的進步至關重要。”人類敦促“立即進行監管行動”解決當前出口控制框架中的這種潛在漏洞。
Google在承認AI安全風險的同時,倡導採取更加平衡的出口控制方法。該公司警告說,當前的AI出口規則“可能會通過對美國雲服務提供商施加不成比例的負擔來破壞經濟競爭目標……”。取而代之的是,Google建議“平衡的出口控件,以保護國家安全,同時使美國出口和全球業務運營。”
這三家公司都強調需要增強政府評估能力。擬人化呼籲建立“聯邦政府測試和評估強大的國家安全能力AI模型的能力”,以更好地了解對手的潛在濫用。這將涉及維護和加強AI安全研究所,指示NIST開發安全評估,以及組裝跨學科專家的團隊。
比較表:Openai,人類,Google
重點區域 | Openai | 人類 | |
主要問題 | 國家控制的AI受到政治和經濟威脅 | 高級模型的生物安全風險 | 在平衡安全的同時保持創新 |
查看DeepSeek R1 | “國家補貼,國家控制並自由使用”,具有華為般的風險 | 願意以惡意的意圖回答“生物武器化問題” | 對DeepSeek的專注不太具體,更多地對更廣泛的競爭 |
國家安全優先事項 | CCP影響和數據安全風險 | 生物安全威脅和芯片出口漏洞 | 平衡的出口控制權,不會負擔美國提供商 |
監管方法 | 與聯邦政府的自願合作;單一接觸點 | 增強的政府測試能力;硬化出口控制 | “聯邦聯邦框架”;特定部門的治理 |
基礎設施的重點 | 政府採用Frontier AI工具 | AI開發的能源擴展(到2027年50GW) | 協調能源行動,允許改革 |
獨特的建議 | 分層出口控制框架促進“民主AI” | 直接對出口到中國的NVIDIA H20芯片的監管行動 | 行業訪問公開學習的公開可用數據 |
經濟競爭力策略
基礎設施要求,尤其是能源需求,成為維持我們AI領導力的關鍵因素。人類人士警告說:“到2027年,培訓單個邊界AI模型將需要網絡計算群集繪製大約五吉瓦的功率。”他們提出了一個雄心勃勃的國家目標,以在2027年之前建立50次專門針對人工智能行業的電力,並採取簡化允許和加快輸電線路批准的措施。
Openai再次將競爭構成了“民主AI”和CCP建立的“專制AI”之間的意識形態競賽。他們對“民主AI”的願景強調了“促進自由,公平競爭的自由市場”和“開發商和用戶在合適的安全護欄內使用和指導我們的工具的自由”。
這三家公司均提供了維持美國領導力的詳細建議。擬人化強調了“增強美國經濟競爭力”的重要性,並確保“在社會中廣泛共享AI驅動的經濟利益”。他們主張“確保和擴大美國能源供應”,這是將AI在美國邊界內保持AI開發的關鍵先決條件,警告說,能源限制可能會迫使開發人員在海外。
Google呼籲採取決定性的行動,以“增強美國AI開發”,重點關註三個關鍵領域:對AI的投資,加速政府AI採用以及在國際上促進親創新方法。該公司強調需要“協調聯邦,州,地方和行業對傳輸和允許改革以滿足能源需求的政策行動”,並在“平衡出口控制”和“為基礎AI研究和開發中持續資助的資金”。
Google的提交特別強調了需要建立“聯邦政府為AI的聯邦框架”的必要性,該框架將阻止州法規的拼湊而成,同時確保行業訪問公開可用的培訓模型數據。他們的方法強調“集中,特定於行業和風險的AI治理和標準”,而不是廣泛的監管。
監管建議
在所有意見中,統一的聯邦AI法規方法都是一致的主題。 Openai警告說,不要“由美國各州創造的監管套利”,並提出了一種“整體方法,使聯邦政府與私營部門之間的自願夥伴關係”。他們的框架設想商務部的監督,有可能通過重新構想的美國AI安全研究所,為AI公司提供了與政府有關安全風險的單一聯繫。
在出口控制下,Openai倡導了一個分層框架,旨在促進與民主價值一致的國家採用,同時限制了中國及其盟友的訪問權限。通過與情報機構的增強協作,擬人化的人類似地要求“強化出口控件來擴大美國AI領導”,並“大大提高美國邊境實驗室的安全性”。
版權和知識產權考慮在OpenAI和Google的建議中都突出。 Openai強調了保持合理使用原則以使AI模型能夠從受版權保護的材料中學習的重要性,而不會破壞現有作品的商業價值。他們警告說,與中國競爭對手相比,過於限制的版權規則可能不利美國AI公司。 Google回應了這一觀點,主張“平衡的版權規則,例如合理使用和文本和數據挖掘例外”,他們將其描述為“使AI系統能夠從先驗知識和公開可用數據中學習至關重要”。
這三家公司都強調需要加速政府採用AI技術。 Openai呼籲採取“雄心勃勃的政府採用策略”,以使聯邦進程現代化並安全部署Frontier AI工具。他們特別建議消除採用AI的障礙,包括過時的認證過程,例如FedRamp,限制性測試當局和不靈活的採購途徑。人類類似地提倡“促進整個聯邦政府的快速AI採購”,以徹底改變運營並增強國家安全。
Google建議政府內部“簡化過時的認證,授權和採購實踐”,以加速AI採用。他們強調了有效的公共採購規則的重要性,並改善了政府雲解決方案的互操作性,以促進創新。
這些領先的AI公司的全面意見提出了一個明確的信息:維持美國在人工智能方面的領導需要在多個方面進行協調的聯邦行動 – 從基礎設施的發展和監管框架到國家安全保護和政府的現代化 – 尤其是隨著中國的競爭加劇。