首爾,法國及以後的峰會如何在Frontier AI安全上加劇國際合作
去年,英國政府在Bletchley Park舉辦了第一次在Brontier AI安全上舉行的首次全球峰會。它將全球關注的重點放在AI開發前沿的快速進步上,並採取了具體的國際行動,以應對潛在的未來風險,包括Bletchley聲明;新的AI安全機構;以及有關高級AI安全的國際科學報告。
從布萊奇利(Bletchley)開始的六個月,國際社會有機會以這種勢頭為基礎,並在本週的AI首爾峰會上加劇了全球合作。我們在下面分享了一些關於峰會以及未來的想法,如何將進步推向前進的全球AI安全方法。
人工智能能力繼續以迅速發展
自Bletchley以來,包括Google DeepMind在內的整個領域都有強大的創新和進步。 AI繼續在關鍵科學領域推動突破,我們的新Alphafold 3模型以前所未有的精度預測了所有生命分子的結構和相互作用。這項工作將有助於改變我們對生物世界的理解並加速藥物發現。同時,我們的雙子座模型家族已經使世界上數十億人使用的產品更有用,更容易獲得。我們還一直在努力改善我們的模型如何感知,理性和互動,並最近分享了我們在Astra Project Astra的AI助手的未來方面的進步。
AI功能的進展有望改善許多人的生活,但也提出了需要在許多關鍵安全領域中協作解決的新穎問題。 Google DeepMind正在努力通過開創性的安全研究來識別和應對這些挑戰。僅在過去的幾個月中,我們分享了我們不斷發展的方法來為我們的先進模型開發一系列整體安全和責任評估,包括評估關鍵能力的早期研究,例如欺騙,網絡安全,自我增殖和自我增殖和自我增殖推理。我們還發布了深入的探索,以使未來的先進AI助手與人類價值觀和利益保持一致。除了LLM之外,我們最近分享了我們對Alphafold 3的生物安全方法。
這項工作是由我們堅信我們需要像我們對能力創新一樣迅速地創新的安全和治理的驅動,而且這兩種事情都必須同時完成,不斷地互相告知和增強。
在Frontier AI風險上建立國際共識
最大化先進的AI系統的收益需要在關鍵邊境安全問題上建立國際共識,包括預期和準備新的風險,而不是當今模型帶來的風險。但是,鑑於對這些潛在的未來風險的高度不確定性,決策者對獨立,科學的觀點有明確的需求。
這就是為什麼發布有關高級AI安全性的新的臨時國際科學報告是AI首爾峰會的重要組成部分 – 我們期待今年晚些時候從我們的研究中提交證據。隨著時間的流逝,這種類型的努力可能成為峰會過程的中心輸入,如果成功的話,我們認為應該將其具有更永久的狀態,以寬鬆地建立在氣候變化的政府間小組的功能上。這將是對世界各地政策制定者需要為國際行動提供的證據基礎的重要貢獻。
我們認為,這些AI峰會可以提供一個定期的論壇,該論壇致力於建立國際共識和一種共同的協調方法。對邊境安全的獨特關注也將確保這些召集是互補的,而不是其他國際治理工作的重複。
在評估和連貫的治理框架中建立最佳實踐
評估是通知AI治理決策所需的關鍵組成部分。它們使我們能夠衡量AI系統的功能,行為和影響,並且是風險評估和設計適當緩解的重要意見。但是,Frontier AI安全評估的科學仍在開發的早期。
這就是為什麼Google與其他領先的AI實驗室啟動的Frontier模型論壇(FMF)正在與美國和英國的AI安全機構以及其他利益相關者進行評估邊境模型的最佳實踐。 AI峰會可以幫助擴大國際上的這項工作,並有助於避免重複或相互衝突的國家測試和治理制度的拼湊而成。至關重要的是,我們避免分裂可能會無意中損害安全或創新。
美國和英國AI安全機構已經同意建立一種共同的安全測試方法,這是邁向更大協調的重要第一步。我們認為,隨著時間的推移,有機會以一種共同的全球方法來建立這一點。首爾峰會的最初優先事項可能是同意各種各樣的參與者在開發和標準化邊境AI評估基準和方法方面的路線圖。
為風險管理開發共享框架也很重要。為了為這些討論做出貢獻,我們最近引入了前沿安全框架的第一個版本,這是一套主動識別未來的AI功能的協議,這些功能可能造成嚴重的傷害並實施機制以檢測和減輕它們。我們希望,隨著我們從實施中學到的了解,加深對AI風險和評估的理解,並與行業,學術界和政府合作,我們期望該框架會大大發展。隨著時間的流逝,我們希望分享我們的方法將有助於與他人的工作,以同意評估子孫後代AI模型安全的標準和最佳實踐。
採取全球臨時AI安全方法
AI邊境的進步可能引起的許多潛在風險是全球性的。當我們進入AI首爾峰會,展望法國及其他地區的未來峰會時,我們很高興有機會在Frontier AI安全上促進全球合作。我們希望這些峰會將為朝著共同的全球方法提供進步的專門論壇。正確地邁出了為社會釋放AI的巨大好處的關鍵一步。