新的白皮書調查了國際機構的模型和功能,這些機構可以幫助管理機會並減輕高級AI的風險
人們對高級人工智能(AI)的全球影響的越來越多的認識激發了公眾討論,討論了對國際治理結構的需求,以幫助管理機會並減輕涉及的風險。
許多討論都在與國際公民航空公司(國際民航組織)中的類比中進行了一些討論。 CERN(歐洲核研究組織)粒子物理學; IAEA(國際原子能局)核技術;以及許多其他領域的政府間和多方利益相關者組織。然而,儘管類比可以是一個有用的開始,但AI的技術與航空,粒子物理或核技術不同。
要通過AI治理取得成功,我們需要更好地理解:
- 我們需要在國際上管理哪些具體的好處和風險。
- 哪些治理功能這些好處和風險需要。
- 哪些組織可以最好地提供這些功能。
我們的最新論文與牛津大學,蒙特利爾大學,多倫多大學,哥倫比亞大學,哈佛大學,斯坦福大學和OpenAI的合作者解決了這些問題,並調查了國際機構如何幫助管理Frontier AI Development的全球影響並確保AI的福利到達所有社區。
國際和多邊機構的關鍵作用
獲得某些AI技術可以大大提高繁榮和穩定,但是這些技術的好處可能不會均勻分佈或專注於代表性不足的社區或發展中國家的最大需求。無法充分利用互聯網服務,計算能力或機器學習培訓或專業知識的可用性,也可能會阻止某些小組從AI的進步中完全受益。
國際合作可以通過鼓勵組織開發滿足服務不足社區需求的系統和應用來幫助解決這些問題,並通過改善對這些充分利用AI技術的社區的教育,基礎設施和經濟障礙。
此外,國際努力對於管理強大的AI功能帶來的風險可能是必要的。如果沒有足夠的保障措施,其中一些功能(例如自動化軟件開發,化學和合成生物學研究以及文本和視頻生成)可能會被濫用以造成傷害。先進的AI系統也可能以難以預測的方式失敗,如果該技術未負責任地部署,則可能會產生可能具有國際後果的事故風險。
國際和多利益相關者機構可以幫助推進AI開發和部署協議,以最大程度地降低此類風險。例如,它們可能會促進全球對AI能力不同的威脅,並圍繞具有危險能力的模型的識別和處理設定國際標準。國際安全研究的合作還將進一步使我們有能力使系統可靠且有彈性濫用。
最後,在各州有激勵措施(例如,經濟競爭)削弱彼此的監管承諾的情況下,國際機構可能有助於支持和激勵最佳實踐,甚至可以監督對標準的遵守情況。
四個潛在的機構模型
我們探索了四種互補的機構模型,以支持全球協調和治理職能:
- 政府間 Frontier AI委託 可以就高級AI的機會和風險建立國際共識,以及如何管理它們。這將提高公眾對AI前景和問題的認識和理解,從而有助於科學知情的人工智能使用和減輕風險,並成為決策者的專業知識來源。
- 政府間或多方利益相關者 高級AI治理組織 可以通過制定治理規範和標準並協助其實施來幫助國際化和結盟,以解決高級AI系統的全球風險。它還可以為任何國際治理制度執行合規性監控功能。
- 一個 Frontier AI合作 可以促進作為國際公私合作夥伴的高級AI的訪問權限。這樣一來,這將有助於服務不足的社會從尖端的AI技術中受益,並促進國際AI技術的安全和治理目標。
- 一個 AI安全項目 可以將領先的研究人員和工程師匯集在一起,並為他們提供計算資源和高級AI模型,以研究對AI風險的技術緩解。這將通過增加規模,資源和協調來促進AI安全研究和開發。
操作挑戰
關於這些機構模型的可行性,許多重要的開放性問題仍然存在。例如,鑑於AI軌跡和能力的極端不確定性以及迄今為止先進的AI問題的有限科學研究,因此,高級AI委員會將面臨重大的科學挑戰。
在Frontier AI問題上,AI進展的速度和公共部門的能力有限也可能使高級AI治理組織難以設定能夠跟上風險景觀的標準。國際協調的許多困難引起了人們對如何激勵國家採用其標准或接受其監控的問題。
同樣,對社會的許多障礙完全利用了先進的AI系統(和其他技術)的好處,這可能會使Frontier AI合作組織無法優化其影響。在共享AI的好處和防止危險系統的擴散之間也可能存在很難管理的緊張關係。
對於AI安全項目,必須仔細考慮安全研究的哪些要素最好是通過合作與公司的個人努力進行的。此外,一個項目可能難以確保足夠的訪問最有能力的模型來進行所有相關開發人員的安全研究。
鑑於AI系統即將到來的全球機會和挑戰,政府和其他利益相關者之間需要對國際機構的作用以及其職能如何進一步進一步進行AI治理和協調,需要進行更大的討論。
我們希望這項研究有助於國際社會中關於確保為人類利益開發高級AI的方式的對話。