Google DeepMind在ICML 2023上的最新研究

探索現實世界的AI安全性,適應性和效率

下周是7月23日至29日在夏威夷檀香山舉行的第40屆國際機器學習國際會議(ICML 2023)的開始。

ICML匯集了人工智能(AI)社區,以共享新的想法,工具和數據集,並建立聯繫以推進該領域。從計算機視覺到機器人技術,來自世界各地的研究人員將展示他們的最新進展。

我們的科學,技術與社會總監Shakir Mohamed將以社會目的進行有關機器學習的演講,應對醫療保健和氣候的挑戰,採取社會技術觀點,並加強全球社區。

我們很榮幸能夠以鉑金贊助商的身份支持會議,並繼續與我們的長期合作夥伴拉丁人在AI,AI酷兒和機器學習中的女性合作。

在會議上,我們還展示了有關Alphafold的演示,我們在融合科學方面的進步以及諸如Palm-E之類的機器人技術和Phanaki等新模型,用於從文本中生成視頻。

Google DeepMind研究人員今年將在ICML上發表80多篇新論文。由於許多論文在Google Brain和DeepMind聯手之前都提交了,因此最初以Google大腦隸屬關係提交的論文將包含在Google Research Blog中,而該博客則具有在DeepMind隸屬關係下提交的論文。

(模擬)世界中的AI

基礎模型基於讀,寫和創建的AI成功 – 在廣泛的數據集中訓練可以學習執行許多任務的AI系統。我們的最新研究探討了我們如何將這些努力轉化為現實世界,並為更具一般功能和體現的AI代理奠定了基礎,這些AI代理可以更好地理解世界的動態,從而為更有用的AI工具開闢了新的可能性。

在口頭演示中,我們介紹了ADA,這是一種可以適應模擬環境中的新問題的AI代理,就像人類一樣。在幾分鐘之內,ADA可以承擔具有挑戰性的任務:以新穎的方式組合對象,在看不見的地形上,並與其他玩家合作

同樣,我們展示瞭如何使用視覺語言模型來幫助訓練體現的代理 – 例如,通過告訴機器人在做什麼。

強化學習的未來

為了發展負責任和值得信賴的AI,我們必須了解這些系統的核心目標。在加強學習中,可以定義的一種方法是通過獎勵。

在口頭介紹中,我們旨在解決理查德·薩頓(Richard Sutton)首先提出的獎勵假設,指出所有目標都可以被認為是最大程度地提高預期累積獎勵。我們解釋了它所擁有的確切條件,並闡明了以強化學習問題的一般形式獎勵可以(也不能)捕獲的各種目標。

部署AI系統時,它們需要足夠強大的現實世界。我們研究如何更好地培訓強化學習算法,因為AI工具通常必須限制以確保安全和效率。

在我們通過ICML 2023傑出紙張獎的研究中,我們探討瞭如何通過不完美的信息遊戲來教授模型複雜的長期策略。我們分享模型如何玩遊戲以贏得兩人遊戲,即使不知道另一個玩家的位置和可能的動作。

AI邊境的挑戰

人類可以輕鬆學習,適應和理解我們周圍的世界。開發可以以人類方式推廣的先進的AI系統將有助於創建我們可以在日常生活中使用的AI工具並應對新的挑戰。

AI適應的一種方法是快速改變其預測來響應新信息。在口頭介紹中,我們研究了神經網絡中的可塑性,以及在培訓過程中如何丟失它以及防止損失的方法。

我們還提出了可以幫助解釋在大語言模型中出現在大語言模型中的信息類型的研究。

在口頭介紹中,我們介紹了一個新的經常性神經網絡(RNN)家族,該家族在長期推理任務上的表現更好,以釋放這些模型對未來的承諾。

最後,在“分數信用分配”中,我們提出了一種使運氣與技能的運氣​​的方法。通過在行動,結果和外部因素之間建立更明確的關係,AI可以更好地理解複雜的現實世界環境。

Source link

Scroll to Top