人民大學和華為的研究人員提出了Memengine:一個統一的模塊化AI庫,用於定制基於LLM的代理商

基於LLM的代理在各種應用程序中越來越多地使用,因為它們處理複雜的任務並扮演多個角色。這些代理的關鍵組成部分是內存,它存儲和回憶信息,反映了過去的知識,並做出明智的決定。記憶在涉及長期互動或角色扮演的任務中起著至關重要的作用,通過捕捉過去的經驗並幫助保持角色一致性。它支持代理商記住過去與環境的過去交互的能力,並使用此信息來指導未來的行為,從而使其成為此類系統中必不可少的模塊。

儘管越來越關注改善基於LLM的代理的存儲機制,但通常具有不同的實施策略,並且缺乏標準化的框架。這種分裂為開發人員和研究人員帶來了挑戰,他們由於設計不一致而面臨困難或比較模型的困難。此外,常見的功能(例如數據檢索和匯總)經常在模型之間重新成熟,從而導致效率低下。許多學術模型也被深深地嵌入特定的代理體系結構中,使它們難以再利用或適應其他系統。這突出了對LLM代理中內存的統一模塊化框架的需求。

人民大學和華為的研究人員開發了Memengine,這是一個統一的模塊化圖書館,旨在支持基於LLM的代理的開發和部署高級存儲模型。 MEMENGINE將內存系統組織為三個層次級別(功能,操作和模型),從而提高了有效且可重複使用的設計。它支持許多現有的內存模型,使用戶可以輕鬆切換,配置和擴展它們。該框架還包括用於調整超參數,節省內存狀態並與自動駕駛員等流行代理集成的工具。通過全面的文檔和開源訪問,Memengine旨在簡化內存模型研究並促進廣泛採用。

Memengine是一個統一的模塊化庫,旨在增強基於LLM的代理的內存功能。它的體系結構包括三層:具有基本功能的基礎層,一個管理核心內存操作的中間層(例如存儲,回憶,管理和優化信息),以及包括受近期研究啟發的高級內存模型的集合。其中包括諸如Fumemory(長篇小說內存),ltmemory(語義檢索),gamemory(自我反射記憶)和mtmemory(樹結構內存)等模型。每個模型均使用標準化接口實現,使其易於切換或組合。該庫還提供用於構建和自定義內存操作的編碼器,摘要,獵犬和法官等實用程序。此外,Memengine還包括可視化,遠程部署和自動模型選擇的工具,可同時提供本地和基於服務器的用法選項。

與許多僅支持基本內存存儲和檢索的現有庫不同,Memengine通過支持反射,優化和可自定義配置等高級功能來區分自己。它具有強大的配置模塊,使開發人員可以通過靜態文件或動態輸入來微調和提示。開發人員可以從默認設置,手動配置參數或依靠根據其任務量身定制的自動選擇。該庫還支持與VLLM和AUTOGPT等工具集成。 Memengine可以在構建新的內存模型的人的功能,操作和模型級別上進行自定義,並提供廣泛的文檔和示例。 Memengine提供了比其他代理和內存庫更全面和研究一致的內存框架。

總之,Memengine是一個統一的模塊化庫,旨在支持基於LLM的代理的高級存儲模型的開發。儘管大型語言模型代理商在整個行業中的使用越來越大,但它們的記憶系統仍然是關鍵的重點。儘管最近有許多進步,但沒有用於實施內存模型的標準化框架。 Memengine通過提供一個集成了各種最新記憶方法的靈活且可擴展的平台來解決這一差距。它支持簡單的開發和插件用法。展望未來,作者旨在擴展框架,以包括多模式內存,例如音頻和視覺數據,以進行更廣泛的應用程序。


查看紙張 這項研究的所有信用都歸該項目的研究人員。另外,請隨時關注我們 嘰嘰喳喳 而且不要忘記加入我們的 95k+ ml子雷迪特 並訂閱 我們的新聞通訊


Marktechpost的諮詢實習生,IIT Madras的雙學位學生Sana Hassan熱衷於應用技術和AI來應對現實世界中的挑戰。他對解決實踐問題的興趣非常興趣,他為AI和現實生活中的解決方案的交集帶來了新的視角。

🚨建立您可以信任的Genai。 ⭐️Parlant是您的開源引擎,用於受控,合規性和有目的的AI對話 – Github上的Star Parlant! (晉升)

Source link

Scroll to Top