En este vídeo vamos a ver como hacer un Multi-Agente que corre en Local usando Langraph y que usa múltiples LLM,s, Como VectorStore usaremos Chroma con embeddings de Nomic.ai. Como modelo usaremos Llama 3.2 3B, LLama 3 8B y DeepSeek R1 1.5 B todos ellos en formato GGUF int4 .
Para servir el agente y crear el punto de Inferencia usaremos LangServe, En el cual crearemos la lógica para crear puntos de acceso autenticados a la aplicación, usando Tokens y cabeceras de autentificacion
Notebook:
Video Anterior Langserve RAG: LangGraph. Servir Agente LLM Local con LangServe.
Video Inicial Crear Agente Local con LLama 3.2 8B in OLLAMA
source
Disclaimer
The content published on this page is sourced from external platforms, including YouTube. We do not own or claim any rights to the videos embedded here. All videos remain the property of their respective creators and are shared for informational and educational purposes only.
If you are the copyright owner of any video and wish to have it removed, please contact us, and we will take the necessary action promptly.