# examples/local_ollama.yaml # Ejemplo: Usando modelos locales con Ollama # # Requisitos: # 1. Instalar Ollama: https://ollama.ai # 2. Descargar modelos: ollama pull llama3 # 3. Ollama debe estar corriendo: ollama serve settings: default_provider: litellm default_model: llama3 timeout: 600 # Modelos locales pueden ser más lentos agents: coder: role: | Eres un programador que ayuda con código. Explicas tu razonamiento paso a paso. provider: litellm model: codellama tools: - read - write - bash writer: role: | Eres un escritor creativo. Ayudas con textos, emails y documentos. provider: litellm model: llama3 tools: - read - write analyst: role: | Eres un analista de datos. Procesas archivos y extraes información. provider: litellm model: mixtral-local tools: - read - bash - glob - grep