- Framework genérico multi-agente
- Providers: Claude CLI, LiteLLM (100+ modelos)
- Tools: bash, read, write, glob, grep, ssh, http
- Seguridad: sandbox paths, validación comandos, rate limiting
- Configuración via YAML + .env
🤖 Generated with Claude Code
47 lines
962 B
YAML
47 lines
962 B
YAML
# examples/local_ollama.yaml
|
|
# Ejemplo: Usando modelos locales con Ollama
|
|
#
|
|
# Requisitos:
|
|
# 1. Instalar Ollama: https://ollama.ai
|
|
# 2. Descargar modelos: ollama pull llama3
|
|
# 3. Ollama debe estar corriendo: ollama serve
|
|
|
|
settings:
|
|
default_provider: litellm
|
|
default_model: llama3
|
|
timeout: 600 # Modelos locales pueden ser más lentos
|
|
|
|
agents:
|
|
coder:
|
|
role: |
|
|
Eres un programador que ayuda con código.
|
|
Explicas tu razonamiento paso a paso.
|
|
provider: litellm
|
|
model: codellama
|
|
tools:
|
|
- read
|
|
- write
|
|
- bash
|
|
|
|
writer:
|
|
role: |
|
|
Eres un escritor creativo.
|
|
Ayudas con textos, emails y documentos.
|
|
provider: litellm
|
|
model: llama3
|
|
tools:
|
|
- read
|
|
- write
|
|
|
|
analyst:
|
|
role: |
|
|
Eres un analista de datos.
|
|
Procesas archivos y extraes información.
|
|
provider: litellm
|
|
model: mixtral-local
|
|
tools:
|
|
- read
|
|
- bash
|
|
- glob
|
|
- grep
|