Initial commit: TZZR Orchestrator v5
- Framework genérico multi-agente
- Providers: Claude CLI, LiteLLM (100+ modelos)
- Tools: bash, read, write, glob, grep, ssh, http
- Seguridad: sandbox paths, validación comandos, rate limiting
- Configuración via YAML + .env
🤖 Generated with Claude Code
This commit is contained in:
46
examples/local_ollama.yaml
Normal file
46
examples/local_ollama.yaml
Normal file
@@ -0,0 +1,46 @@
|
||||
# examples/local_ollama.yaml
|
||||
# Ejemplo: Usando modelos locales con Ollama
|
||||
#
|
||||
# Requisitos:
|
||||
# 1. Instalar Ollama: https://ollama.ai
|
||||
# 2. Descargar modelos: ollama pull llama3
|
||||
# 3. Ollama debe estar corriendo: ollama serve
|
||||
|
||||
settings:
|
||||
default_provider: litellm
|
||||
default_model: llama3
|
||||
timeout: 600 # Modelos locales pueden ser más lentos
|
||||
|
||||
agents:
|
||||
coder:
|
||||
role: |
|
||||
Eres un programador que ayuda con código.
|
||||
Explicas tu razonamiento paso a paso.
|
||||
provider: litellm
|
||||
model: codellama
|
||||
tools:
|
||||
- read
|
||||
- write
|
||||
- bash
|
||||
|
||||
writer:
|
||||
role: |
|
||||
Eres un escritor creativo.
|
||||
Ayudas con textos, emails y documentos.
|
||||
provider: litellm
|
||||
model: llama3
|
||||
tools:
|
||||
- read
|
||||
- write
|
||||
|
||||
analyst:
|
||||
role: |
|
||||
Eres un analista de datos.
|
||||
Procesas archivos y extraes información.
|
||||
provider: litellm
|
||||
model: mixtral-local
|
||||
tools:
|
||||
- read
|
||||
- bash
|
||||
- glob
|
||||
- grep
|
||||
Reference in New Issue
Block a user