El conocimiento es el nuevo dinero.
Aprender es la nueva manera en la que inviertes
Acceso Cursos

Cómo construir un “Headquarter” de agentes de IA que trabajan para ti 24/7

Antes, el trabajo era manual y consumía horas cada día.Ahora, todo ocurre dentro del “Headquarter” mientras tú te enfocas en lo que realmente importa.

· 4 min de lectura
Cómo construir un “Headquarter” de agentes de IA que trabajan para ti 24/7

Imagina tener un equipo completo trabajando para ti todo el día, ejecutando tareas, generando contenido, analizando información y tomando decisiones operativas sin descanso.

No es una metáfora. Es una arquitectura real.

Lo que he construido es un “Headquarter” de agentes de Inteligencia Artificial: un sistema donde múltiples agentes autónomos colaboran entre sí, cada uno con una función específica dentro de un ecosistema organizado.

Pero lo importante no es la interfaz ni cómo se representa visualmente. Lo importante es cómo está diseñado el sistema y, sobre todo, dónde vive.

Estos agentes no están en mi ordenador personal. Están desplegados en un VPS (servidor virtual privado) que funciona 24/7. Eso significa que siguen trabajando incluso cuando yo no estoy conectado.

La arquitectura: cómo se organiza un sistema de agentes

El sistema está dividido en tres niveles, como si fuera una empresa.

Nivel 1: Dirección (CEO)

En la parte superior estoy yo.

Mi rol no es ejecutar tareas, sino tomar decisiones de alto nivel:

  • definir objetivos
  • aprobar propuestas
  • rechazar ideas

No escribo código, no redacto contenido, no edito. Solo dirijo.

Nivel 2: Operaciones (COO)

Aquí entra ZEN, el director de operaciones.

Su función es crítica: recibe mis instrucciones y las descompone en tareas concretas para los agentes. No ejecuta directamente, pero se asegura de que todo siga las reglas y objetivos definidos.

Nivel 3: Ejecución (equipo operativo)

Aquí está la verdadera fuerza del sistema:

  • Begoña → especialista en X y blogs. Analiza estilo, aplica técnicas avanzadas y gestiona comunidad.
  • Rockety → enfocado en YouTube. Optimiza guiones, hooks y calendario de contenido.
  • Amar → perfil visual. Genera contenido para Instagram y miniaturas.
  • Tomas → adapta contenido a LinkedIn con tono profesional y formatos específicos.

Cada agente tiene un rol claro, lo que permite escalar sin caos.

Infraestructura: el error que comete el 90%

Para que esto funcione, necesitas infraestructura real.

Estoy utilizando VPS de HostGator optimizados para agentes de IA con tecnología OpenClaw. La ventaja es que son prácticamente “plug and play”.

Hay planes económicos, pero si quieres ejecutar varios agentes simultáneamente, necesitas RAM.

Recomendación:

  • usar planes NVMe 4 u 8

¿Por qué?

Porque cuando un agente procesa información o utiliza modelos de lenguaje, sin suficiente memoria:

  • el sistema se ralentiza
  • o directamente se bloquea

La infraestructura no es opcional. Es el cuello de botella.

Las herramientas: cómo los agentes actúan en el mundo real

La inteligencia sin acción no sirve.

Por eso los agentes necesitan herramientas:

Twikit

Permite interactuar con X sin depender de APIs oficiales extremadamente caras.

Firecrawl

Convierte páginas web en contenido limpio en Markdown, eliminando ruido y optimizando tokens.

Notion API

Actúa como base de datos central:

  • los agentes guardan contenido
  • se aprueba desde cualquier dispositivo
  • se disparan automáticamente nuevas acciones

Esto crea un flujo completamente automatizado.

Claude Code: potencia sin control de coste

Claude Code es una herramienta extremadamente potente para programar desde terminal.

El problema es claro: el coste.

Si analizas repositorios grandes o ejecutas tareas complejas usando la API oficial, el consumo de tokens se dispara.

La solución es usar modelos alternativos compatibles.

Ollama: ejecutar modelos gratis en local

Ollama permite correr modelos en tu propia máquina o VPS.

Instalación

curl -fsSL https://ollama.com/install.sh | sh

Descargar modelo

ollama pull devstral-small-2

Configuración

export ANTHROPIC_AUTH_TOKEN="ollama"
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL="http://localhost:11434"

Ejecutar:

claude --model devstral-small-2

Esto hace que Claude Code use un modelo local en lugar de conectarse a Anthropic.

El factor crítico: hardware

Si tienes 16GB de RAM, funcionará… pero lento.

Para una experiencia fluida:

  • mínimo 32GB de RAM

En Apple Silicon, la memoria unificada mejora el rendimiento.

LM Studio: alternativa visual

Para quienes prefieren interfaz gráfica:

  • buscar modelo
  • descargar
  • iniciar servidor

Por defecto usa el puerto 1234, así que solo necesitas cambiar el BASE_URL.

Costes: el cambio radical

Mover carga a modelos locales o baratos cambia completamente la economía.

Ejemplo:

  • DeepSeek V3 vía OpenRouter
  • coste por millón de tokens → centavos

Comparado con modelos premium, el ahorro es de hasta el 98%.

llama.cpp: exprimir al máximo el hardware

Para usuarios avanzados:

Compilación

Mac:

cmake llama.cpp -B llama.cpp/build -DGGML_METAL=ON

Linux:

cmake llama.cpp -B llama.cpp/build -DGGML_CUDA=ON

Un punto clave:
puedes usar Claude Code para resolver errores de instalación automáticamente.

Detalle técnico crítico

El flag --jinja es obligatorio.

Sin él:

  • fallan las herramientas
  • aparecen errores de formato

Ejecución

llama-server -hf modelo \
 --alias "Qwen3-Coder" \
 --port 8000 \
 --jinja \
 --flash-attn on \
 --ctx-size 64000

Modelos GGUF: cómo hacer viable lo imposible

Los modelos GGUF están cuantizados.

Ejemplo:

  • Q4_K_M → reduce tamaño
  • mantiene calidad

Esto permite ejecutar modelos grandes en hardware limitado.

Latencia: el detalle que pocos consideran

  • modelos locales → respuesta inmediata
  • modelos cloud → depende de la ubicación

Configuración ejemplo:

export ANTHROPIC_BASE_URL=https://openrouter.ai/api
export ANTHROPIC_AUTH_TOKEN=TU_KEY
export ANTHROPIC_MODEL="deepseek/deepseek-chat"

Algunos modelos baratos pueden incluso superar a los premium en tareas específicas.

Qué usar realmente (sin teoría)

No hay una única solución.

  • Privacidad total → Ollama / LM Studio
  • Coste mínimo → DeepSeek / Minimax
  • Máxima calidad → Claude Opus

La estrategia óptima:

  • modelos baratos/locales → tareas repetitivas
  • modelos premium → decisiones críticas

Conclusión

Esto no va de usar IA.

Va de construir sistemas que trabajen por ti.

Antes, el trabajo era manual y consumía horas cada día.
Ahora, todo ocurre dentro del “Headquarter” mientras tú te enfocas en lo que realmente importa.

Deja de ser el operador.
Pasa a ser el arquitecto.

Monta tu infraestructura.
Elige tu modelo.
Y deja que los agentes hagan el trabajo pesado.

Gracias por leer Código en Casa.
Si esto te a ayudado y te sumo algo Dale un 👏 , compártelo con tu red o dejame un comentario para saber tu opinión.

Y si quieres verlo te comparto el video para que lo hagas. 👇