Cómo crear agentes de IA gratis (sin código y con código)
Lo que significa “gratis” aquí
Antes de entrar en herramientas: ninguna opción es completamente gratis si cuentas tu tiempo. Y casi todas tienen un coste de hosting o de LLM si quieres que el agente haga algo útil en producción.
Lo que sí es gratis o de coste muy bajo:
- El software (open source, self-hosted)
- El LLM si usas modelos locales con Ollama o tier gratuito de proveedores
- El hosting si ya tienes un servidor o usas tu propio ordenador para pruebas
Lo que tiene coste cuando escala:
- Las llamadas a APIs de LLM (OpenAI, Anthropic, Gemini)
- El servidor si lo montas en la nube
Con eso claro, estas son las opciones reales.
Sin código: plataformas visuales
n8n
La más completa para automatizaciones con agentes. Tiene nodo nativo de AI Agent, conectores para casi cualquier sistema, y funciona self-hosted con Docker.
Gratis si te lo montas tú. El tier cloud tiene límite de ejecuciones.
Ya tiene un post propio: agentes de IA con n8n.
Flowise
Flowise es la alternativa open source más popular para construir flujos de agentes con LangChain visualmente. Arrastras nodos, configuras herramientas, defines cadenas de razonamiento — sin código.
Cuándo usarlo: Cuando quieres más control sobre la arquitectura del agente que n8n, pero sin escribir código Python.
Instalación básica:
npm install -g flowise
npx flowise start
Se abre en localhost:3000. Self-hosted completo, gratis.
Limitación real: El debug de flujos complejos puede volverse difícil. Los errores en nodos visuales no siempre son fáciles de rastrear.
Dify
Dify es una plataforma más completa: no solo agentes sino también chatbots, RAG (búsqueda en documentos propios), y flujos de trabajo. Tiene cloud gratuito con límites y versión self-hosted open source.
Cuándo usarlo: Si necesitas combinar agentes con búsqueda en documentos propios o construir interfaces de chat para usuarios finales.
Limitación real: La versión self-hosted requiere más recursos que Flowise o n8n — Docker Compose con varios servicios.
Con poco código: low-code y SDKs
LangFlow
LangFlow es la interfaz visual para LangChain. Similar a Flowise en concepto pero más pegado al ecosistema LangChain. Útil si después quieres exportar los flujos a código Python.
pip install langflow
langflow run
n8n con código custom
n8n permite añadir nodos de código JavaScript dentro del flujo. Si el no-code puro se te queda corto pero no quieres montar un proyecto Python completo, puedes añadir lógica custom sin salir de n8n.
Con código: frameworks open source
Si quieres control total y no te importa programar, estos son los más usados:
LangGraph (Python)
LangGraph es el framework de LangChain para agentes con estado. La diferencia respecto a cadenas simples: el agente puede tomar decisiones que ramifican el flujo, volver a pasos anteriores, o mantener estado entre iteraciones.
from langgraph.graph import StateGraph
def my_agent(state):
# lógica del agente
return updated_state
graph = StateGraph(AgentState)
graph.add_node("agent", my_agent)
Cuándo usarlo: Agentes que necesitan tomar decisiones complejas, flujos condicionales, o gestión de estado persistente.
CrewAI
CrewAI está orientado a multi-agentes: defines varios agentes con roles distintos (investigador, escritor, revisor) y los coordinas para completar una tarea.
from crewai import Agent, Task, Crew
researcher = Agent(role="Researcher", goal="Find facts", ...)
writer = Agent(role="Writer", goal="Write report", ...)
crew = Crew(agents=[researcher, writer], tasks=[...])
crew.kickoff()
Cuándo usarlo: Tareas complejas donde tiene sentido dividir el trabajo entre agentes especializados.
Pydantic AI
Más reciente y más orientado a tipo-seguridad. Si usas Python con Pydantic para validación, PydanticAI encaja bien. Los agentes devuelven objetos tipados, lo que hace el debug más manejable.
LLMs gratuitos para tus agentes
El agente necesita un modelo. Opciones sin coste de API:
Ollama (local, sin internet)
Ollama ejecuta modelos localmente. Llama 3, Mistral, Qwen, DeepSeek — corren en tu máquina sin enviar datos a ningún servidor.
ollama pull llama3.2
ollama run llama3.2
Compatible con n8n, Flowise, Dify y la mayoría de frameworks. La limitación es la potencia de tu hardware — y que los modelos locales son menos capaces que GPT-4o o Claude en razonamiento complejo.
Groq (tier gratuito con API)
Groq ofrece inferencia muy rápida con límites generosos en tier gratuito. Llama 3 y Mixtral disponibles. Buena opción para prototipos sin coste de API.
Hugging Face Inference API
Hugging Face tiene una API gratuita para miles de modelos open source. Los límites son bajos para producción, pero suficientes para pruebas.
Por dónde empezar según tu situación
| Situación | Recomendación |
|---|---|
| Quiero probar sin instalar nada | Dify cloud (tier gratuito) |
| Ya uso n8n | AI Agent node de n8n + Ollama o Groq |
| Quiero máximo control, sé Python | LangGraph + Ollama local |
| Tarea con múltiples agentes | CrewAI |
| Quiero interfaz para usuarios finales | Flowise o Dify self-hosted |
Lo que “gratis” no cubre
Antes de escalar cualquier agente a producción:
- Hosting: si lo corres en tu máquina, funciona para pruebas. Para producción necesitas un servidor. Un VPS básico cuesta 5-10€/mes.
- LLM en producción: Ollama con modelos locales aguanta bien tareas simples, pero para razonamiento complejo necesitarás APIs de pago.
- Tu tiempo: configurar, depurar y mantener un stack de agentes self-hosted tiene un coste real de tiempo.
Y si el agente falla en producción — cosa que ocurre más de lo que indican las demos — el debugging también cuesta tiempo.
La opción gratuita es real para aprender, prototipar y casos de uso internos de bajo volumen. Para producción seria, planifica el coste.
Sigue explorando
- Agentes de IA con n8n: qué puedes automatizar de verdad - La opción no-code más completa, con sus limitaciones reales
- Por qué fallan los agentes de IA en producción - Lo que encontrarás cuando salgas del prototipo
- Qué son los agentes de IA - Si primero quieres entender bien qué estás construyendo
Consultoría
¿Tienes un problema parecido con Integraciones con IA?
Puedo ayudarte. Cuéntame qué tienes y te doy un diagnóstico honesto — sin compromiso.
Ver consultoría →También te puede interesar
Qué son los Agentes de IA (explicado sin tecnicismos)
Guía para principiantes: qué es un agente de IA, cómo se diferencia de ChatGPT, ejemplos reales y por dónde empezar.
Por qué fallan los agentes de IA en producción (y nadie te lo dice)
Los agentes de IA funcionan en demos. Se rompen en producción. Seis modos de fallo que nadie explica — y qué ayuda de verdad.
Agentes de IA con n8n: qué puedes automatizar de verdad
n8n tiene nodos de IA, memoria y tool calling. Qué funciona bien, qué tiene limitaciones reales, y cuándo tiene sentido usarlo para agentes.