Saltar al contenido

Cómo crear agentes de IA gratis (sin código y con código)

· 6 min de lectura · Leer en English
Compartir:

Lo que significa “gratis” aquí

Antes de entrar en herramientas: ninguna opción es completamente gratis si cuentas tu tiempo. Y casi todas tienen un coste de hosting o de LLM si quieres que el agente haga algo útil en producción.

Lo que sí es gratis o de coste muy bajo:

  • El software (open source, self-hosted)
  • El LLM si usas modelos locales con Ollama o tier gratuito de proveedores
  • El hosting si ya tienes un servidor o usas tu propio ordenador para pruebas

Lo que tiene coste cuando escala:

  • Las llamadas a APIs de LLM (OpenAI, Anthropic, Gemini)
  • El servidor si lo montas en la nube

Con eso claro, estas son las opciones reales.


Sin código: plataformas visuales

n8n

La más completa para automatizaciones con agentes. Tiene nodo nativo de AI Agent, conectores para casi cualquier sistema, y funciona self-hosted con Docker.

Gratis si te lo montas tú. El tier cloud tiene límite de ejecuciones.

Ya tiene un post propio: agentes de IA con n8n.

Flowise

Flowise es la alternativa open source más popular para construir flujos de agentes con LangChain visualmente. Arrastras nodos, configuras herramientas, defines cadenas de razonamiento — sin código.

Cuándo usarlo: Cuando quieres más control sobre la arquitectura del agente que n8n, pero sin escribir código Python.

Instalación básica:

npm install -g flowise
npx flowise start

Se abre en localhost:3000. Self-hosted completo, gratis.

Limitación real: El debug de flujos complejos puede volverse difícil. Los errores en nodos visuales no siempre son fáciles de rastrear.

Dify

Dify es una plataforma más completa: no solo agentes sino también chatbots, RAG (búsqueda en documentos propios), y flujos de trabajo. Tiene cloud gratuito con límites y versión self-hosted open source.

Cuándo usarlo: Si necesitas combinar agentes con búsqueda en documentos propios o construir interfaces de chat para usuarios finales.

Limitación real: La versión self-hosted requiere más recursos que Flowise o n8n — Docker Compose con varios servicios.


Con poco código: low-code y SDKs

LangFlow

LangFlow es la interfaz visual para LangChain. Similar a Flowise en concepto pero más pegado al ecosistema LangChain. Útil si después quieres exportar los flujos a código Python.

pip install langflow
langflow run

n8n con código custom

n8n permite añadir nodos de código JavaScript dentro del flujo. Si el no-code puro se te queda corto pero no quieres montar un proyecto Python completo, puedes añadir lógica custom sin salir de n8n.


Con código: frameworks open source

Si quieres control total y no te importa programar, estos son los más usados:

LangGraph (Python)

LangGraph es el framework de LangChain para agentes con estado. La diferencia respecto a cadenas simples: el agente puede tomar decisiones que ramifican el flujo, volver a pasos anteriores, o mantener estado entre iteraciones.

from langgraph.graph import StateGraph

def my_agent(state):
    # lógica del agente
    return updated_state

graph = StateGraph(AgentState)
graph.add_node("agent", my_agent)

Cuándo usarlo: Agentes que necesitan tomar decisiones complejas, flujos condicionales, o gestión de estado persistente.

CrewAI

CrewAI está orientado a multi-agentes: defines varios agentes con roles distintos (investigador, escritor, revisor) y los coordinas para completar una tarea.

from crewai import Agent, Task, Crew

researcher = Agent(role="Researcher", goal="Find facts", ...)
writer = Agent(role="Writer", goal="Write report", ...)

crew = Crew(agents=[researcher, writer], tasks=[...])
crew.kickoff()

Cuándo usarlo: Tareas complejas donde tiene sentido dividir el trabajo entre agentes especializados.

Pydantic AI

Más reciente y más orientado a tipo-seguridad. Si usas Python con Pydantic para validación, PydanticAI encaja bien. Los agentes devuelven objetos tipados, lo que hace el debug más manejable.


LLMs gratuitos para tus agentes

El agente necesita un modelo. Opciones sin coste de API:

Ollama (local, sin internet)

Ollama ejecuta modelos localmente. Llama 3, Mistral, Qwen, DeepSeek — corren en tu máquina sin enviar datos a ningún servidor.

ollama pull llama3.2
ollama run llama3.2

Compatible con n8n, Flowise, Dify y la mayoría de frameworks. La limitación es la potencia de tu hardware — y que los modelos locales son menos capaces que GPT-4o o Claude en razonamiento complejo.

Groq (tier gratuito con API)

Groq ofrece inferencia muy rápida con límites generosos en tier gratuito. Llama 3 y Mixtral disponibles. Buena opción para prototipos sin coste de API.

Hugging Face Inference API

Hugging Face tiene una API gratuita para miles de modelos open source. Los límites son bajos para producción, pero suficientes para pruebas.


Por dónde empezar según tu situación

SituaciónRecomendación
Quiero probar sin instalar nadaDify cloud (tier gratuito)
Ya uso n8nAI Agent node de n8n + Ollama o Groq
Quiero máximo control, sé PythonLangGraph + Ollama local
Tarea con múltiples agentesCrewAI
Quiero interfaz para usuarios finalesFlowise o Dify self-hosted

Lo que “gratis” no cubre

Antes de escalar cualquier agente a producción:

  • Hosting: si lo corres en tu máquina, funciona para pruebas. Para producción necesitas un servidor. Un VPS básico cuesta 5-10€/mes.
  • LLM en producción: Ollama con modelos locales aguanta bien tareas simples, pero para razonamiento complejo necesitarás APIs de pago.
  • Tu tiempo: configurar, depurar y mantener un stack de agentes self-hosted tiene un coste real de tiempo.

Y si el agente falla en producción — cosa que ocurre más de lo que indican las demos — el debugging también cuesta tiempo.

La opción gratuita es real para aprender, prototipar y casos de uso internos de bajo volumen. Para producción seria, planifica el coste.


Sigue explorando

¿Te ha sido útil? Compártelo

Compartir:

Consultoría

¿Tienes un problema parecido con Integraciones con IA?

Puedo ayudarte. Cuéntame qué tienes y te doy un diagnóstico honesto — sin compromiso.

Ver consultoría →

También te puede interesar