Preguntas frecuentes
Todo lo que necesitas saber sobre nuestras herramientas y proyectos.
Full-Stack AI Agent Template
¿Qué es el Full-Stack AI Agent Template?
Un generador de proyectos de código abierto que crea aplicaciones AI/LLM listas para producción con un backend FastAPI y frontend Next.js. Un comando CLI o el configurador web genera un proyecto completo con tu elección de framework de IA, base de datos, autenticación y más de 75 opciones de configuración.
¿Qué framework de IA debería elegir?
Elige Pydantic AI para agentes seguros con tipos y listos para producción con observabilidad Logfire. Escoge LangChain para el ecosistema más grande de integraciones. Usa LangGraph para flujos de trabajo complejos de múltiples pasos con gestión de estado. Prueba CrewAI para colaboración multi-agente. Selecciona DeepAgents para agentes autónomos con planificación y aprobación humana.
¿Puedo cambiar de framework de IA después de generar un proyecto?
Sí. Regenera el proyecto con una flag --ai-framework diferente. Tu código personalizado fuera del módulo de agente generado se preserva si usas control de versiones. El configurador web también permite exportar tu configuración como JSON y reimportarla después.
¿Es gratuita la plantilla?
Sí, completamente gratis. La plantilla tiene licencia MIT — úsala para proyectos personales y comerciales sin restricciones. Sin planes premium, sin límites de uso, sin registro necesario.
¿Qué base de datos debería usar?
PostgreSQL es recomendado para producción — soporta el panel de administración, persistencia de conversaciones y todas las funciones ORM de SQLAlchemy/SQLModel. Usa MongoDB para cargas de trabajo orientadas a documentos. SQLite es ideal para desarrollo y despliegues pequeños sin configuración. Elige 'None' para servicios API sin estado.
¿Cómo funciona el streaming por WebSocket?
La plantilla incluye un endpoint WebSocket predefinido que transmite las respuestas del agente de IA token por token al frontend. Soporta conexiones autenticadas, visualización de llamadas a herramientas y persistencia automática de conversaciones. El frontend Next.js incluye una interfaz de chat que renderiza las respuestas en tiempo real.
¿Cómo funciona el configurador web?
El configurador es un asistente de 9 pasos que se ejecuta completamente en tu navegador — no requiere servidor. Usa Nunjucks (un motor JavaScript compatible con Jinja2) para renderizar 246 plantillas de proyecto del lado del cliente, y luego las empaqueta en un ZIP con JSZip. Todo el proceso toma 1-2 segundos. También puedes exportar tu configuración como comando CLI o archivo JSON.
¿Cómo despliego a producción?
La plantilla incluye archivos Docker Compose de producción con health checks y políticas de reinicio. Copia .env.example a .env.prod, configura tus credenciales y URL de base de datos, luego ejecuta: docker compose -f docker-compose.prod.yml up -d --build. El proxy inverso opcional Traefik o Nginx maneja certificados TLS automáticos.
¿Qué versiones de Python son compatibles?
Python 3.11, 3.12 y 3.13. Seleccionas la versión durante la generación del proyecto. Todos los frameworks de IA y dependencias están probados para cada versión soportada.
¿Puedo modificar el proyecto generado?
Por supuesto. El proyecto generado es código Python y TypeScript regular — sin lock-in, sin runtime propietario. Incluye archivos CLAUDE.md y AGENTS.md para que asistentes de codificación IA como Claude Code, Cursor o Copilot entiendan la estructura del proyecto desde el primer día.
¿Qué herramientas de observabilidad están incluidas?
Tres opciones: Logfire (de Pydantic) auto-instrumenta FastAPI, consultas de base de datos, Redis, Celery y llamadas HTTPX — ideal para agentes Pydantic AI. Sentry proporciona seguimiento de errores y monitoreo de rendimiento. Prometheus recopila métricas para dashboards de Grafana. Activa cualquier combinación durante la generación.
¿Puedo usar múltiples proveedores de LLM?
La plantilla configura un proveedor principal (OpenAI, Anthropic u OpenRouter). Con OpenRouter obtienes acceso a más de 200 modelos de múltiples proveedores a través de una sola clave API. También puedes agregar proveedores adicionales manualmente después de la generación — el código generado es Python estándar sin lock-in de proveedor.
Pydantic DeepAgents
¿Qué es pydantic-deep?
Un framework Python para construir agentes autónomos de IA inspirado en la arquitectura de Claude Code. Implementa el patrón deep agent — agentes que pueden planificar, leer/escribir archivos, delegar a subagentes y mantener memoria persistente entre sesiones.
¿En qué se diferencia de LangChain o CrewAI?
DeepAgents es type-safe por defecto (modelos Pydantic, no dicts), modular (componer herramientas, no cadenas) y observable (integración Logfire). Se enfoca en el patrón deep agent — agentes de larga duración que planifican y ejecutan autónomamente.
¿Qué proveedores de LLM son compatibles?
Cualquier proveedor soportado por Pydantic AI — OpenAI, Anthropic, Google Gemini, Groq, Mistral y cualquier API compatible con OpenAI (como Ollama para modelos locales). Cambia de proveedor con una línea de configuración.
¿Puedo usar mis propias herramientas?
Sí. Define herramientas usando el decorador @tool de Pydantic AI. Las herramientas son type-checked, soportan ejecución async e se integran con el sistema de permisos. También puedes usar toolsets preconstruidos (filesystem, base de datos, consola) de bibliotecas complementarias.
¿Está listo para producción?
Sí. DeepAgents impulsa más de 30 despliegues en producción en Vstorm. Incluye logging estructurado vía Logfire, recuperación de errores, seguimiento de uso de tokens y ha sido probado en aplicaciones reales de agentes IA.
Logfire Assistant
¿Qué es Logfire Assistant?
Una extensión de Chrome con backend FastAPI que agrega un panel lateral con IA al dashboard de Pydantic Logfire. Haz preguntas sobre tus traces en lenguaje natural, obtén consultas SQL generadas automáticamente y ve resultados como tablas o gráficos.
¿Necesito una cuenta de Logfire?
Sí. Logfire Assistant consulta tus datos de Logfire a través de la API de Logfire. Necesitas una cuenta de Logfire con al menos un proyecto que tenga datos de traces. El asistente usa tu token de lectura de Logfire para acceder a tus datos de forma segura.
¿Qué proveedores de LLM funcionan?
OpenAI, Anthropic, Google Gemini y cualquier API compatible con OpenAI. Configura tu proveedor preferido en los ajustes del backend. La IA genera consultas SQL específicas de Logfire optimizadas para el esquema de traces.
¿Puedo crear prompts personalizados?
Sí. Crea plantillas de prompts reutilizables con comandos slash como /errors, /costs o /slow. Las plantillas pueden incluir variables y se guardan por proyecto. Compártelas con tu equipo para flujos de debugging consistentes.
¿Se almacenan mis datos?
Las conversaciones se almacenan en tu propia base de datos PostgreSQL que tú alojas. No se envían datos a terceros más allá de las llamadas a la API del LLM. La extensión de Chrome se comunica solo con tu backend FastAPI autoalojado.
¿Listo para construir tu primer agente IA en producción?
Herramientas open-source, patrones probados en batalla, cero boilerplate. Configura tu stack y despliega en minutos — no meses.