Skip to content
beginner 15 min

Chatbot RAG con almacen vectorial

De cero a un chatbot RAG en produccion en 15 minutos — elige tu almacen vectorial, ingiere documentos, chatea

ragchatbotvector-storedocuments

El Problema

Construir un chatbot RAG requiere elegir y configurar un almacen vectorial, configurar la ingestion de documentos, implementar la busqueda por similitud y conectar todo a una interfaz de chat con streaming — decenas de decisiones antes de escribir cualquier logica de IA.

La Solución

El Full-Stack AI Agent Template genera un pipeline RAG completo con tu eleccion de almacen vectorial (Milvus, Qdrant, ChromaDB, pgvector), ingestion de documentos (PDF, Google Drive, S3, mas de 130 formatos via LlamaParse) y una interfaz de chat Next.js con streaming WebSocket — todo en un solo comando.

Código funcional

rag.py
# Generated by: fastapi-fullstack new --preset ai-agent
# backend/app/agent/rag.py
from pydantic_ai import Agent
from app.core.vectorstore import get_vector_store
from app.core.config import settings
agent = Agent(
model=settings.LLM_MODEL,
system_prompt="Answer questions using the provided context. Cite sources.",
)
@agent.tool
async def search_documents(ctx, query: str, top_k: int = 5) -> str:
"""Search the knowledge base for relevant documents."""
store = get_vector_store() # Milvus, Qdrant, ChromaDB, or pgvector
results = await store.similarity_search(query, k=top_k)
return "\n\n".join([f"[{r.metadata['source']}]: {r.page_content}" for r in results])

Paso a paso

1

Elige tu stack (configurador)

Ejecuta el configurador CLI o usa la herramienta interactiva web para seleccionar tu almacen vectorial, fuentes de documentos, proveedor de LLM y opciones de despliegue. La plantilla soporta mas de 75 opciones de configuracion.

2

Ingerir documentos

Sube PDFs, conecta Google Drive o apunta a un bucket de S3. La plantilla maneja el chunking, la generacion de embeddings y la indexacion en tu almacen vectorial elegido de forma automatica.

3

Chatea con tus datos

Abre la interfaz de chat Next.js con streaming WebSocket en tiempo real. Haz preguntas sobre tus documentos y obtien respuestas citadas con referencias a las fuentes.

4

Desplegar con Docker

Ejecuta `docker compose up` para iniciar el stack completo: backend FastAPI, frontend Next.js, almacen vectorial y PostgreSQL — todo preconfigurado y listo para produccion.

¿Listo para construir esto?

Comienza con las herramientas open-source de Vstorm — probadas en producción, completamente documentadas y gratuitas.

Comenzar

¿Listo para construir tu primer agente IA en producción?

Herramientas open-source, patrones probados en batalla, cero boilerplate. Configura tu stack y despliega en minutos — no meses.