Skip to content
LangChain

Pipeline RAG con LangChain

Construye un pipeline de Retrieval-Augmented Generation que busca documentos con embeddings vectoriales y responde preguntas con citas — usando LangChain.

RAGvector storeembeddingsdocuments

Código funcional

LangChain
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
@tool
def search_documents(query: str, top_k: int = 5) -> str:
"""Search uploaded documents for relevant content."""
results = vector_store.similarity_search(query, k=top_k)
return "\n\n".join(
f"[{i+1}] {r.metadata.get('source', 'unknown')}: {r.page_content}"
for i, r in enumerate(results)
)
model = ChatOpenAI(model="gpt-4o")
model_with_tools = model.bind_tools([search_documents])
response = model_with_tools.invoke([
("system", "You are a document Q&A assistant. Search documents before answering. Cite sources using [1], [2] format."),
("user", "What does the refund policy say about digital products?"),
])

Paso a paso

1

Instalar dependencias

Instala LangChain y las herramientas necesarias para este caso de uso.

2

Definir herramientas

Crea las funciones de herramientas específicas del dominio que tu agente usará para interactuar con servicios externos.

3

Crear el agente y ejecutar

Inicializa el agente de LangChain con tus herramientas, establece el prompt del sistema y ejecuta una consulta.

¿Listo para construir con LangChain?

Genera un proyecto listo para producción con LangChain preconfigurado — FastAPI + Next.js, auth, streaming y más.

Comenzar

¿Listo para construir tu primer agente IA en producción?

Herramientas open-source, patrones probados en batalla, cero boilerplate. Configura tu stack y despliega en minutos — no meses.