Skip to content
LangChain

RAG-Pipeline mit LangChain

Erstellen Sie eine Retrieval-Augmented-Generation-Pipeline, die Dokumente mit Vektor-Embeddings durchsucht und Fragen mit Quellenangaben beantwortet — mit LangChain.

RAGvector storeembeddingsdocuments

Funktionierender Code

LangChain
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
@tool
def search_documents(query: str, top_k: int = 5) -> str:
"""Search uploaded documents for relevant content."""
results = vector_store.similarity_search(query, k=top_k)
return "\n\n".join(
f"[{i+1}] {r.metadata.get('source', 'unknown')}: {r.page_content}"
for i, r in enumerate(results)
)
model = ChatOpenAI(model="gpt-4o")
model_with_tools = model.bind_tools([search_documents])
response = model_with_tools.invoke([
("system", "You are a document Q&A assistant. Search documents before answering. Cite sources using [1], [2] format."),
("user", "What does the refund policy say about digital products?"),
])

Schritt für Schritt

1

Abhängigkeiten installieren

Installieren Sie LangChain und die benötigten Tools für diesen Anwendungsfall.

2

Tools definieren

Erstellen Sie domänenspezifische Tool-Funktionen, die Ihr Agent zur Interaktion mit externen Diensten verwenden wird.

3

Agent erstellen und ausführen

Initialisieren Sie den LangChain-Agenten mit Ihren Tools, setzen Sie den System-Prompt und führen Sie eine Abfrage aus.

Bereit, mit LangChain zu bauen?

Generieren Sie ein produktionsbereites Projekt mit vorkonfiguriertem LangChain — FastAPI + Next.js, Auth, Streaming und mehr.

Loslegen

Bereit, deinen ersten Produktions-KI-Agenten zu bauen?

Open-Source-Tools, kampferprobte Patterns, null Boilerplate. Konfiguriere deinen Stack und shippe in Minuten — nicht Monaten.