Skip to content
LangGraph

RAG-Pipeline mit LangGraph

Erstellen Sie eine Retrieval-Augmented-Generation-Pipeline, die Dokumente mit Vektor-Embeddings durchsucht und Fragen mit Quellenangaben beantwortet — mit LangGraph.

RAGvector storeembeddingsdocuments

Funktionierender Code

LangGraph
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
from langgraph.prebuilt import create_react_agent
@tool
def search_documents(query: str, top_k: int = 5) -> str:
"""Search uploaded documents for relevant content."""
results = vector_store.similarity_search(query, k=top_k)
return "\n\n".join(
f"[{i+1}] {r.metadata.get('source', 'unknown')}: {r.page_content}"
for i, r in enumerate(results)
)
agent = create_react_agent(
ChatOpenAI(model="gpt-4o"),
tools=[search_documents],
prompt="You are a document Q&A assistant. Search documents before answering. Cite sources using [1], [2] format.",
)
result = await agent.ainvoke({
"messages": [("user", "What does the refund policy say about digital products?")]
})
print(result["messages"][-1].content)

Schritt für Schritt

1

Abhängigkeiten installieren

Installieren Sie LangGraph und die benötigten Tools für diesen Anwendungsfall.

2

Tools definieren

Erstellen Sie domänenspezifische Tool-Funktionen, die Ihr Agent zur Interaktion mit externen Diensten verwenden wird.

3

Agent erstellen und ausführen

Initialisieren Sie den LangGraph-Agenten mit Ihren Tools, setzen Sie den System-Prompt und führen Sie eine Abfrage aus.

Bereit, mit LangGraph zu bauen?

Generieren Sie ein produktionsbereites Projekt mit vorkonfiguriertem LangGraph — FastAPI + Next.js, Auth, Streaming und mehr.

Loslegen

Bereit, deinen ersten Produktions-KI-Agenten zu bauen?

Open-Source-Tools, kampferprobte Patterns, null Boilerplate. Konfiguriere deinen Stack und shippe in Minuten — nicht Monaten.