LangGraph
RAG-Pipeline mit LangGraph
Erstellen Sie eine Retrieval-Augmented-Generation-Pipeline, die Dokumente mit Vektor-Embeddings durchsucht und Fragen mit Quellenangaben beantwortet — mit LangGraph.
RAGvector storeembeddingsdocuments
Funktionierender Code
from langchain_openai import ChatOpenAIfrom langchain_core.tools import toolfrom langgraph.prebuilt import create_react_agent
@tooldef search_documents(query: str, top_k: int = 5) -> str: """Search uploaded documents for relevant content.""" results = vector_store.similarity_search(query, k=top_k) return "\n\n".join( f"[{i+1}] {r.metadata.get('source', 'unknown')}: {r.page_content}" for i, r in enumerate(results) )
agent = create_react_agent( ChatOpenAI(model="gpt-4o"), tools=[search_documents], prompt="You are a document Q&A assistant. Search documents before answering. Cite sources using [1], [2] format.",)
result = await agent.ainvoke({ "messages": [("user", "What does the refund policy say about digital products?")]})print(result["messages"][-1].content)Schritt für Schritt
1
Abhängigkeiten installieren
Installieren Sie LangGraph und die benötigten Tools für diesen Anwendungsfall.
2
Tools definieren
Erstellen Sie domänenspezifische Tool-Funktionen, die Ihr Agent zur Interaktion mit externen Diensten verwenden wird.
3
Agent erstellen und ausführen
Initialisieren Sie den LangGraph-Agenten mit Ihren Tools, setzen Sie den System-Prompt und führen Sie eine Abfrage aus.
Mit anderen Frameworks bauen
Weitere Anleitungen mit LangGraph
Bereit, mit LangGraph zu bauen?
Generieren Sie ein produktionsbereites Projekt mit vorkonfiguriertem LangGraph — FastAPI + Next.js, Auth, Streaming und mehr.
LoslegenBereit, deinen ersten Produktions-KI-Agenten zu bauen?
Open-Source-Tools, kampferprobte Patterns, null Boilerplate. Konfiguriere deinen Stack und shippe in Minuten — nicht Monaten.