LangGraph
Pipeline RAG z LangGraph
Zbuduj pipeline Retrieval-Augmented Generation, który przeszukuje dokumenty z embeddingami wektorowymi i odpowiada na pytania z cytatami — używając LangGraph.
RAGvector storeembeddingsdocuments
Działający kod
from langchain_openai import ChatOpenAIfrom langchain_core.tools import toolfrom langgraph.prebuilt import create_react_agent
@tooldef search_documents(query: str, top_k: int = 5) -> str: """Search uploaded documents for relevant content.""" results = vector_store.similarity_search(query, k=top_k) return "\n\n".join( f"[{i+1}] {r.metadata.get('source', 'unknown')}: {r.page_content}" for i, r in enumerate(results) )
agent = create_react_agent( ChatOpenAI(model="gpt-4o"), tools=[search_documents], prompt="You are a document Q&A assistant. Search documents before answering. Cite sources using [1], [2] format.",)
result = await agent.ainvoke({ "messages": [("user", "What does the refund policy say about digital products?")]})print(result["messages"][-1].content)Krok po kroku
1
Zainstaluj zależności
Zainstaluj LangGraph i wymagane narzędzia do tego przypadku użycia.
2
Zdefiniuj narzędzia
Stwórz specyficzne dla domeny funkcje narzędzi, których agent będzie używał do interakcji z zewnętrznymi serwisami.
3
Stwórz agenta i uruchom
Zainicjalizuj agenta LangGraph z narzędziami, ustaw prompt systemowy i wykonaj zapytanie.
Zbuduj z innymi frameworkami
Więcej poradników z LangGraph
Gotowy do budowania z LangGraph?
Wygeneruj gotowy do produkcji projekt z LangGraph — FastAPI + Next.js, autoryzacja, streaming i więcej.
RozpocznijGotowy, żeby zbudować swojego pierwszego agenta AI?
Open-source'owe narzędzia, sprawdzone wzorce, zero boilerplate'u. Skonfiguruj swój stos i wyślij w minuty — nie miesiące.