Skip to content
LangChain

Pipeline RAG z LangChain

Zbuduj pipeline Retrieval-Augmented Generation, który przeszukuje dokumenty z embeddingami wektorowymi i odpowiada na pytania z cytatami — używając LangChain.

RAGvector storeembeddingsdocuments

Działający kod

LangChain
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
@tool
def search_documents(query: str, top_k: int = 5) -> str:
"""Search uploaded documents for relevant content."""
results = vector_store.similarity_search(query, k=top_k)
return "\n\n".join(
f"[{i+1}] {r.metadata.get('source', 'unknown')}: {r.page_content}"
for i, r in enumerate(results)
)
model = ChatOpenAI(model="gpt-4o")
model_with_tools = model.bind_tools([search_documents])
response = model_with_tools.invoke([
("system", "You are a document Q&A assistant. Search documents before answering. Cite sources using [1], [2] format."),
("user", "What does the refund policy say about digital products?"),
])

Krok po kroku

1

Zainstaluj zależności

Zainstaluj LangChain i wymagane narzędzia do tego przypadku użycia.

2

Zdefiniuj narzędzia

Stwórz specyficzne dla domeny funkcje narzędzi, których agent będzie używał do interakcji z zewnętrznymi serwisami.

3

Stwórz agenta i uruchom

Zainicjalizuj agenta LangChain z narzędziami, ustaw prompt systemowy i wykonaj zapytanie.

Gotowy do budowania z LangChain?

Wygeneruj gotowy do produkcji projekt z LangChain — FastAPI + Next.js, autoryzacja, streaming i więcej.

Rozpocznij

Gotowy, żeby zbudować swojego pierwszego agenta AI?

Open-source'owe narzędzia, sprawdzone wzorce, zero boilerplate'u. Skonfiguruj swój stos i wyślij w minuty — nie miesiące.