Skip to content
Wszystkie projekty

Summarization for Pydantic AI

Automatyczne podsumowywanie rozmów dla nieograniczonego kontekstu

Trzy strategie zarządzania kontekstem: inteligentne podsumowanie LLM, przesuwane okno i real-time context manager z śledzeniem tokenów.

Instalacja

Terminal
pip install summarization-pydantic-ai

Dwie strategie utrzymywania rozmów agentów w limitach kontekstu. Podsumowanie oparte na LLM inteligentnie kompresuje starsze wiadomości zachowując kluczowe informacje — wyzwalane przez liczbę wiadomości, liczbę tokenów lub ułamek kontekstu. Przycinanie przesuwającym się oknem bez kosztu po prostu usuwa najstarsze wiadomości z bezpiecznym odcięciem, które nigdy nie przerywa par wywołanie narzędzia/odpowiedź. Real-time context manager śledzi użycie tokenów na żywo, obcina długie wyniki narzędzi i automatycznie wykrywa okna kontekstowe modeli.

Funkcje

Podsumowanie LLM
Przesuwane Okno
Real-time Context Manager
Śledzenie Tokenów

Szybki Start

summarization_example.py
from pydantic_ai import Agent
from pydantic_ai_summarization import create_summarization_processor
processor = create_summarization_processor(
trigger=("tokens", 100000),
keep=("messages", 20),
)
agent = Agent(
"openai:gpt-4o",
history_processors=[processor],
)
result = await agent.run("Hello!")

Przypadki Użycia

Długie Rozmowy

Utrzymuj agentów przez godziny bez przekraczania limitów kontekstu — starsze wiadomości są automatycznie podsumowywane.

Boty Obsługi Klienta

Zachowuj kluczowe dane klienta (imię, problem, ID zamówienia) odrzucając rutynową wymianę wiadomości.

Asystenci Badawczy

Utrzymuj kontekst badawczy w długich sesjach, gdzie zgromadzone wyniki przekroczyłyby okno kontekstowe.

Aplikacje Wrażliwe na Koszty

Wybierz przesuwane okno bez kosztu dla maksymalnej przepustowości, lub podsumowanie LLM gdy jakość jest ważniejsza niż szybkość.

Gotowy, żeby zbudować swojego pierwszego agenta AI?

Open-source'owe narzędzia, sprawdzone wzorce, zero boilerplate'u. Skonfiguruj swój stos i wyślij w minuty — nie miesiące.