Summarization for Pydantic AI
Automatyczne podsumowywanie rozmów dla nieograniczonego kontekstu
Trzy strategie zarządzania kontekstem: inteligentne podsumowanie LLM, przesuwane okno i real-time context manager z śledzeniem tokenów.
Instalacja
pip install summarization-pydantic-aiDwie strategie utrzymywania rozmów agentów w limitach kontekstu. Podsumowanie oparte na LLM inteligentnie kompresuje starsze wiadomości zachowując kluczowe informacje — wyzwalane przez liczbę wiadomości, liczbę tokenów lub ułamek kontekstu. Przycinanie przesuwającym się oknem bez kosztu po prostu usuwa najstarsze wiadomości z bezpiecznym odcięciem, które nigdy nie przerywa par wywołanie narzędzia/odpowiedź. Real-time context manager śledzi użycie tokenów na żywo, obcina długie wyniki narzędzi i automatycznie wykrywa okna kontekstowe modeli.
Funkcje
Szybki Start
from pydantic_ai import Agentfrom pydantic_ai_summarization import create_summarization_processor
processor = create_summarization_processor( trigger=("tokens", 100000), keep=("messages", 20),)
agent = Agent( "openai:gpt-4o", history_processors=[processor],)
result = await agent.run("Hello!")Przypadki Użycia
Długie Rozmowy
Utrzymuj agentów przez godziny bez przekraczania limitów kontekstu — starsze wiadomości są automatycznie podsumowywane.
Boty Obsługi Klienta
Zachowuj kluczowe dane klienta (imię, problem, ID zamówienia) odrzucając rutynową wymianę wiadomości.
Asystenci Badawczy
Utrzymuj kontekst badawczy w długich sesjach, gdzie zgromadzone wyniki przekroczyłyby okno kontekstowe.
Aplikacje Wrażliwe na Koszty
Wybierz przesuwane okno bez kosztu dla maksymalnej przepustowości, lub podsumowanie LLM gdy jakość jest ważniejsza niż szybkość.
Gotowy, żeby zbudować swojego pierwszego agenta AI?
Open-source'owe narzędzia, sprawdzone wzorce, zero boilerplate'u. Skonfiguruj swój stos i wyślij w minuty — nie miesiące.