Summarization for Pydantic AI
Automatische Konversationszusammenfassung für unbegrenzten Kontext
Drei Strategien für Kontext-Management: intelligente LLM-Zusammenfassung, kostenfreies Sliding-Window und Echtzeit-Context-Manager mit Token-Tracking.
Installation
pip install summarization-pydantic-aiZwei Strategien um Agent-Konversationen innerhalb der Kontextlimits zu halten. LLM-basierte Zusammenfassung komprimiert ältere Nachrichten intelligent und bewahrt Schlüsselinformationen — ausgelöst durch Nachrichtenanzahl, Token-Anzahl oder Kontextanteil. Kostenfreies Sliding-Window-Trimming entfernt einfach die ältesten Nachrichten mit einem sicheren Cutoff, der Tool-Call/Response-Paare nie unterbricht. Ein Echtzeit-Context-Manager trackt Token-Nutzung live, kürzt lange Tool-Ausgaben und erkennt Modell-Kontextfenster automatisch.
Features
Schnellstart
from pydantic_ai import Agentfrom pydantic_ai_summarization import create_summarization_processor
processor = create_summarization_processor( trigger=("tokens", 100000), keep=("messages", 20),)
agent = Agent( "openai:gpt-4o", history_processors=[processor],)
result = await agent.run("Hello!")Anwendungsfälle
Lange Konversationen
Agenten stundenlang laufen lassen ohne Kontextlimits zu erreichen — ältere Nachrichten werden automatisch zusammengefasst.
Kundensupport-Bots
Wichtige Kundendaten (Name, Problem, Bestell-ID) bewahren und routinemäßigen Austausch verwerfen.
Forschungsassistenten
Forschungskontext über tiefe Untersuchungssessions bewahren, in denen gesammelte Ergebnisse das Kontextfenster überschreiten würden.
Kostensensitive Apps
Kostenfreies Sliding Window für maximalen Durchsatz wählen, oder LLM-Zusammenfassung wenn Qualität wichtiger als Geschwindigkeit ist.
Bereit, deinen ersten Produktions-KI-Agenten zu bauen?
Open-Source-Tools, kampferprobte Patterns, null Boilerplate. Konfiguriere deinen Stack und shippe in Minuten — nicht Monaten.