Skip to content

Häufig gestellte Fragen

Alles was Sie über unsere Tools und Projekte wissen müssen.

Full-Stack AI Agent Template

Was ist das Full-Stack AI Agent Template?
Ein Open-Source-Projektgenerator, der produktionsreife AI/LLM-Anwendungen mit einem FastAPI-Backend und Next.js-Frontend erstellt. Ein CLI-Befehl oder der Web-Konfigurator generiert ein vollständiges Projekt mit Ihrer Wahl des AI-Frameworks, der Datenbank, Authentifizierung und über 75 Konfigurationsoptionen.
Welches AI-Framework sollte ich wählen?
Wählen Sie Pydantic AI für typsichere, produktionsreife Agenten mit Logfire-Observability. Nehmen Sie LangChain für das größte Ökosystem an Integrationen. Verwenden Sie LangGraph für komplexe mehrstufige Workflows mit State Management. Probieren Sie CrewAI für Multi-Agent-Kollaboration. Wählen Sie DeepAgents für autonome Agenten mit Planung und Human-in-the-Loop-Genehmigung.
Kann ich das AI-Framework nach der Projektgenerierung wechseln?
Ja. Generieren Sie das Projekt mit einem anderen --ai-framework-Flag neu. Ihr benutzerdefinierter Code außerhalb des generierten Agentenmoduls bleibt erhalten, wenn Sie Versionskontrolle verwenden. Der Web-Konfigurator ermöglicht auch den Export Ihrer Konfiguration als JSON zum späteren Re-Import.
Ist das Template kostenlos?
Ja, vollständig kostenlos. Das Template ist MIT-lizenziert — verwenden Sie es für persönliche und kommerzielle Projekte ohne Einschränkungen. Keine Premium-Stufen, keine Nutzungslimits, keine Registrierung erforderlich.
Welche Datenbank sollte ich verwenden?
PostgreSQL wird für die Produktion empfohlen — es unterstützt das Admin-Panel, Konversationspersistenz und alle SQLAlchemy/SQLModel ORM-Funktionen. Verwenden Sie MongoDB für dokumentenorientierte Workloads. SQLite ist ideal für Entwicklung und kleine Deployments ohne Konfiguration. Wählen Sie 'None' für zustandslose API-only-Dienste.
Wie funktioniert WebSocket-Streaming?
Das Template enthält einen vorgefertigten WebSocket-Endpunkt, der AI-Agent-Antworten Token für Token an das Frontend streamt. Es unterstützt authentifizierte Verbindungen, Tool-Call-Visualisierung und automatische Konversationspersistenz. Das Next.js-Frontend enthält eine Chat-Oberfläche, die die gestreamten Antworten in Echtzeit rendert.
Wie funktioniert der Web-Konfigurator?
Der Konfigurator ist ein 9-Schritte-Assistent, der vollständig in Ihrem Browser läuft — kein Server erforderlich. Er verwendet Nunjucks (eine Jinja2-kompatible JavaScript-Engine), um 246 Projektvorlagen clientseitig zu rendern, und verpackt sie dann mit JSZip in eine ZIP-Datei. Der gesamte Prozess dauert 1-2 Sekunden. Sie können Ihre Konfiguration auch als CLI-Befehl oder JSON-Datei exportieren.
Wie deploye ich in die Produktion?
Das Template enthält produktionsreife Docker-Compose-Dateien mit Health Checks und Restart-Policies. Kopieren Sie .env.example nach .env.prod, konfigurieren Sie Ihre Anmeldedaten und Datenbank-URL, dann führen Sie aus: docker compose -f docker-compose.prod.yml up -d --build. Der optionale Traefik- oder Nginx-Reverse-Proxy handhabt automatische TLS-Zertifikate.
Welche Python-Versionen werden unterstützt?
Python 3.11, 3.12 und 3.13. Sie wählen die Version während der Projektgenerierung. Alle AI-Frameworks und Abhängigkeiten werden für jede unterstützte Version getestet.
Kann ich das generierte Projekt modifizieren?
Absolut. Das generierte Projekt ist regulärer Python- und TypeScript-Code — kein Lock-in, keine proprietäre Laufzeitumgebung. Es enthält CLAUDE.md- und AGENTS.md-Dateien, damit AI-Coding-Assistenten wie Claude Code, Cursor oder Copilot die Projektstruktur vom ersten Tag an verstehen.
Welche Observability-Tools sind enthalten?
Drei Optionen: Logfire (von Pydantic) instrumentiert automatisch FastAPI, Datenbankabfragen, Redis, Celery und HTTPX-Aufrufe — ideal für Pydantic AI-Agenten. Sentry bietet Fehlertracking und Performance-Monitoring. Prometheus sammelt Metriken für Grafana-Dashboards. Aktivieren Sie jede Kombination während der Generierung.
Kann ich mehrere LLM-Anbieter verwenden?
Das Template konfiguriert einen primären Anbieter (OpenAI, Anthropic oder OpenRouter). Mit OpenRouter erhalten Sie Zugang zu über 200 Modellen von mehreren Anbietern über einen einzigen API-Schlüssel. Sie können auch nach der Generierung manuell weitere Anbieter hinzufügen — der generierte Code ist Standard-Python ohne Vendor-Lock-in.

Pydantic DeepAgents

Was ist pydantic-deep?
Ein Python-Framework zum Erstellen autonomer KI-Agenten, inspiriert von der Claude-Code-Architektur. Es implementiert das Deep-Agent-Pattern — Agenten, die planen, Dateien lesen/schreiben, an Subagenten delegieren und persistenten Speicher über Sitzungen hinweg behalten.
Wie unterscheidet es sich von LangChain oder CrewAI?
DeepAgents ist standardmäßig typsicher (Pydantic-Modelle, keine Dicts), modular (Tools komponieren, keine Chains) und beobachtbar (Logfire-Integration). Es konzentriert sich auf das Deep-Agent-Pattern — langlebige Agenten, die autonom planen und ausführen.
Welche LLM-Anbieter werden unterstützt?
Jeder von Pydantic AI unterstützte Anbieter — OpenAI, Anthropic, Google Gemini, Groq, Mistral und jede OpenAI-kompatible API (wie Ollama für lokale Modelle). Anbieterwechsel mit einer Konfigurationszeile.
Kann ich eigene Tools verwenden?
Ja. Definieren Sie Tools mit dem @tool-Dekorator von Pydantic AI. Tools sind typgeprüft, unterstützen asynchrone Ausführung und integrieren sich in das Berechtigungssystem. Sie können auch vorgefertigte Toolsets (Dateisystem, Datenbank, Konsole) aus Begleitbibliotheken verwenden.
Ist es produktionsreif?
Ja. DeepAgents betreibt über 30 Produktions-Deployments bei Vstorm. Es umfasst strukturiertes Logging über Logfire, Fehlerwiederherstellung, Token-Usage-Tracking und wurde in echten KI-Agenten-Anwendungen kampferprobt.

Logfire Assistant

Was ist Logfire Assistant?
Eine Chrome-Erweiterung mit FastAPI-Backend, die eine KI-gestützte Seitenleiste zum Pydantic-Logfire-Dashboard hinzufügt. Stellen Sie Fragen zu Ihren Traces in natürlicher Sprache, erhalten Sie automatisch generierte SQL-Abfragen und sehen Sie Ergebnisse als Tabellen oder Diagramme.
Brauche ich ein Logfire-Konto?
Ja. Logfire Assistant fragt Ihre Logfire-Daten über die Logfire-API ab. Sie benötigen ein Logfire-Konto mit mindestens einem Projekt mit Trace-Daten. Der Assistent verwendet Ihr Logfire-Lesetoken für sicheren Datenzugriff.
Welche LLM-Anbieter funktionieren?
OpenAI, Anthropic, Google Gemini und jede OpenAI-kompatible API. Konfigurieren Sie Ihren bevorzugten Anbieter in den Backend-Einstellungen. Die KI generiert Logfire-spezifische SQL-Abfragen, optimiert für das Traces-Schema.
Kann ich eigene Prompts erstellen?
Ja. Erstellen Sie wiederverwendbare Prompt-Templates mit Slash-Befehlen wie /errors, /costs oder /slow. Templates können Variablen enthalten und werden pro Projekt gespeichert. Teilen Sie sie im Team für konsistente Debugging-Workflows.
Werden meine Daten gespeichert?
Konversationen werden in Ihrer eigenen PostgreSQL-Datenbank gespeichert, die Sie selbst hosten. Keine Daten werden an Dritte gesendet, außer den LLM-API-Aufrufen. Die Chrome-Erweiterung kommuniziert nur mit Ihrem selbst gehosteten FastAPI-Backend.

Bereit, deinen ersten Produktions-KI-Agenten zu bauen?

Open-Source-Tools, kampferprobte Patterns, null Boilerplate. Konfiguriere deinen Stack und shippe in Minuten — nicht Monaten.