Często zadawane pytania
Wszystko co musisz wiedzieć o naszych narzędziach i projektach.
Full-Stack AI Agent Template
Czym jest Full-Stack AI Agent Template?
Open-source'owy generator projektów, który tworzy gotowe do produkcji aplikacje AI/LLM z backendem FastAPI i frontendem Next.js. Jedna komenda CLI lub konfigurator webowy generuje kompletny projekt z wybranym frameworkiem AI, bazą danych, uwierzytelnianiem i ponad 75 opcjami konfiguracji.
Który framework AI powinienem wybrać?
Wybierz Pydantic AI dla typowo bezpiecznych, produkcyjnych agentów z obserwowalnością Logfire. Wybierz LangChain dla największego ekosystemu integracji. Użyj LangGraph dla złożonych wieloetapowych przepływów pracy ze zarządzaniem stanem. Wypróbuj CrewAI dla współpracy wielu agentów. Wybierz DeepAgents dla autonomicznych agentów z planowaniem i zatwierdzaniem przez człowieka.
Czy mogę zmienić framework AI po wygenerowaniu projektu?
Tak. Wygeneruj projekt ponownie z inną flagą --ai-framework. Twój niestandardowy kod poza wygenerowanym modułem agenta jest zachowany, jeśli używasz kontroli wersji. Konfigurator webowy pozwala też wyeksportować konfigurację jako JSON i zaimportować ją później.
Czy szablon jest darmowy?
Tak, całkowicie za darmo. Szablon jest na licencji MIT — używaj go do projektów osobistych i komercyjnych bez ograniczeń. Brak planów premium, brak limitów użytkowania, nie wymaga rejestracji.
Jakiej bazy danych powinienem użyć?
PostgreSQL jest zalecany do produkcji — obsługuje panel administracyjny, historię konwersacji i pełne funkcje ORM SQLAlchemy/SQLModel. Użyj MongoDB dla obciążeń zorientowanych na dokumenty. SQLite jest świetny do developmentu i małych wdrożeń bez konfiguracji. Wybierz 'None' dla bezstanowych serwisów tylko z API.
Jak działa strumieniowanie WebSocket?
Szablon zawiera gotowy endpoint WebSocket, który strumieniuje odpowiedzi agenta AI token po tokenie do frontendu. Obsługuje uwierzytelnione połączenia, wizualizację wywołań narzędzi i automatyczne zapisywanie historii konwersacji. Frontend Next.js zawiera interfejs czatu renderujący odpowiedzi w czasie rzeczywistym.
Jak działa konfigurator webowy?
Konfigurator to 9-etapowy kreator działający całkowicie w przeglądarce — nie wymaga serwera. Używa Nunjucks (silnika JavaScript kompatybilnego z Jinja2) do renderowania 246 szablonów projektów po stronie klienta, a następnie pakuje je do ZIP za pomocą JSZip. Cały proces trwa 1-2 sekundy. Możesz też wyeksportować konfigurację jako komendę CLI lub plik JSON.
Jak wdrożyć na produkcję?
Szablon zawiera produkcyjne pliki Docker Compose z health checkami i politykami restartu. Skopiuj .env.example do .env.prod, skonfiguruj dane uwierzytelniające i URL bazy danych, a następnie uruchom: docker compose -f docker-compose.prod.yml up -d --build. Opcjonalny reverse proxy Traefik lub Nginx obsługuje automatyczne certyfikaty TLS.
Jakie wersje Pythona są obsługiwane?
Python 3.11, 3.12 i 3.13. Wersję wybierasz podczas generowania projektu. Wszystkie frameworki AI i zależności są testowane dla każdej obsługiwanej wersji.
Czy mogę modyfikować wygenerowany projekt?
Oczywiście. Wygenerowany projekt to zwykły kod Python i TypeScript — bez vendor lock-in, bez własnościowego runtime'u. Zawiera pliki CLAUDE.md i AGENTS.md, dzięki czemu asystenci programistyczni AI jak Claude Code, Cursor czy Copilot rozumieją strukturę projektu od pierwszego dnia.
Jakie narzędzia obserwacji są dołączone?
Trzy opcje: Logfire (od Pydantic) automatycznie instrumentuje FastAPI, zapytania do bazy danych, Redis, Celery i wywołania HTTPX — idealne dla agentów Pydantic AI. Sentry zapewnia śledzenie błędów i monitorowanie wydajności. Prometheus zbiera metryki dla dashboardów Grafana. Włącz dowolną kombinację podczas generowania.
Czy mogę używać wielu dostawców LLM?
Szablon konfiguruje jednego głównego dostawcę (OpenAI, Anthropic lub OpenRouter). Z OpenRouter masz dostęp do 200+ modeli od wielu dostawców przez jeden klucz API. Możesz też ręcznie dodać dodatkowych dostawców po wygenerowaniu — wygenerowany kod to standardowy Python bez vendor lock-in.
Pydantic DeepAgents
Czym jest pydantic-deep?
Framework Python do budowy autonomicznych agentów AI inspirowany architekturą Claude Code. Implementuje wzorzec deep agent — agenty, które mogą planować, czytać/pisać pliki, delegować do subagentów i utrzymywać trwałą pamięć między sesjami.
Czym się różni od LangChain lub CrewAI?
DeepAgents jest domyślnie typowo bezpieczny (modele Pydantic, nie słowniki), modularny (kompozycja narzędzi, nie łańcuchy) i obserwowalny (integracja Logfire). Skupia się na wzorcu deep agent — długotrwałych agentach, które planują i wykonują autonomicznie — zamiast prostego chain-of-thought.
Którzy dostawcy LLM są obsługiwani?
Każdy dostawca obsługiwany przez Pydantic AI — OpenAI, Anthropic, Google Gemini, Groq, Mistral i każde API kompatybilne z OpenAI (jak Ollama dla lokalnych modeli). Zmiana dostawcy jedną linią konfiguracji.
Czy mogę używać własnych narzędzi?
Tak. Definiuj narzędzia za pomocą dekoratora @tool z Pydantic AI. Narzędzia są sprawdzane typowo, obsługują wykonanie asynchroniczne i integrują się z systemem uprawnień. Możesz też używać gotowych zestawów narzędzi (filesystem, baza danych, konsola) z bibliotek towarzyszących.
Czy jest gotowy do produkcji?
Tak. DeepAgents napędza ponad 30 wdrożeń produkcyjnych w Vstorm. Zawiera strukturalne logowanie przez Logfire, odzyskiwanie po błędach, śledzenie zużycia tokenów i został przetestowany w prawdziwych aplikacjach agentów AI.
Logfire Assistant
Czym jest Logfire Assistant?
Rozszerzenie Chrome z backendem FastAPI, które dodaje panel boczny z AI do dashboardu Pydantic Logfire. Zadawaj pytania o traces w języku naturalnym, otrzymuj automatycznie generowane zapytania SQL i zobacz wyniki jako tabele lub wykresy — bez opuszczania przeglądarki.
Czy potrzebuję konta Logfire?
Tak. Logfire Assistant odpytuje Twoje dane Logfire przez API Logfire. Potrzebujesz konta Logfire z co najmniej jednym projektem z danymi traces. Asystent używa Twojego tokenu odczytu Logfire do bezpiecznego dostępu do danych.
Którzy dostawcy LLM działają?
OpenAI, Anthropic, Google Gemini i każde API kompatybilne z OpenAI. Skonfiguruj preferowanego dostawcę w ustawieniach backendu. AI generuje zapytania SQL specyficzne dla Logfire, zoptymalizowane dla schematu traces.
Czy mogę tworzyć własne prompty?
Tak. Twórz wielorazowe szablony promptów z komendami slash jak /errors, /costs lub /slow. Szablony mogą zawierać zmienne i są zapisywane per-projekt. Udostępniaj je zespołowi dla spójnych procesów debugowania.
Czy moje dane są przechowywane?
Konwersacje są przechowywane w Twojej własnej bazie PostgreSQL, którą hostujesz. Żadne dane nie są wysyłane do stron trzecich poza wywołaniami API LLM. Rozszerzenie Chrome komunikuje się tylko z Twoim własnym backendem FastAPI.
Gotowy, żeby zbudować swojego pierwszego agenta AI?
Open-source'owe narzędzia, sprawdzone wzorce, zero boilerplate'u. Skonfiguruj swój stos i wyślij w minuty — nie miesiące.