DeepSeek API – Przewodnik po integracji, modelach i cenniku
Poznaj potężne możliwości modeli DeepSeek V3 i Coder dzięki wydajnemu API zgodnemu z OpenAI w najniższych cenach na rynku.
Zacznij teraz

Konfiguracja dostępu do API rozpoczyna się od utworzenia konta programisty na platformie DeepSeek i wygenerowania pierwszego klucza API w sekcji poświadczeń. Proces szybkiego startu obejmuje trzy podstawowe kroki: konfigurację uwierzytelniania, instalację SDK oraz wykonanie pierwszego żądania. Większość programistów kończy testowanie pierwszego żądania w ciągu 15 minut, korzystając z dostarczonych szablonów kodu.
Uwierzytelnianie wykorzystuje format tokena nośnika z kluczami o prefiksie „sk-”. Podstawowy URL dla wszystkich punktów końcowych API to https://api.deepseek.com/v1, zgodnie z konwencjami RESTful. Wymagane nagłówki obejmują Authorization z kluczem API oraz Content-Type ustawiony na application/json. Limitowanie stawek dotyczy konkretnego klucza, a nie całego konta, co pozwala zespołom rozdzielać kwoty pomiędzy wiele projektów.
W przypadku instalacji SDK dla języka Python należy użyć menedżera pip, aby dodać oficjalną bibliotekę klienta. Poniższy kod demonstruje pełny przepływ pierwszego żądania przy użyciu punktu końcowego uzupełniania czatu z modelem DeepSeek V3:
pip install deepseek-sdk
from deepseek import DeepSeek
client = DeepSeek(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="deepseek-chat-v3",
messages=[
{"role": "system", "content": "Jesteś pomocnym asystentem."},
{"role": "user", "content": "Wyjaśnij pojęcie obliczeń kwantowych w prostych słowach."}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
Dla programistów preferujących przykładowe żądania curl, równoważne wywołanie HTTP wymaga jawnej konfiguracji nagłówka. Takie podejście sprawdza się przy testowaniu bez zależności od SDK:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key-here" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat-v3",
"messages": [{"role": "user", "content": "Witaj, API!"}],
"max_tokens": 100
}'
API zwraca odpowiedzi JSON zawierające wygenerowany tekst, statystyki użycia tokenów oraz metadane żądania. Pomyślne odpowiedzi zawierają tablicę choices z wynikiem modelu, podczas gdy błędy zwracają ustandaryzowane kody do celów debugowania. Liczba tokenów pojawia się w obiekcie usage, śledząc prompt_tokens, completion_tokens i total_tokens dla dokładności rozliczeń.
Przewodniki szybkiego startu API w dokumentacji obejmują dodatkowe języki, w tym Node.js i Go, wraz z przykładami specyficznymi dla frameworków Express, Flask i FastAPI. Konfiguracje webhooków dla przetwarzania asynchronicznego wymagają weryfikacji punktu końcowego podczas wstępnej konfiguracji.

Obecnie, w 2026 roku, cennik DeepSeek API opiera się na modelu tokenowym, w którym opłaty naliczane są oddzielnie za tokeny wejściowe i wyjściowe, a stawki różnią się w zależności od możliwości modelu. Flagowy model DeepSeek V3 kosztuje 0,27 USD za 1 mln tokenów wejściowych oraz 1,10 USD za 1 mln tokenów wyjściowych, co plasuje go znacznie poniżej porównywalnych modeli konkurencji. Darmowe środki w wysokości 5 USD są przyznawane nowym kontom, co wystarcza na około 4,5 mln tokenów wejściowych lub 900 tys. tokenów wyjściowych w standardowym modelu czatu.
Obliczenia kosztu za token sprawiają, że DeepSeek jest szczególnie konkurencyjny w zastosowaniach o dużej skali. Typowa wymiana w chatbotcie zużywająca 500 tokenów wejściowych i 200 wyjściowych kosztuje około 0,00036 USD, co umożliwia miliony interakcji w ramach skromnych budżetów. Limity stawek skalują się wraz z poziomem konta, zaczynając od 500 tys. tokenów dziennie dla kont darmowych i rozszerzając się do 50 mln tokenów dziennie dla subskrypcji korporacyjnych.
| Model | Wejście (za 1 mln tokenów) | Wyjście (za 1 mln tokenów) | Okno kontekstowe | Limit (tokeny/min) |
|---|---|---|---|---|
| DeepSeek V3 | $0.27 | $1.10 | 128K | 90,000 |
| DeepSeek Chat | $0.14 | $0.28 | 64K | 150,000 |
| DeepSeek Coder V2 | $0.14 | $0.28 | 64K | 120,000 |
| DeepSeek Embeddings | $0.002 | Nie dotyczy | 8K | 200,000 |
Rozliczanie użytkowania odbywa się w systemie przedpłaconym z automatycznymi potrąceniami za każde żądanie. Panel sterowania wyświetla wskaźniki zużycia w czasie rzeczywistym w podziale na modele i projekty, z konfigurowalnymi alertami wydatków, aby zapobiec nieoczekiwanym przekroczeniom kosztów. Niewykorzystane środki nie wygasają, a rabaty ilościowe są naliczane automatycznie przy miesięcznych progach powyżej 1000 USD zużycia.
Limity stawek wymuszają kwoty żądań na podstawie tokenów na minutę, a nie surowej liczby żądań, umożliwiając elastyczne rozmiary partii. API zwraca kody statusu 429 w przypadku przekroczenia limitów, a nagłówki Retry-After wskazują czas oczekiwania. Konta korporacyjne uzyskują dostęp do dedykowanych rezerwacji przepustowości i niestandardowych konfiguracji limitów poprzez kanały wsparcia. Ceny mogą ulec zmianie z 30-dniowym wyprzedzeniem, choć dane historyczne wykazują stabilne stawki.

Praktyczne scenariusze integracji API obejmują chatboty do obsługi klienta, potoki generowania treści, narzędzia programistyczne i przepływy analityczne. Zgodność API z OpenAI pozwala na łatwą wymianę istniejących integracji LLM, podczas gdy specyficzne funkcje DeepSeek, takie jak rozszerzone okna kontekstowe, umożliwiają nowatorskie zastosowania. Wdrożenia produkcyjne powszechnie wykorzystują strumieniowanie dla responsywnego UX oraz wywoływanie funkcji dla dostępu do danych zewnętrznych.
Rozwój chatbotów stanowi najczęstszy wzorzec integracji, w ramach którego firmy osadzają konwersacyjną sztuczną inteligencję w platformach wsparcia, aplikacjach mobilnych i interfejsach webowych. Okno kontekstowe 128K mieści całą dokumentację pomocniczą lub historie rozmów bez ucinania tekstu. Wywoływanie funkcji umożliwia wyszukiwanie danych w czasie rzeczywistym, pozwalając botom sprawdzać bazy danych, stan magazynowy lub dane konta użytkownika w trakcie rozmowie.
Typowa integracja RAG wykorzystuje punkt końcowy osadzeń do wektoryzacji dokumentów bazy wiedzy, przechowuje wektory w bazach takich jak Pinecone lub Weaviate, a następnie pobiera istotne fragmenty do wstrzyknięcia kontekstu w promptach czatu. Taka architektura redukuje halucynacje przy zachowaniu płynności konwersacji. Tryb JSON zapewnia ustrukturyzowane wyjście dla dalszego przetwarzania, co jest szczególnie cenne w zautomatyzowanych przepływach pracy wymagających odpowiedzi dających się parsować.
Strumieniowanie odpowiedzi okazuje się niezbędne w aplikacjach skierowanych do użytkowników, gdzie postrzegane opóźnienie wpływa na doświadczenie. API dostarcza tokeny przyrostowo za pośrednictwem zdarzeń wysyłanych przez serwer (SSE), co pozwala interfejsom wyświetlać tekst w miarę jego generowania, zamiast czekać na kompletną odpowiedź. Definicje wywoływania funkcji określają dostępne narzędzia za pomocą schematów JSON, umożliwiając modelowi określenie, kiedy potrzebne są działania zewnętrzne i odpowiednie sformatowanie żądań. Możliwości te łączą się, tworząc zaawansowanych agentów obsługujących wieloetapowe zadania z integracją systemów zewnętrznych.