DeepSeek API: Die leistungsstarke KI-Schnittstelle für Entwickler
Integrieren Sie DeepSeek V3 und Coder V2 nahtlos in Ihre Anwendungen mit OpenAI-kompatiblen Endpunkten und unschlagbarer Kosteneffizienz.
Jetzt API-Key sichern
Übersicht über die DeepSeek API

Die DeepSeek API bietet programmatischen Zugriff auf die Suite der Large Language Models von DeepSeek über eine REST-basierte Schnittstelle. Sie wurde speziell für Entwickler und Unternehmen konzipiert, die eine kosteneffiziente KI-Integration suchen. Die API unterstützt verschiedene Modellvarianten, die für unterschiedliche Workloads optimiert sind, von konventioneller KI bis hin zu Codegenerierung und Embeddings. Der Dienst unterhält OpenAI-kompatible Endpunkte, was es Entwicklern ermöglicht, Anbieter mit minimalen Codeänderungen zu wechseln.
Der API-Zugriff erfordert eine Authentifizierung über Bearer-Token, die im Entwickler-Dashboard erstellt werden. Offizielle SDKs stehen für Python, Node.js, Go und Java zur Verfügung, wobei jeder HTTP-Client mit den REST-Endpunkten interagieren kann. Die Plattform richtet sich an Einzelentwickler, die Prototypen erstellen, Startups, die KI-Funktionen skalieren, und Unternehmen, die planbare Preise für hochvolumige Inferenz-Workloads benötigen.
| Feature | Spezifikation |
|---|---|
| Verfügbare Modelle | DeepSeek V3, DeepSeek Coder V2, DeepSeek Chat |
| Rate Limits | 500K Token/Tag im Free Tier, bis zu 50M Token/Tag bezahlt |
| Authentifizierung | Bearer-Token (API-Key) |
| Offizielle SDKs | Python, Node.js, Go, Java |
| Unterstützte Sprachen | Multilingual (70+ Sprachen, optimiert für EN/ZH) |
Zu den wichtigsten technischen Funktionen gehören Streaming-Antworten für Echtzeitanwendungen, Function Calling für die Tool-Integration und der JSON-Modus für strukturierten Output. Die API verarbeitet Kontextfenster von bis zu 128K Token bei den Flaggschiff-Modellen, was die Analyse umfangreicher Dokumente ohne Fragmentierung erlaubt. Alle Anfragen werden über globale CDN-Endpunkte geroutet, wobei die durchschnittliche Latenz in den meisten Regionen unter 200 ms liegt.
- Bereitstellung einer REST API mit OpenAI-kompatibler Struktur für einfache Migration.
- Native Unterstützung für Chat Completions, Embeddings und Codegenerierung.
- Automatisches Load-Balancing über verschiedene Inferenz-Cluster hinweg.
- Detaillierte Nutzungsanalysen und Tracking des Token-Verbrauchs.
Die API-Dokumentation für Entwickler enthält interaktive Beispiele und Webhook-Konfigurationen für die asynchrone Verarbeitung. Die Integration erfordert in der Regel etwa 30 Minuten für eine Basisimplementierung, wobei umfassende Fehlerbehandlung und Retry-Logik bereits in die offiziellen SDKs integriert sind.
Erste Schritte mit der API

Die Einrichtung des API-Zugriffs beginnt mit der Erstellung eines Entwicklerkontos auf der DeepSeek-Plattform und der Generierung Ihres ersten API-Keys im Bereich für Anmeldeinformationen. Der Quickstart-Prozess umfasst drei kernelschritte: Konfiguration der Authentifizierung, Installation des SDK und Ausführung Ihrer ersten Anfrage. Die meisten Entwickler schließen den Test der ersten Anfrage innerhalb von 15 Minuten unter Verwendung der bereitgestellten Code-Vorlagen ab.
Die Authentifizierung nutzt das Bearer-Token-Format with Schlüsseln, die das Präfix sk- tragen. Die Basis-URL für alle API-Endpunkte lautet https://api.deepseek.com/v1 und folgt gängigen REST-Konventionen. Erforderliche Header sind Authorization mit Ihrem API-Key und Content-Type gesetzt auf application/json. Das Rate Limiting gilt pro Schlüssel und nicht pro Konto, sodass Teams Quoten auf mehrere Projekte verteilen können.
Für die Installation des Python-SDK verwenden Sie pip, um die offizielle Client-Bibliothek hinzuzufügen. Der folgende Code demonstriert einen vollständigen Workflow für eine erste Anfrage über den Chat Completion Endpunkt mit DeepSeek V3:
pip install deepseek-sdk
from deepseek import DeepSeek
client = DeepSeek(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="deepseek-chat-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
Für Entwickler, die curl-Beispielanfragen bevorzugen, erfordert der entsprechende HTTP-Aufruf eine explizite Header-Konfiguration. Dieser Ansatz eignet sich ideal für Tests ohne Abhängigkeiten von einem SDK:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key-here" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat-v3",
"messages": [{"role": "user", "content": "Hello, API!"}],
"max_tokens": 100
}'
Die API gibt JSON-Antworten zurück, die generierten Text, Statistiken zur Token-Nutzung und Metadaten zur Anfrage enthalten. Erfolgreiche Antworten umfassen ein Choices-Array mit dem Output des Modells, während Fehler standardisierte Codes für das Debugging zurückgeben. Die Token-Anzahl erscheint im Usage-Objekt und trackt prompt_tokens, completion_tokens sowie total_tokens für eine präzise Abrechnung.
- Abrufen des API-Keys über den Reiter Sicherheit im Entwickler-Dashboard.
- Installation des Python-SDK oder Nutzung direkter HTTP-Anfragen für maximale Flexibilität.
- Testen der Konnektivität mit einer einfachen Chat Completion vor der Produktivsetzung.
- Überwachen der Response-Header auf den Status der Rate Limits und verbleibende Quoten.
Die API-Quickstart-Guides in der Dokumentation decken weitere Sprachen einschließlich Node.js und Go ab. Zudem existieren framework-spezifische Beispiele für Integrationen in Express, Flask und FastAPI. Webhook-Konfigurationen für asynchrone Prozesse erfordern eine Endpunkt-Verifizierung während der initialen Einrichtung.
Preise und geltende Rate Limits

Im Jahr 2026 folgt die Preisgestaltung der DeepSeek API einem Token-basierten Modell, das separat für Input- und Output-Token abrechnet, wobei die Raten je nach Modellkapazität variieren. Das Flaggschiff DeepSeek V3 kostet 0,27 $ pro 1 Mio. Input-Token und 1,10 $ pro 1 Mio. Output-Token, womit es sich deutlich unter vergleichbaren Frontier-Modellen positioniert. Neue Konten erhalten ein Gratisguthaben von insgesamt 5 $, was für etwa 4,5 Mio. Input-Token oder 900K Output-Token im Standard-Chat-Modell ausreicht.
Die Berechnungen der Kosten pro Token machen DeepSeek besonders wettbewerbsfähig für Anwendungen mit hohem Volumen. Ein typischer Chatbot-Austausch mit 500 Input-Token und 200 Output-Token kostet aktuell etwa 0,00036 $, was Millionen von Interaktionen innerhalb bescheidener Budgets ermöglicht. Die Rate Limits skalieren mit der Kontostufe, beginnend bei 500K Token täglich für kostenlose Konten bis hin zu 50M Token täglich für Enterprise-Abos.
| Modell | Input (pro 1M Token) | Output (pro 1M Token) | Kontextfenster | Rate Limit (Token/Min) |
|---|---|---|---|---|
| DeepSeek V3 | 0,27 $ | 1,10 $ | 128K | 90.000 |
| DeepSeek Chat | 0,14 $ | 0,28 $ | 64K | 150.000 |
| DeepSeek Coder V2 | 0,14 $ | 0,28 $ | 64K | 120.000 |
| DeepSeek Embeddings | 0,002 $ | N/V | 8K | 200.000 |
Die Abrechnung erfolgt über ein Prepaid-Guthabensystem mit automatischen Abzügen pro Anfrage. Das Dashboard zeigt Echtzeit-Verbrauchsmetriken aufgeschlüsselt nach Modell und Projekt an, inklusive konfigurierbarer Ausgabenlimits zur Vermeidung unerwarteter Kosten. Ungenutztes Guthaben verfällt nicht, und ab monatlichen Schwellenwerten von über 1.000 $ Verbrauch greifen automatisch Volumenrabatte.
Rate Limits erzwingen Anfragenkontingente basierend auf Token pro Minute statt auf reinen Anfragezahlen, was flexible Batch-Größen erlaubt. Die API gibt den Statuscode 429 zurück, wenn Limits überschritten werden, wobei Retry-After-Header die Wartezeiten angeben. Enterprise-Konten erhalten Zugriff auf dedizierte Durchsatzreservierungen und individuelle Konfigurationen der Rate Limits über den Support. Die Preise können sich mit einer 30-tägigen Vorankündigung ändern, wobei die Daten seit dem Launch von V3 im Dezember 2025 stabile Raten zeigen.
Verfügbare Modelle und Endpunkte

Die Endpunkte der DeepSeek API stellen fünf Produktionsmodelle bereit, die für spezifische Workloads von allgemeinen Konversationen bis hin zur spezialisierten Codegenerierung optimiert sind. Die Modellauswahl erfolgt über den Parameter model in den API-Anfragen, wobei die IDs dem Muster deepseek-{Kapazität}-{Version} folgen. Veraltete Modelle bleiben nach dem Start einer Nachfolgeversion noch 90 Tage lang erreichbar, während Migrationshinweise an aktive Nutzer versendet werden.
| Modell-ID | Typ | Kontextfenster | Bester Anwendungsfall |
|---|---|---|---|
| deepseek-chat-v3 | Chat Completion | 128K Token | Konventionelle KI, Reasoning, multilingualer Dialog |
| deepseek-coder-v2 | Code Completion | 64K Token | Codegenerierung, Debugging, technische Dokumentation |
| deepseek-reasoner | Chat Completion | 128K Token | Komplexes Problemlösen, Chain-of-Thought Reasoning |
| deepseek-embed | Embeddings | 8K Token | Semantische Suche, RAG-Pipelines, Ähnlichkeitsabgleich |
| deepseek-vision-preview | Multimodal (Beta) | 32K Token + Bilder | Bildanalyse, OCR, visuelle Fragenbeantwortung |
Der Chat Completion Endpunkt unter /v1/chat/completions verarbeitet konventionelle Interaktionen mit Unterstützung für System-Prompts, Multi-Turn-Dialoge und Function Calling. Dieser Endpunkt funktioniert sowohl mit deepseek-chat-v3 als auch mit deepseek-reasoner Modellen, wobei letzteres explizite Reasoning-Traces in den Antworten liefert. Parameter wie temperature und top_p steuern die Zufälligkeit des Outputs, während max_tokens die Länge der Generierung begrenzt.
- Unterstützung von Streaming-Antworten bei Chat-Modellen für Echtzeit-UX.
- Optimierung der Code-Modelle für Sprachen wie Python, JavaScript, Java, C++ und Go.
- Bereitstellung von 1024-dimensionalen Vektoren durch das Embeddings-Modell.
- Akzeptanz von Bild-URLs oder Base64-Daten beim Vision-Modell für Text-Prompts.
Häufig gestellte Fragen (FAQ)
Ist die DeepSeek API mit OpenAI kompatibel?
Ja, sie verwendet OpenAI-kompatible Endpunkte, sodass Entwickler oft nur die Base-URL und den API-Key ändern müssen.
Welche Modelle stehen zur Verfügung?
Dazu gehören DeepSeek V3 (Chat), DeepSeek Coder V2, der DeepSeek Reasoner sowie Modelle für Embeddings und Vision.
Was kostet die DeepSeek API?
Die Preise beginnen bei ca. 0,14 $ pro 1 Mio. Input-Token für Chat-Modelle und 0,27 $ für das Flaggschiff V3.
Gibt es ein kostenloses Startguthaben?
Ja, neue Konten erhalten in der Regel ein Gratisguthaben von 5 $ zum Testen der Funktionen.
Wie groß ist das Kontextfenster?
Die Flaggschiff-Modelle wie V3 unterstützen ein großes Kontextfenster von bis zu 128K Token.
Welche Programmiersprachen werden unterstützt?
Es gibt offizielle SDKs für Python, Node.js, Go und Java. Jeder HTTP-Client kann jedoch die REST-API nutzen.
Unterstützt die API Streaming?
Ja, Streaming-Antworten werden via Server-Sent Events für eine schnellere Benutzeroberfläche unterstützt.
Was ist der JSON-Modus?
Der JSON-Modus erzwingt, dass das Modell seine Antwort in einem validen JSON-Format liefert, ideal für Automatisierungen.
Wie sicher sind meine Daten bei der API-Nutzung?
DeepSeek gibt an, API-Daten nicht für das Training von Basismodellen zu verwenden, sofern nicht explizit zugestimmt wurde.
Wofür eignet sich DeepSeek Coder V2?
Es ist speziell für Programmierung, Debugging und technische Dokumentation in über 300 Programmiersprachen optimiert.

