Deepseek Chat App Try Now

DeepSeek API: Die leistungsstarke KI-Schnittstelle für Entwickler

Integrieren Sie DeepSeek V3 und Coder V2 nahtlos in Ihre Anwendungen mit OpenAI-kompatiblen Endpunkten und unschlagbarer Kosteneffizienz.

Jetzt API-Key sichern

Erste Schritte mit der API

Erste Schritte mit der API

Die Einrichtung des API-Zugriffs beginnt mit der Erstellung eines Entwicklerkontos auf der DeepSeek-Plattform und der Generierung Ihres ersten API-Keys im Bereich für Anmeldeinformationen. Der Quickstart-Prozess umfasst drei kernelschritte: Konfiguration der Authentifizierung, Installation des SDK und Ausführung Ihrer ersten Anfrage. Die meisten Entwickler schließen den Test der ersten Anfrage innerhalb von 15 Minuten unter Verwendung der bereitgestellten Code-Vorlagen ab.

Die Authentifizierung nutzt das Bearer-Token-Format with Schlüsseln, die das Präfix sk- tragen. Die Basis-URL für alle API-Endpunkte lautet https://api.deepseek.com/v1 und folgt gängigen REST-Konventionen. Erforderliche Header sind Authorization mit Ihrem API-Key und Content-Type gesetzt auf application/json. Das Rate Limiting gilt pro Schlüssel und nicht pro Konto, sodass Teams Quoten auf mehrere Projekte verteilen können.

Für die Installation des Python-SDK verwenden Sie pip, um die offizielle Client-Bibliothek hinzuzufügen. Der folgende Code demonstriert einen vollständigen Workflow für eine erste Anfrage über den Chat Completion Endpunkt mit DeepSeek V3:

pip install deepseek-sdk
from deepseek import DeepSeek

client = DeepSeek(api_key="sk-your-api-key-here")

response = client.chat.completions.create(
    model="deepseek-chat-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    max_tokens=500,
    temperature=0.7
)

print(response.choices[0].message.content)

Für Entwickler, die curl-Beispielanfragen bevorzugen, erfordert der entsprechende HTTP-Aufruf eine explizite Header-Konfiguration. Dieser Ansatz eignet sich ideal für Tests ohne Abhängigkeiten von einem SDK:

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-api-key-here" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-chat-v3",
    "messages": [{"role": "user", "content": "Hello, API!"}],
    "max_tokens": 100
  }'

Die API gibt JSON-Antworten zurück, die generierten Text, Statistiken zur Token-Nutzung und Metadaten zur Anfrage enthalten. Erfolgreiche Antworten umfassen ein Choices-Array mit dem Output des Modells, während Fehler standardisierte Codes für das Debugging zurückgeben. Die Token-Anzahl erscheint im Usage-Objekt und trackt prompt_tokens, completion_tokens sowie total_tokens für eine präzise Abrechnung.

  • Abrufen des API-Keys über den Reiter Sicherheit im Entwickler-Dashboard.
  • Installation des Python-SDK oder Nutzung direkter HTTP-Anfragen für maximale Flexibilität.
  • Testen der Konnektivität mit einer einfachen Chat Completion vor der Produktivsetzung.
  • Überwachen der Response-Header auf den Status der Rate Limits und verbleibende Quoten.

Die API-Quickstart-Guides in der Dokumentation decken weitere Sprachen einschließlich Node.js und Go ab. Zudem existieren framework-spezifische Beispiele für Integrationen in Express, Flask und FastAPI. Webhook-Konfigurationen für asynchrone Prozesse erfordern eine Endpunkt-Verifizierung während der initialen Einrichtung.

Preise und geltende Rate Limits

Preise und geltende Rate Limits

Im Jahr 2026 folgt die Preisgestaltung der DeepSeek API einem Token-basierten Modell, das separat für Input- und Output-Token abrechnet, wobei die Raten je nach Modellkapazität variieren. Das Flaggschiff DeepSeek V3 kostet 0,27 $ pro 1 Mio. Input-Token und 1,10 $ pro 1 Mio. Output-Token, womit es sich deutlich unter vergleichbaren Frontier-Modellen positioniert. Neue Konten erhalten ein Gratisguthaben von insgesamt 5 $, was für etwa 4,5 Mio. Input-Token oder 900K Output-Token im Standard-Chat-Modell ausreicht.

Die Berechnungen der Kosten pro Token machen DeepSeek besonders wettbewerbsfähig für Anwendungen mit hohem Volumen. Ein typischer Chatbot-Austausch mit 500 Input-Token und 200 Output-Token kostet aktuell etwa 0,00036 $, was Millionen von Interaktionen innerhalb bescheidener Budgets ermöglicht. Die Rate Limits skalieren mit der Kontostufe, beginnend bei 500K Token täglich für kostenlose Konten bis hin zu 50M Token täglich für Enterprise-Abos.

Modell Input (pro 1M Token) Output (pro 1M Token) Kontextfenster Rate Limit (Token/Min)
DeepSeek V3 0,27 $ 1,10 $ 128K 90.000
DeepSeek Chat 0,14 $ 0,28 $ 64K 150.000
DeepSeek Coder V2 0,14 $ 0,28 $ 64K 120.000
DeepSeek Embeddings 0,002 $ N/V 8K 200.000

Die Abrechnung erfolgt über ein Prepaid-Guthabensystem mit automatischen Abzügen pro Anfrage. Das Dashboard zeigt Echtzeit-Verbrauchsmetriken aufgeschlüsselt nach Modell und Projekt an, inklusive konfigurierbarer Ausgabenlimits zur Vermeidung unerwarteter Kosten. Ungenutztes Guthaben verfällt nicht, und ab monatlichen Schwellenwerten von über 1.000 $ Verbrauch greifen automatisch Volumenrabatte.

Rate Limits erzwingen Anfragenkontingente basierend auf Token pro Minute statt auf reinen Anfragezahlen, was flexible Batch-Größen erlaubt. Die API gibt den Statuscode 429 zurück, wenn Limits überschritten werden, wobei Retry-After-Header die Wartezeiten angeben. Enterprise-Konten erhalten Zugriff auf dedizierte Durchsatzreservierungen und individuelle Konfigurationen der Rate Limits über den Support. Die Preise können sich mit einer 30-tägigen Vorankündigung ändern, wobei die Daten seit dem Launch von V3 im Dezember 2025 stabile Raten zeigen.

Verfügbare Modelle und Endpunkte

Verfügbare Modelle und Endpunkte

Die Endpunkte der DeepSeek API stellen fünf Produktionsmodelle bereit, die für spezifische Workloads von allgemeinen Konversationen bis hin zur spezialisierten Codegenerierung optimiert sind. Die Modellauswahl erfolgt über den Parameter model in den API-Anfragen, wobei die IDs dem Muster deepseek-{Kapazität}-{Version} folgen. Veraltete Modelle bleiben nach dem Start einer Nachfolgeversion noch 90 Tage lang erreichbar, während Migrationshinweise an aktive Nutzer versendet werden.

Modell-ID Typ Kontextfenster Bester Anwendungsfall
deepseek-chat-v3 Chat Completion 128K Token Konventionelle KI, Reasoning, multilingualer Dialog
deepseek-coder-v2 Code Completion 64K Token Codegenerierung, Debugging, technische Dokumentation
deepseek-reasoner Chat Completion 128K Token Komplexes Problemlösen, Chain-of-Thought Reasoning
deepseek-embed Embeddings 8K Token Semantische Suche, RAG-Pipelines, Ähnlichkeitsabgleich
deepseek-vision-preview Multimodal (Beta) 32K Token + Bilder Bildanalyse, OCR, visuelle Fragenbeantwortung

Der Chat Completion Endpunkt unter /v1/chat/completions verarbeitet konventionelle Interaktionen mit Unterstützung für System-Prompts, Multi-Turn-Dialoge und Function Calling. Dieser Endpunkt funktioniert sowohl mit deepseek-chat-v3 als auch mit deepseek-reasoner Modellen, wobei letzteres explizite Reasoning-Traces in den Antworten liefert. Parameter wie temperature und top_p steuern die Zufälligkeit des Outputs, während max_tokens die Länge der Generierung begrenzt.

  • Unterstützung von Streaming-Antworten bei Chat-Modellen für Echtzeit-UX.
  • Optimierung der Code-Modelle für Sprachen wie Python, JavaScript, Java, C++ und Go.
  • Bereitstellung von 1024-dimensionalen Vektoren durch das Embeddings-Modell.
  • Akzeptanz von Bild-URLs oder Base64-Daten beim Vision-Modell für Text-Prompts.

Anwendungsfälle und Beispiele

Anwendungsfälle und Beispiele

Praktische Szenarien für die API-Integration umfassen kundenorientierte Chatbots, Pipelines zur Content-Erstellung, Entwickler-Tools und analytische Workflows. Die OpenAI-Kompatibilität ermöglicht den unkomplizierten Austausch bestehender LLM-Integrationen, während DeepSeek-spezifische Features wie erweiterte Kontextfenster neuartige Anwendungen erlauben. Produktive Deployments nutzen häufig Streaming für eine reaktionsschnelle UX und Function Calling für den Zugriff auf externe Daten.

Die Entwicklung von Chatbots stellt das häufigste Integrationsmuster dar, bei dem Unternehmen KI in Support-Plattformen, Apps und Web-Interfaces einbetten. Das 128K-Kontextfenster fasst ganze Dokumentationen oder Gesprächshistorien ohne Kürzung. Function Calling ermöglicht Datenabfragen in Echtzeit, sodass Bots Datenbanken abfragen, Lagerbestände prüfen oder Kontodetails während des Gesprächs abrufen können.

  • Automatisierung der Content-Erstellung für Marketingtexte, Blogposts und Produktbeschreibungen.
  • Integration von DeepSeek Coder V2 in IDEs für Autovervollständigung und Refactoring.
  • Verarbeitung von Forschungsberichten und juristischen Dokumenten in Analyse-Pipelines.
  • Implementierung von RAG-Pipelines durch Kombination von Embeddings mit Chat-Modellen.

Häufig gestellte Fragen (FAQ)

Ist die DeepSeek API mit OpenAI kompatibel?

Ja, sie verwendet OpenAI-kompatible Endpunkte, sodass Entwickler oft nur die Base-URL und den API-Key ändern müssen.

Welche Modelle stehen zur Verfügung?

Dazu gehören DeepSeek V3 (Chat), DeepSeek Coder V2, der DeepSeek Reasoner sowie Modelle für Embeddings und Vision.

Was kostet die DeepSeek API?

Die Preise beginnen bei ca. 0,14 $ pro 1 Mio. Input-Token für Chat-Modelle und 0,27 $ für das Flaggschiff V3.

Gibt es ein kostenloses Startguthaben?

Ja, neue Konten erhalten in der Regel ein Gratisguthaben von 5 $ zum Testen der Funktionen.

Wie groß ist das Kontextfenster?

Die Flaggschiff-Modelle wie V3 unterstützen ein großes Kontextfenster von bis zu 128K Token.

Welche Programmiersprachen werden unterstützt?

Es gibt offizielle SDKs für Python, Node.js, Go und Java. Jeder HTTP-Client kann jedoch die REST-API nutzen.

Unterstützt die API Streaming?

Ja, Streaming-Antworten werden via Server-Sent Events für eine schnellere Benutzeroberfläche unterstützt.

Was ist der JSON-Modus?

Der JSON-Modus erzwingt, dass das Modell seine Antwort in einem validen JSON-Format liefert, ideal für Automatisierungen.

Wie sicher sind meine Daten bei der API-Nutzung?

DeepSeek gibt an, API-Daten nicht für das Training von Basismodellen zu verwenden, sofern nicht explizit zugestimmt wurde.

Wofür eignet sich DeepSeek Coder V2?

Es ist speziell für Programmierung, Debugging und technische Dokumentation in über 300 Programmiersprachen optimiert.