Deepseek Chat App Try Now

DeepSeek API Overzicht

DeepSeek API Overzicht

De DeepSeek API biedt programmatische toegang tot de reeks grote taalmodellen van DeepSeek via een op REST gebaseerde interface die is ontworpen voor ontwikkelars en bedrijven die op zoek zijn naar kosteneffectieve AI-integratie. De API ondersteunt meerdere modelvarianten die zijn geoptimaliseerd voor verschillende workloads, van conversationele AI tot codegeneratie en embeddings. De service onderhoudt endpoints die compatibel zijn met OpenAI, waardoor ontwikkelaars met minimale codeaanpassingen van provider kunnen wisselen.

API-toegang vereist authenticatie via bearer-tokens die worden gegenereerd via het developer dashboard. Officiรซle SDK's zijn beschikbaar voor Python, Node.js, Go en Java, hoewel elke HTTP-client kan communiceren met de REST-endpoints. Het platform richt zich op individuele ontwikkelaars die prototypen bouwen, startups die AI-functies schalen en ondernemingen die voorspelbare prijzen nodig hebben voor inference-workloads met een hoog volume.

Functie Specificatie
Beschikbare Modellen DeepSeek V3, DeepSeek Coder V2, DeepSeek Chat
Rate Limits 500K tokens per dag gratis tier, tot 50M tokens per dag betaald
Authenticatiemethode Bearer token (API key)
Officiรซle SDK's Python, Node.js, Go, Java
Ondersteunde Talen Meertalig (70+ talen, geoptimaliseerd voor EN/ZH)

Belangrijke technische mogelijkheden omvatten streaming responses voor real-time applicaties, function calling for tool-integratie en JSON-modus voor gestructureerde output. De API beheert contextvensters tot 128K tokens voor vlaggenschipmodellen, wat de analyse van lange documenten mogelijk maakt zonder deze op te splitsen. Alle verzoeken worden gerouteerd via wereldwijde CDN-endpoints met een gemiddelde latentie van minder dan 200 ms voor de meeste regio's.

  • REST API met OpenAI-compatibele structuur voor eenvoudige migratie.
  • Native ondersteuning voor chat completions, embeddings en codegeneratie.
  • Automatische load balancing over inference clusters.
  • Gedetailleerde gebruiksanalyses en het bijhouden van tokenverbruik.

De documentatie voor ontwikkelaars bevat interactieve voorbeelden en webhook-configuratie voor asynchrone verwerking. Integratie vereist doorgaans 30 minuten voor een basisimplementatie, met uitgebreide foutafhandeling en retry-logica die in de officiรซle SDK's is ingebouwd.

Aan de slag met de API

Aan de slag met de API

Het instellen van API-toegang begint met het aanmaken van een developer account op het DeepSeek-platform en het genereren van uw eerste API-key in de sectie met inloggegevens. Het quickstart-proces omvat drie kernstappen: authenticatieconfiguratie, SDK-installatie en het uitvoeren van uw eerste verzoek. De meeste ontwikkelaars voltooien het testen van het eerste verzoek binnen 15 minuten met behulp van de meegeleverde codesjablonen.

Authenticatie maakt gebruik van het bearer-token-format met keys die beginnen met het voorvoegsel sk-. De basis-URL voor alle API-endpoints is https://api.deepseek.com/v1, volgens de RESTful-conventies. Vereiste headers zijn Authorization met uw API-key en Content-Type ingesteld op application/json. Rate limiting wordt toegepast per key in plaats van per account, waardoor teams quota kunnen verdelen over meerdere projecten.

Gebruik voor de installatie van de Python SDK pip om de officiรซle client-library toe te voegen. De volgende code toont een volledige workflow voor een eerste verzoek met behulp van het chat completion endpoint met DeepSeek V3:

pip install deepseek-sdk
from deepseek import DeepSeek

client = DeepSeek(api_key="sk-your-api-key-here")

response = client.chat.completions.create(
    model="deepseek-chat-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    max_tokens=500,
    temperature=0.7
)

print(response.choices[0].message.content)

Voor ontwikkelaars die de voorkeur geven aan curl-voorbeelden, vereist de equivalente HTTP-call een expliciete header-configuratie. Deze aanpak werkt voor testen zonder afhankelijkheden van een SDK:

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-api-key-here" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-chat-v3",
    "messages": [{"role": "user", "content": "Hello, API!"}],
    "max_tokens": 100
  }'

De API retourneert JSON-responses met gegenereerde tekst, statistieken over tokengebruik en metadata van het verzoek. Succesvolle antwoorden bevatten een choices-array met de output van het model, terwijl fouten gestandaardiseerde codes retourneren voor debugging. Token-aantallen verschijnen in het usage-object, waarbij prompt_tokens, completion_tokens en total_tokens worden bijgehouden voor nauwkeurige facturering.

  • Haal uw API-key op via het beveiligingstabblad van het developer dashboard.
  • Installeer de Python SDK of gebruik directe HTTP-verzoeken voor taaloptimalisatie.
  • Test de connectiviteit met een eenvoudige chat completion voor productie-integratie.
  • Monitor de response headers voor de status van de rate limit en het resterende quotum.

Quickstart-gidsen in de documentatie behandelen extra talen waaronder Node.js en Go, met framework-specifieke voorbeelden voor integraties met Express, Flask en FastAPI. Webhook-configuraties voor asynchrone verwerking vereisen endpoint-verificatie tijdens de initiรซle installatie.

API prijzen en rate limits

API prijzen en rate limits

In 2026 volgt de prijsstelling van de DeepSeek API een op tokens gebaseerd model waarbij apart wordt gefactureerd voor input- en output-tokens, met tarieven die variรซren per modelcapaciteit. Het vlaggenschip DeepSeek V3 kost $0.27 per 1 miljoen input-tokens en $1.10 per 1 miljoen output-tokens, wat het aanzienlijk lager positioneert dan vergelijkbare frontier-modellen. Er worden gratis credits ter waarde van $5 verstrekt aan nieuwe accounts, wat voldoende is voor ongeveer 4,5 miljoen input-tokens of 900.000 output-tokens op het standaard chatmodel.

Berekeningen van de kosten per token maken DeepSeek bijzonder competitief voor applicaties met een hoog volume. Een typische chatbot-interactie die 500 input-tokens en 200 output-tokens verbruikt, kost momenteel ongeveer $0.00036, wat miljoenen interacties binnen bescheiden budgetten mogelijk maakt. Rate limits schalen met het accountniveau, beginnend bij 500.000 tokens per dag voor gratis accounts en uitbreidend tot 50 miljoen tokens per dag voor zakelijke abonnementen.

Model Input (per 1M tokens) Output (per 1M tokens) Context Window Rate Limit (tokens/min)
DeepSeek V3 $0.27 $1.10 128K 90,000
DeepSeek Chat $0.14 $0.28 64K 150,000
DeepSeek Coder V2 $0.14 $0.28 64K 120,000
DeepSeek Embeddings $0.002 N/A 8K 200,000

Facturering werkt op basis van een prepaid creditsysteem waarbij automatische inhoudingen per verzoek plaatsvinden. Het dashboard toont real-time verbruiksgegevens uitgesplitst naar model en project, met configureerbare bestedingswaarschuwingen om onverwachte overschrijdingen te voorkomen. Ongebruikte credits verlopen niet en volumekortingen worden automatisch toegepast bij maandelijkse drempels boven de $1.000 aan verbruik.

Rate limits dwingen verzoeksquota af op basis van tokens per minuut in plaats van het aantal ruwe verzoeken, wat flexibele batchgroottes mogelijk maakt. De API retourneert 429-statuscodes wanneer limieten worden overschreden, waarbij Retry-After headers de wachttijden aangeven. Enterprise-accounts hebben toegang tot gereserveerde doorvoerdencapaciteit en aangepaste rate limit-configuraties via supportkanalen. Prijzen blijven onderhevig aan wijzigingen met een vooraankondiging van 30 dagen, hoewel historische data stabiele tarieven laten zien sinds de lancering in december 2025.

Beschikbare modellen en endpoints

Beschikbare modellen en endpoints

De DeepSeek API-endpoints bieden vijf productiemodellen aan, elk geoptimaliseerd voor specifieke workloads variรซrend van algemene conversatie tot gespecialiseerde codegeneratie. Modelselectie vindt plaats via de model-parameter in API-verzoeken, waarbij ID's het patroon deepseek-{capability}-{version} volgen. Verouderde modellen blijven toegankelijk gedurende 90 dagen nadat vervangende versies zijn gelanceerd, waarbij migratieberichten naar actieve gebruikers worden gestuurd.

Model ID Type Context Window Beste Use Case
deepseek-chat-v3 Chat Completion 128K tokens Conversationele AI, algemeen redeneren, meertalige dialoog
deepseek-coder-v2 Code Completion 64K tokens Codegeneratie, debugging, technische documentatie
deepseek-reasoner Chat Completion 128K tokens Complex probleemoplossend vermogen, chain-of-thought
deepseek-embed Embeddings 8K tokens Semantisch zoeken, RAG-pipelines, similarity matching
deepseek-vision-preview Multimodal (Beta) 32K tokens + images Beeldanalyse, OCR, visuele vraagbeantwoording

Het chat completion endpoint op /v1/chat/completions verwerkt conversationele interacties met ondersteuning voor system prompts, dialogen over meerdere beurten en function calling. Dit endpoint werkt met zowel deepseek-chat-v3 als deepseek-reasoner modellen, waarbij de laatste expliciete redeneersporen aan de antwoorden toevoegt. Parameters zoals temperature en top_p regelen de willekeur van de output, terwijl max_tokens de lengte van de generatie beperkt.

  • Chatmodellen ondersteunen streaming responses via de stream-parameter voor een real-time gebruikerservaring.
  • Modellen voor codegeneratie bevatten taalspecifieke optimalisaties voor Python, JavaScript, Java, C++ en Go.
  • De lijst met embeddings-modellen retourneert 1024-dimensionale vectoren voor semantische operaties.
  • Het vision-model accepteert afbeelding-URL's of base64-gecodeerde data naast tekstprompts.

De beschikbare modellen variรซren van 7 miljard tot 671 miljard parameters, hoewel parameteraantallen geabstraheerd zijn voor API-gebruikers die selecteren op basis van capaciteit. DeepSeek Coder V2 blinkt met name uit in HumanEval-benchmarks met een precisie van 88.4%, terwijl het vlaggenschip V3 een score van 87.1% behaalt op MMLU voor algemene kennistaken. Alle productiemodellen ondersteunen JSON-modus voor gestructureerde output en function calling voor tool-integratie.

Beta-modellen zoals deepseek-vision-preview kunnen een hogere latentie en veranderende mogelijkheden vertonen naarmate de training vordert. Het model list endpoint op /v1/models retourneert programmatisch de huidige beschikbaarheid en de status van afschrijving. Legacy-modellen, inclusief deepseek-chat-v2, blijven toegankelijk tot maart 2026 voor achterwaartse compatibiliteit, hoewel nieuwe integraties zich moeten richten op V3-endpoints voor optimale prestaties.

Toepassingen en integratievoorbeelden

Toepassingen en integratievoorbeelden

Praktische API-integratiescenario's omvatten klantgerichte chatbots, pijplijnen voor contentgeneratie, tooling voor ontwikkeling en analytische workflows. De OpenAI-compatibiliteit van de API maakt directe vervanging van bestaande LLM-integraties mogelijk, terwijl DeepSeek-specifieke functies zoals uitgebreide contextvensters nieuwe toepassingen mogelijk maken. Productie-implementaties maken vaak gebruik van streaming voor een responsieve UX en function calling voor toegang tot externe gegevens.

Chatbot-ontwikkeling is het meest voorkomende integratiepatroon, waarbij bedrijven conversationele AI inbedden in supportplatforms, mobiele apps en webinterfaces. Het contextvenster van 128K tokens biedt plaats aan volledige supportdocumentatie of gespreksgeschiedenis zonder inkorting. Function calling maakt real-time gegevensopvraging mogelijk, waardoor bots databases kunnen raadplegen, voorraad kunnen controleren of accountgegevens van gebruikers kunnen ophalen tijdens een gesprek.

  • Automatisering van contentgeneratie voor marketingteksten, blogposts en productbeschrijvingen met behulp van temperatuurgecontroleerde sampling.
  • Assistentie-tools voor code die DeepSeek Coder V2 integreren in IDE's voor autocomplete, suggesties voor refactoring en foutdetectie.
  • Data-analysepijplijnen waarbij de API wetenschappelijke artikelen, financiรซle rapporten of juridische documenten verwerkt met gestructureerde extractie.
  • RAG-pijplijn-implementaties die DeepSeek Embeddings combineren voor retrieval met chatmodellen voor onderbouwde generatie.

Een typische RAG-integratie gebruikt het embeddings-endpoint om documenten uit de kennisbank te vectoriseren en slaat vectoren op in Pinecone of Weaviate. Vervolgens worden relevante fragmenten opgehaald voor contextinjectie in de chat completion prompts. Deze architectuur vermindert hallucinaties met behoud van conversationele vloeiendheid. De JSON-modus garandeert gestructureerde output voor verdere verwerking, wat waardevol is in geautomatiseerde workflows die verwerkbare antwoorden vereisen.

Streaming responses zijn essentieel voor gebruikersgerichte applicaties waarbij waargenomen latentie de ervaring beรฏnvloedt. De API levert tokens incrementeel via server-sent events, waardoor interfaces tekst kunnen weergeven terwijl deze wordt gegenereerd. Definities voor function calling specificeren beschikbare tools met JSON-schema's, waardoor het model kan bepalen wanneer externe acties nodig zijn en verzoeken dienovereenkomstig kan formatteren. Deze mogelijkheden combineren tot geavanceerde agents die taken met meerdere stappen afhandelen met volledige integratie van externe systemen.

Veelgestelde Vragen over DeepSeek API

Is de DeepSeek API compatibel met OpenAI?

Ja, de DeepSeek API is ontworpen om compatibel te zijn met de OpenAI SDK en API-structuur, waardoor migratie eenvoudig is.

Wat zijn de kosten voor DeepSeek V3?

DeepSeek V3 kost $0.27 per 1 miljoen input-tokens en $1.10 per 1 miljoen output-tokens.

Biedt DeepSeek gratis API-credits aan?

Ja, nieuwe accounts ontvangen doorgaans $5 aan gratis credits om de service te testen.

Welke programmeertalen worden ondersteund door SDK's?

Er zijn officiรซle SDK's beschikbaar voor Python, Node.js, Go en Java.

Wat is het maximale contextvenster?

Het vlaggenschipmodel DeepSeek V3 ondersteunt een contextvenster tot 128.000 tokens.

Ondersteunt de API streaming?

Ja, streaming van antwoorden wordt ondersteund via server-sent events voor real-time applicaties.

Is er een model specifiek voor coderen?

Ja, DeepSeek Coder V2 is specifiek geoptimaliseerd voor codegeneratie en technische taken.

Hoe krijg ik een API-key?

U kunt een API-key genereren via het developer dashboard na het aanmaken van een account.

Worden afbeeldingen ondersteund?

Ja, het DeepSeek-vision-preview model biedt multimodale ondersteuning voor beeldanalyse.

Wat zijn de rate limits voor gratis accounts?

Gratis accounts hebben een limiet van 500.000 tokens per dag.