DeepSeek API: Guide til Integration, Modeller og Priser
Få adgang til kraftfulde AI-modeller som DeepSeek V3 og Coder med OpenAI-kompatible endpoints til markedets skarpeste priser.
Kom i gang nu
Oversigt over DeepSeek API

DeepSeek API giver programmatisk adgang til DeepSeeks suite af store sprogmodeller gennem et REST-baseret interface, der er designet til udviklere og virksomheder, som søger omkostningseffektiv AI-integration. Denne DeepSeek API understøtter flere modelvarianter, der er optimeret til forskellige arbejdsbelastninger, fra samtalebaseret AI til kodegenerering og embeddings. Tjenesten vedligeholder OpenAI-kompatible endpoints, hvilket gør det muligt for udviklere at skifte udbyder med minimale kodeændringer.
Adgang til API kræver godkendelse via bearer tokens, som genereres fra udvikler-dashboardet. Officielle SDK'er er tilgængelige til Python, Node.js, Go og Java, selvom enhver HTTP-klient kan interagere med REST-endpoints. Platformen henvender sig til individuelle udviklere, der bygger prototyper, startups, som opskalerer AI-funktioner, og virksomheder, der har brug for forudsigelige priser til inference-opgaver med høj volumen.
| Funktion | Specifikation |
|---|---|
| Tilgængelige modeller | DeepSeek V3, DeepSeek Coder V2, DeepSeek Chat |
| Rate limits | 500K tokens/dag gratis niveau, op til 50M tokens/dag betalt |
| Godkendelsesmetode | Bearer token (API nøgle) |
| Officielle SDK'er | Python, Node.js, Go, Java |
| Understøttede sprog | Flersproget (70+ sprog, optimeret til EN/ZH) |
Vigtige tekniske funktioner inkluderer streaming-svar til realtidsapplikationer, function calling til værktøjsintegration og JSON-mode til struktureret output. Systemet håndterer kontekstvinduer på op til 128K tokens på tværs af flagskibsmodeller, hvilket muliggør analyse af lange dokumenter uden opdeling. Alle anmodninger routes gennem globale CDN-endpoints med en gennemsnitlig latency på under 200 ms for de fleste regioner.
- REST API med OpenAI-kompatibel struktur for nem migrering.
- Native understøttelse af chat completions, embeddings og kodegenerering.
- Automatisk load balancing på tværs af inference-klynger.
- Detaljeret forbrugsanalyse og sporing af token-forbrug.
Dokumentationen indeholder interaktive eksempler og webhook-konfiguration til asynkron behandling. Integration kræver typisk 30 minutter for en grundlæggende implementering, hvor omfattende fejlhåndtering og logik for gentagne forsøg er indbygget i de officielle SDK'er.
API priser og rate limits

Priserne for DeepSeek API følger i 2026 en token-baseret model, hvor der afregnes separat for input- og output-tokens, og raterne varierer afhængigt af modellens formåen. Flagskibet DeepSeek V3 koster $0,27 per 1M input-tokens og $1,10 per 1M output-tokens, hvilket placerer den betydeligt lavere end sammenlignelige topmodeller. Der tildeles gratis kreditter på i alt $5 til nye konti, hvilket rækker til cirka 4,5M input-tokens eller 900K output-tokens på standard-chatmodellen.
Beregninger af omkostninger per token gør DeepSeek særligt konkurrencedygtig til applikationer med høj volumen. En typisk udveksling i en chatbot, der forbruger 500 input-tokens og 200 output-tokens, koster ca. $0,00036 i 2026, hvilket muliggør millioner af interaktioner inden for beskedne budgetter. Rate limits skaleres med kontoniveau, startende ved 500K tokens dagligt for gratis konti og op til 50M tokens dagligt for enterprise-abonnementer.
| Model | Input (per 1M tokens) | Output (per 1M tokens) | Kontekstvindue | Rate Limit (tokens/min) |
|---|---|---|---|---|
| DeepSeek V3 | $0,27 | $1,10 | 128K | 90.000 |
| DeepSeek Chat | $0,14 | $0,28 | 64K | 150.000 |
| DeepSeek Coder V2 | $0,14 | $0,28 | 64K | 120.000 |
| DeepSeek Embeddings | $0,002 | N/A | 8K | 200.000 |
Fakturering fungerer via et forudbetalt kreditsystem med automatiske fradrag per anmodning. Dashboardet viser forbrugsmålinger i realtid opdelt efter model og projekt, med konfigurerbare forbrugsadvarsler for at forhindre uventede omkostninger. Ubrugte kreditter udløber ikke, og mængderabatter anvendes automatisk ved månedlige tærskler over $1.000 i forbrug. I øjeblikket er disse priser de gældende standarder for alle regioner.
Rate limits håndhæver kvoter baseret på tokens per minut frem for råt antal anmodninger, hvilket giver fleksibilitet i batch-størrelser. API'et returnerer 429-statuskoder, når grænserne overskrides, med Retry-After headers, der angiver ventetid. Enterprise-konti har adgang til dedikerede throughput-reservationer og tilpassede konfigurationer gennem supportkanaler. Priserne er med forbehold for ændringer med 30 dages varsel til eksisterende brugere, selvom historiske data viser stabile rater siden V3-lanceringen i december 2025.
Tilgængelige modeller og endpoints

DeepSeek API-endpoints eksponerer fem produktionsmodeller, der hver især er optimeret til specifikke opgaver lige fra generel samtale til specialiseret kodegenerering. Valg af model sker via model-parameteren i anmodningerne, hvor ID'er følger mønsteret "deepseek-{capability}-{version}". Udgåede modeller forbliver tilgængelige i 90 dage efter, at erstatningsversioner er lanceret, med meddelelser sendt til aktive brugere.
| Model ID | Type | Kontekstvindue | Bedste anvendelse |
|---|---|---|---|
| deepseek-chat-v3 | Chat Completion | 128K tokens | Samtale-AI, generel ræsonnering, flersproget dialog |
| deepseek-coder-v2 | Code Completion | 64K tokens | Kodegenerering, debugging, teknisk dokumentation |
| deepseek-reasoner | Chat Completion | 128K tokens | Kompleks problemløsning, chain-of-thought ræsonnering |
| deepseek-embed | Embeddings | 8K tokens | Semantisk søgning, RAG-pipelines, lighedsmatchning |
| deepseek-vision-preview | Multimodal (Beta) | 32K tokens + billeder | Billedanalyse, OCR, visuel spørgsmålsbesvarelse |
Chat completion-endpointet på /v1/chat/completions håndterer interaktioner med understøttelse af system-prompts og function calling. Dette endpoint fungerer med både deepseek-chat-v3 og deepseek-reasoner-modeller, hvor sidstnævnte tilføjer eksplicitte ræsonneringsspor i svarene. Parametre som temperature og top_p kontrollerer tilfældigheden i output, mens max_tokens begrænser længden af den genererede tekst.
- Chatmodeller understøtter streaming via stream-parameteren for en realtids-brugeroplevelse.
- Kodegenereringsmodeller inkluderer optimeringer til Python, JavaScript, Java, C++ og Go.
- Embeddings returnerer 1024-dimensionelle vektorer til semantiske operationer.
- Vision-modellen accepterer billed-URL'er eller base64-kodet data sammen med tekst-prompts.
De tilgængelige modeller spænder fra 7B til 671B parametre, selvom præcise parametertal er anonymiserede for brugeren, der vælger ud fra formåen. DeepSeek Coder V2 udmærker sig især på HumanEval-benchmarks with 88,4% pass@1-nøjagtighed, mens flagskibet V3 opnår 87,1% på MMLU til generelle vidensopgaver. Alle produktionsmodeller understøtter JSON-mode og værktøjsintegration.
Beta-modeller som deepseek-vision-preview kan udvise højere latency og skiftende funktioner, efterhånden som træningen fortsætter. Endpointet /v1/models returnerer løbende tilgængelighed og status for udfasning programmatisk. Ældre modeller som deepseek-chat-v2 forbliver tilgængelige indtil marts 2026 af hensyn til bagudkompatibilitet, men nye integrationer bør målrettes V3-endpoints for optimal ydeevne.


