Deepseek Chat App Try Now

DeepSeek API: Guide til Integration, Modeller og Priser

Få adgang til kraftfulde AI-modeller som DeepSeek V3 og Coder med OpenAI-kompatible endpoints til markedets skarpeste priser.

Kom i gang nu

Oversigt over DeepSeek API

Oversigt over DeepSeek API

DeepSeek API giver programmatisk adgang til DeepSeeks suite af store sprogmodeller gennem et REST-baseret interface, der er designet til udviklere og virksomheder, som søger omkostningseffektiv AI-integration. Denne DeepSeek API understøtter flere modelvarianter, der er optimeret til forskellige arbejdsbelastninger, fra samtalebaseret AI til kodegenerering og embeddings. Tjenesten vedligeholder OpenAI-kompatible endpoints, hvilket gør det muligt for udviklere at skifte udbyder med minimale kodeændringer.

Adgang til API kræver godkendelse via bearer tokens, som genereres fra udvikler-dashboardet. Officielle SDK'er er tilgængelige til Python, Node.js, Go og Java, selvom enhver HTTP-klient kan interagere med REST-endpoints. Platformen henvender sig til individuelle udviklere, der bygger prototyper, startups, som opskalerer AI-funktioner, og virksomheder, der har brug for forudsigelige priser til inference-opgaver med høj volumen.

Funktion Specifikation
Tilgængelige modeller DeepSeek V3, DeepSeek Coder V2, DeepSeek Chat
Rate limits 500K tokens/dag gratis niveau, op til 50M tokens/dag betalt
Godkendelsesmetode Bearer token (API nøgle)
Officielle SDK'er Python, Node.js, Go, Java
Understøttede sprog Flersproget (70+ sprog, optimeret til EN/ZH)

Vigtige tekniske funktioner inkluderer streaming-svar til realtidsapplikationer, function calling til værktøjsintegration og JSON-mode til struktureret output. Systemet håndterer kontekstvinduer på op til 128K tokens på tværs af flagskibsmodeller, hvilket muliggør analyse af lange dokumenter uden opdeling. Alle anmodninger routes gennem globale CDN-endpoints med en gennemsnitlig latency på under 200 ms for de fleste regioner.

  • REST API med OpenAI-kompatibel struktur for nem migrering.
  • Native understøttelse af chat completions, embeddings og kodegenerering.
  • Automatisk load balancing på tværs af inference-klynger.
  • Detaljeret forbrugsanalyse og sporing af token-forbrug.

Dokumentationen indeholder interaktive eksempler og webhook-konfiguration til asynkron behandling. Integration kræver typisk 30 minutter for en grundlæggende implementering, hvor omfattende fejlhåndtering og logik for gentagne forsøg er indbygget i de officielle SDK'er.

Kom i gang med API

Kom i gang med API

Opsætning af API-adgang begynder with oprettelse af en udviklerkonto på DeepSeek-platformen og generering af din første API-nøgle i sektionen for legitimationsoplysninger. Quickstart-processen involverer tre kernefaser: konfiguration af godkendelse, installation af SDK og udførelse af din første anmodning. De fleste udviklere gennemfører test af den første anmodning inden for 15 minutter ved hjælp af de leverede kodeskabeloner.

Godkendelse bruger bearer token-format med nøgler, der starter med "sk-". Basis-URL for alle endpoints er https://api.deepseek.com/v1, hvilket følger RESTful-konventioner. Påkrævede headers inkluderer Authorization med din API-nøgle og Content-Type sat til application/json. Rate limiting gælder per nøgle i stedet for per konto, hvilket gør det muligt for teams at fordele kvoter på tværs af flere projekter.

For installation af Python SDK skal du bruge pip til at tilføje det officielle klientbibliotek. Den følgende kode demonstrerer et komplet workflow for en anmodning ved hjælp af chat completion-endpointet med DeepSeek V3:

pip install deepseek-sdk
from deepseek import DeepSeek

client = DeepSeek(api_key="sk-din-api-nøgle-her")

response = client.chat.completions.create(
    model="deepseek-chat-v3",
    messages=[
        {"role": "system", "content": "Du er en hjælpsom assistent."},
        {"role": "user", "content": "Forklar kvantecomputere i enkle vendinger."}
    ],
    max_tokens=500,
    temperature=0.7
)

print(response.choices[0].message.content)

For udviklere, der foretrækker curl-eksempler, kræver det tilsvarende HTTP-kald eksplicit header-konfiguration. Denne tilgang fungerer til test uden afhængighed af et SDK:

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer sk-din-api-nøgle-her" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-chat-v3",
    "messages": [{"role": "user", "content": "Hej API!"}],
    "max_tokens": 100
  }'

API'et returnerer JSON-svar, der indeholder genereret tekst, statistikker for token-forbrug og metadata for anmodningen. Succesfulde svar inkluderer et choices-array med modellens output, mens fejl returnerer standardiserede koder til fejlfinding. Token-antal vises i usage-objektet, som sporer prompt_tokens, completion_tokens og total_tokens for nøjagtig fakturering.

  • Hent din API-nøgle fra sikkerhedsfanen i udvikler-dashboardet.
  • Installer Python SDK eller brug direkte HTTP-anmodninger for maksimal fleksibilitet.
  • Test forbindelsen med en simpel chat completion før produktion.
  • Overvåg svar-headers for status på rate limits og resterende kvote.

Quickstart-guides i dokumentationen dækker yderligere sprog, herunder Node.js og Go, med rammeværk-specifikke eksempler til integrationer i Express, Flask og FastAPI. Webhook-konfigurationer til asynkron behandling kræver verificering af endpoint under den indledende opsætning.

API priser og rate limits

API priser og rate limits

Priserne for DeepSeek API følger i 2026 en token-baseret model, hvor der afregnes separat for input- og output-tokens, og raterne varierer afhængigt af modellens formåen. Flagskibet DeepSeek V3 koster $0,27 per 1M input-tokens og $1,10 per 1M output-tokens, hvilket placerer den betydeligt lavere end sammenlignelige topmodeller. Der tildeles gratis kreditter på i alt $5 til nye konti, hvilket rækker til cirka 4,5M input-tokens eller 900K output-tokens på standard-chatmodellen.

Beregninger af omkostninger per token gør DeepSeek særligt konkurrencedygtig til applikationer med høj volumen. En typisk udveksling i en chatbot, der forbruger 500 input-tokens og 200 output-tokens, koster ca. $0,00036 i 2026, hvilket muliggør millioner af interaktioner inden for beskedne budgetter. Rate limits skaleres med kontoniveau, startende ved 500K tokens dagligt for gratis konti og op til 50M tokens dagligt for enterprise-abonnementer.

Model Input (per 1M tokens) Output (per 1M tokens) Kontekstvindue Rate Limit (tokens/min)
DeepSeek V3 $0,27 $1,10 128K 90.000
DeepSeek Chat $0,14 $0,28 64K 150.000
DeepSeek Coder V2 $0,14 $0,28 64K 120.000
DeepSeek Embeddings $0,002 N/A 8K 200.000

Fakturering fungerer via et forudbetalt kreditsystem med automatiske fradrag per anmodning. Dashboardet viser forbrugsmålinger i realtid opdelt efter model og projekt, med konfigurerbare forbrugsadvarsler for at forhindre uventede omkostninger. Ubrugte kreditter udløber ikke, og mængderabatter anvendes automatisk ved månedlige tærskler over $1.000 i forbrug. I øjeblikket er disse priser de gældende standarder for alle regioner.

Rate limits håndhæver kvoter baseret på tokens per minut frem for råt antal anmodninger, hvilket giver fleksibilitet i batch-størrelser. API'et returnerer 429-statuskoder, når grænserne overskrides, med Retry-After headers, der angiver ventetid. Enterprise-konti har adgang til dedikerede throughput-reservationer og tilpassede konfigurationer gennem supportkanaler. Priserne er med forbehold for ændringer med 30 dages varsel til eksisterende brugere, selvom historiske data viser stabile rater siden V3-lanceringen i december 2025.

Tilgængelige modeller og endpoints

Tilgængelige modeller og endpoints

DeepSeek API-endpoints eksponerer fem produktionsmodeller, der hver især er optimeret til specifikke opgaver lige fra generel samtale til specialiseret kodegenerering. Valg af model sker via model-parameteren i anmodningerne, hvor ID'er følger mønsteret "deepseek-{capability}-{version}". Udgåede modeller forbliver tilgængelige i 90 dage efter, at erstatningsversioner er lanceret, med meddelelser sendt til aktive brugere.

Model ID Type Kontekstvindue Bedste anvendelse
deepseek-chat-v3 Chat Completion 128K tokens Samtale-AI, generel ræsonnering, flersproget dialog
deepseek-coder-v2 Code Completion 64K tokens Kodegenerering, debugging, teknisk dokumentation
deepseek-reasoner Chat Completion 128K tokens Kompleks problemløsning, chain-of-thought ræsonnering
deepseek-embed Embeddings 8K tokens Semantisk søgning, RAG-pipelines, lighedsmatchning
deepseek-vision-preview Multimodal (Beta) 32K tokens + billeder Billedanalyse, OCR, visuel spørgsmålsbesvarelse

Chat completion-endpointet på /v1/chat/completions håndterer interaktioner med understøttelse af system-prompts og function calling. Dette endpoint fungerer med både deepseek-chat-v3 og deepseek-reasoner-modeller, hvor sidstnævnte tilføjer eksplicitte ræsonneringsspor i svarene. Parametre som temperature og top_p kontrollerer tilfældigheden i output, mens max_tokens begrænser længden af den genererede tekst.

  • Chatmodeller understøtter streaming via stream-parameteren for en realtids-brugeroplevelse.
  • Kodegenereringsmodeller inkluderer optimeringer til Python, JavaScript, Java, C++ og Go.
  • Embeddings returnerer 1024-dimensionelle vektorer til semantiske operationer.
  • Vision-modellen accepterer billed-URL'er eller base64-kodet data sammen med tekst-prompts.

De tilgængelige modeller spænder fra 7B til 671B parametre, selvom præcise parametertal er anonymiserede for brugeren, der vælger ud fra formåen. DeepSeek Coder V2 udmærker sig især på HumanEval-benchmarks with 88,4% pass@1-nøjagtighed, mens flagskibet V3 opnår 87,1% på MMLU til generelle vidensopgaver. Alle produktionsmodeller understøtter JSON-mode og værktøjsintegration.

Beta-modeller som deepseek-vision-preview kan udvise højere latency og skiftende funktioner, efterhånden som træningen fortsætter. Endpointet /v1/models returnerer løbende tilgængelighed og status for udfasning programmatisk. Ældre modeller som deepseek-chat-v2 forbliver tilgængelige indtil marts 2026 af hensyn til bagudkompatibilitet, men nye integrationer bør målrettes V3-endpoints for optimal ydeevne.

Anvendelsesscenarier og integration

Anvendelsesscenarier og integration

Praktiske scenarier for API-integration spænder over kundevendte chatbots, pipelines til indholdsgenerering, udviklingsværktøjer og analytiske workflows. Da API'et er OpenAI-kompatibelt, kan det fungere som en direkte erstatning for eksisterende LLM-integrationer, mens DeepSeek-specifikke funktioner som de udvidede kontekstvinduer muliggør helt nye applikationer. Produktioner bruger ofte streaming for at skabe en responsiv brugeroplevelse.

Udvikling af chatbots er det mest almindelige mønster, hvor virksomheder indlejrer AI i supportplatforme og apps. Kontekstvinduet på 128K tokens kan rumme hele supportdokumentationer eller lange historikker uden trunkering. Function calling muliggør dataopslag i realtid, hvilket lader bots forespørge i databaser eller tjekke lagerstatus midt i en samtale.

  • Indholdsautomatisering til markedsføring, blogindlæg og produktbeskrivelser ved hjælp af styret sampling.
  • Værktøjer til kodeassistance, der integrerer DeepSeek Coder V2 i IDE'er til autofuldførelse og fejlfinding.
  • Dataanalyse-pipelines, hvor API'et behandler forskningsartikler eller juridiske dokumenter med struktureret udtræk.
  • RAG-implementeringer, der kombinerer DeepSeek Embeddings til hentning med chatmodeller til generering.

En typisk RAG-integration bruger embeddings-endpointet til at vektorisere dokumenter i en vidensbase og gemmer dem i systemer som Pinecone. Dette reducerer hallucinationer og sikrer, at svarene er faktuelt funderede. JSON-mode sikrer, at output kan parses korrekt i automatiserede workflows, hvilket er essentielt for downstream-behandling.

Streaming-svar er afgørende for applikationer, hvor oplevet latency påvirker brugeroplevelsen. API'et leverer tokens løbende, så tekst kan vises, mens den genereres. Med function calling kan modellen selv afgøre, hvornår eksterne handlinger er nødvendige, og formatere anmodninger derefter. Disse funktioner gør det muligt at skabe avancerede agenter, der håndterer komplekse opgaver gennem integration med eksterne systemer.

FAQ

Er DeepSeek API kompatibel med OpenAI biblioteker?

Ja, DeepSeek vedligeholder OpenAI-kompatible endpoints, hvilket gør det muligt at bruge OpenAI SDK'er blot ved at ændre base_url og din API-nøgle.

Hvor meget koster DeepSeek V3 API?

DeepSeek V3 koster $0,27 per 1M input-tokens og $1,10 per 1M output-tokens i 2026.

Hvor stort er kontekstvinduet?

Flagskibsmodeller som DeepSeek V3 understøtter et kontekstvindue på op til 128.000 tokens.

Får nye brugere gratis kreditter?

Ja, nye konti modtager typisk $5 i gratis kreditter til testformål.

Hvilke programmeringssprog understøttes af SDK'et?

Der findes officielle SDK'er til Python, Node.js, Go og Java.

Understøtter API'et billedanalyse?

Ja, gennem modellen deepseek-vision-preview, som er i beta, kan API'et behandle både tekst og billeder.

Hvad er rate limit for gratis konti?

Gratis konti starter normalt med en grænse på 500.000 tokens per dag.