Oversigt over DeepSeek modeller

DeepSeek har etableret sig som en markant aktør på markedet for AI-modeller gennem en række kraftfulde store sprogmodeller, der konkurrerer direkte med løsninger fra OpenAI, Anthropic og Google. Virksomheden, der blev grundlagt af den kinesiske hedgefund High-Flyer Capital, udgav sin første model i 2023 og har siden udvidet til at omfatte specialiserede varianter til kodning, logisk ræsonnement og generelle opgaver. De tilgængelige modeller spænder fra letvægtsløsninger designet til prisbevidste applikationer til flagskibssystemer, der matcher GPT-4o i kapabiliteter.
Modeludvalget består af tre primære familier: DeepSeek V3, den nyeste flagskibsmodel udgivet i januar 2026, DeepSeek-R1 optimeret til ræsonnementer, og DeepSeek Coder til workflows inden for softwareudvikling. DeepSeek adskiller sig ved at kombinere konkurrencedygtig benchmark-performance med priser, der er 5 til 10 gange lavere end de etablerede udbydere. Alle modeller har OpenAI-kompatible API-endpoints, hvilket muliggør problemfri integration med eksisterende LLM-infrastruktur.
DeepSeek vedligeholder både proprietære cloud-hostede versioner og open-source udgivelser under Apache 2.0-licens, hvilket giver udviklere fleksibilitet mellem administrerede tjenester og selv-hostede implementeringer. Context-vinduet is standardiseret til 128K tokens på tværs af serien, hvilket understøtter behandling af lange dokumenter uden behov for chunking-strategier.
| Modelnavn | Udgivelsesdato | Parametre | Context-vindue | Styrker | Prisniveau |
|---|---|---|---|---|---|
| DeepSeek V3 | Januar 2026 | 671B (MoE) | 128K tokens | Generelle formål, flersproget, komplekst ræsonnement | $0.27/$1.10 pr. 1M tokens |
| DeepSeek-R1 | December 2025 | 671B (MoE) | 128K tokens | Matematisk ræsonnement, logik, chain-of-thought | $0.55/$2.19 pr. 1M tokens |
| DeepSeek Coder V2 | Juni 2025 | 236B (MoE) | 128K tokens | Kodegenerering, debugging, 100+ sprog | $0.14/$0.28 pr. 1M tokens |
| DeepSeek V2.5 | September 2024 | 236B (MoE) | 64K tokens | Ældre generel model | $0.14/$0.28 pr. 1M tokens |
Detaljeret sammenligning af modeller

DeepSeek V3: Flagskibsmodellen til generelle formål
DeepSeek V3 blev udgivet i januar 2026 og repræsenterer virksomhedens nuværende teknologiske topniveau. Modellen er bygget på en mixture-of-experts arkitektur med 671 milliarder parametre i alt og 37 milliarder aktive pr. token, og den opnår 87,1 % på MMLU-benchmarket samt 71,5 % på HumanEval-kodeevalueringer. Træningsdataene rækker frem til november 2025, hvilket gør den til en af de mest opdaterede store sprogmodeller på markedet. Arkitekturen inkluderer 64 ekspertlag med top-8 routing, hvilket bidrager til effektiv inference på trods af det massive antal parametre.
Performance-målinger placerer V3 konkurrencedygtigt mod GPT-4o og Claude 3.5 Sonnet. På MATH-benchmarket for matematisk problemløsning scorer den 78,9 %, hvilket er tæt på GPT-4o's 83,2 %, men foran Claude 3.5's 76,4 %. Med hensyn til flersprogede kapabiliteter understøtter modellen 29 sprog med kompetencer på modersmålsniveau i kinesisk og engelsk. Håndtering af kontekst strækker sig til det fulde 128K token-vindue uden væsentlig kvalitetsforringelse, hvilket er valideret via RULER-benchmarket med en præcision på 96,2 % i datahentning.
- Mixture-of-experts arkitektur reducerer inference-omkostninger mens kvaliteten bevares.
- Native function calling med JSON mode til strukturerede outputs.
- Streaming af svar med token-for-token levering.
- Temperaturkontrol fra 0.0 til 2.0 til justering af kreativitet.
- Understøttelse af system prompt til tilpasning af roller.
Ideelle anvendelsesscenarier inkluderer kundeservice-chatbots, der kræver flersproget support, pipelines til indholdsproduktion af lange dokumenter og forskningsapplikationer, der kræver præcis syntese af information. Modellen er fremragende til at opretholde sammenhæng i udvidede samtaler, med et gennemsnit på 18 interaktioner før der kan registreres et fald i kontekstforståelsen. Prisstrukturen på $0,27 pr. million input-tokens og $1,10 pr. million output-tokens gør den økonomisk bæredygtig for produktionsmiljøer med millioner af månedlige forespørgsler.
DeepSeek-R1: Specialiseret model til ræsonnement
DeepSeek-R1 blev lanceret i december 2025 og fokuserer specifikt på komplekse opgaver, der kræver logisk slutning i flere trin. Arkitekturen benytter chain-of-thought prompting naturligt, hvilket eksponerer de mellemliggende ræsonnementstrin i API-svarene. Denne gennemsigtighed gør det muligt for udviklere at verificere de logiske processer og fejlfinde mangler i ræsonnementet. Præstationen på MATH-benchmarket når 81,6 %, hvilket overgår V3 med 2,7 procentpoint, mens GPQA-scoren for videnskabelige spørgsmål på kandidatniveau rammer 68,4 %.
Træningsmetoden for R1 involverede reinforcement learning fra menneskelig feedback med specifikt fokus på ræsonnement, hvilket adskiller sig fra den bredere RLHF, der er anvendt på V3. Resultatet er en model, der eksplicit viser sit arbejde frem for blot at præsentere en konklusion. Til matematiske beviser, videnskabelige analyser og juridiske anvendelser er denne egenskab uvurderlig. Parametertallet matcher V3 på 671B med mixture-of-experts routing, men ekspertvalget prioriterer de logik-tunge stier i netværket.
- Eksplicit chain-of-thought ræsonnement i alle svar.
- Overlegen performance på matematiske og videnskabelige benchmarks.
- Verificerbare outputs til beslutningstagning i kritiske processer.
- Udvidede ræsonnement-spor til komplekse problemer i flere trin.
Modellen koster $0,55 pr. million input-tokens og $2,19 pr. million output-tokens, hvilket er omtrent det dobbelte af prisen på V3. Denne merpris afspejler den specialiserede træning og de typisk længere output-sekvenser, der indeholder detaljerede ræsonnementer. Organisationer, der arbejder med finansiel analyse, medicinske beslutningsstøttesystemer og ingeniørmæssige beregninger, finder ofte gennemsigtigheden den ekstra omkostning værd.
DeepSeek Coder V2: Specialist i softwareudvikling
DeepSeek Coder V2 er målrettet workflows i softwareudvikling med træningsdata, der er tungt vægtet mod kode-repositories, teknisk dokumentation og specifikationer for programmeringssprog. Den blev udgivet i juni 2025 med 236 milliarder parametre og understøtter over 100 sprog med særlig styrke i Python, JavaScript, TypeScript, Java, C++ og Go. HumanEval-scoren når 84,2 % for kodegenerering i Python, mens MultiPL-E benchmarket i gennemsnit ligger på 72,8 % på tværs af alle understøttede sprog.
Modellen forstår konteksten i et helt repository gennem sit 128K token-vindue, hvilket muliggør analyse af hele kodebaser i en enkelt prompt. Fill-in-the-middle-kapabilitet understøtter integration i IDE til kodefuldførelse i realtid. Udledning af funktionssignaturer, generering af dokumentation og oprettelse af enhedstests og kernekompetencer. Debugging-assistance inkluderer identifikation af logiske fejl, sikkerhedshuller og flaskehalse i ydeevnen gennem statisk analyse af den leverede kode.
| Benchmark | DeepSeek V3 | DeepSeek-R1 | DeepSeek Coder V2 | GPT-4o | Claude 3.5 Sonnet |
|---|---|---|---|---|---|
| MMLU | 87.1% | 86.8% | 79.4% | 88.7% | 88.3% |
| HumanEval | 71.5% | 69.2% | 84.2% | 90.2% | 73.0% |
| MATH | 78.9% | 81.6% | 62.3% | 83.2% | 76.4% |
| GPQA | 64.2% | 68.4% | 51.7% | 69.1% | 67.3% |
| BBH | 82.6% | 84.1% | 76.8% | 86.4% | 84.9% |


