DeepSeek modeller: En komplet guide til AI-serien

Oplev fremtidens AI med DeepSeek V3, R1 og Coder – uovertruffen ydeevne til en brøkdel af prisen.

Udforsk modeller nu

Oversigt over DeepSeek modeller

Oversigt over DeepSeek modeller

DeepSeek har etableret sig som en markant aktør på markedet for AI-modeller gennem en række kraftfulde store sprogmodeller, der konkurrerer direkte med løsninger fra OpenAI, Anthropic og Google. Virksomheden, der blev grundlagt af den kinesiske hedgefund High-Flyer Capital, udgav sin første model i 2023 og har siden udvidet til at omfatte specialiserede varianter til kodning, logisk ræsonnement og generelle opgaver. De tilgængelige modeller spænder fra letvægtsløsninger designet til prisbevidste applikationer til flagskibssystemer, der matcher GPT-4o i kapabiliteter.

Modeludvalget består af tre primære familier: DeepSeek V3, den nyeste flagskibsmodel udgivet i januar 2026, DeepSeek-R1 optimeret til ræsonnementer, og DeepSeek Coder til workflows inden for softwareudvikling. DeepSeek adskiller sig ved at kombinere konkurrencedygtig benchmark-performance med priser, der er 5 til 10 gange lavere end de etablerede udbydere. Alle modeller har OpenAI-kompatible API-endpoints, hvilket muliggør problemfri integration med eksisterende LLM-infrastruktur.

DeepSeek vedligeholder både proprietære cloud-hostede versioner og open-source udgivelser under Apache 2.0-licens, hvilket giver udviklere fleksibilitet mellem administrerede tjenester og selv-hostede implementeringer. Context-vinduet is standardiseret til 128K tokens på tværs af serien, hvilket understøtter behandling af lange dokumenter uden behov for chunking-strategier.

Modelnavn Udgivelsesdato Parametre Context-vindue Styrker Prisniveau
DeepSeek V3 Januar 2026 671B (MoE) 128K tokens Generelle formål, flersproget, komplekst ræsonnement $0.27/$1.10 pr. 1M tokens
DeepSeek-R1 December 2025 671B (MoE) 128K tokens Matematisk ræsonnement, logik, chain-of-thought $0.55/$2.19 pr. 1M tokens
DeepSeek Coder V2 Juni 2025 236B (MoE) 128K tokens Kodegenerering, debugging, 100+ sprog $0.14/$0.28 pr. 1M tokens
DeepSeek V2.5 September 2024 236B (MoE) 64K tokens Ældre generel model $0.14/$0.28 pr. 1M tokens

Detaljeret sammenligning af modeller

Detaljeret sammenligning af modeller

DeepSeek V3: Flagskibsmodellen til generelle formål

DeepSeek V3 blev udgivet i januar 2026 og repræsenterer virksomhedens nuværende teknologiske topniveau. Modellen er bygget på en mixture-of-experts arkitektur med 671 milliarder parametre i alt og 37 milliarder aktive pr. token, og den opnår 87,1 % på MMLU-benchmarket samt 71,5 % på HumanEval-kodeevalueringer. Træningsdataene rækker frem til november 2025, hvilket gør den til en af de mest opdaterede store sprogmodeller på markedet. Arkitekturen inkluderer 64 ekspertlag med top-8 routing, hvilket bidrager til effektiv inference på trods af det massive antal parametre.

Performance-målinger placerer V3 konkurrencedygtigt mod GPT-4o og Claude 3.5 Sonnet. På MATH-benchmarket for matematisk problemløsning scorer den 78,9 %, hvilket er tæt på GPT-4o's 83,2 %, men foran Claude 3.5's 76,4 %. Med hensyn til flersprogede kapabiliteter understøtter modellen 29 sprog med kompetencer på modersmålsniveau i kinesisk og engelsk. Håndtering af kontekst strækker sig til det fulde 128K token-vindue uden væsentlig kvalitetsforringelse, hvilket er valideret via RULER-benchmarket med en præcision på 96,2 % i datahentning.

  • Mixture-of-experts arkitektur reducerer inference-omkostninger mens kvaliteten bevares.
  • Native function calling med JSON mode til strukturerede outputs.
  • Streaming af svar med token-for-token levering.
  • Temperaturkontrol fra 0.0 til 2.0 til justering af kreativitet.
  • Understøttelse af system prompt til tilpasning af roller.

Ideelle anvendelsesscenarier inkluderer kundeservice-chatbots, der kræver flersproget support, pipelines til indholdsproduktion af lange dokumenter og forskningsapplikationer, der kræver præcis syntese af information. Modellen er fremragende til at opretholde sammenhæng i udvidede samtaler, med et gennemsnit på 18 interaktioner før der kan registreres et fald i kontekstforståelsen. Prisstrukturen på $0,27 pr. million input-tokens og $1,10 pr. million output-tokens gør den økonomisk bæredygtig for produktionsmiljøer med millioner af månedlige forespørgsler.

DeepSeek-R1: Specialiseret model til ræsonnement

DeepSeek-R1 blev lanceret i december 2025 og fokuserer specifikt på komplekse opgaver, der kræver logisk slutning i flere trin. Arkitekturen benytter chain-of-thought prompting naturligt, hvilket eksponerer de mellemliggende ræsonnementstrin i API-svarene. Denne gennemsigtighed gør det muligt for udviklere at verificere de logiske processer og fejlfinde mangler i ræsonnementet. Præstationen på MATH-benchmarket når 81,6 %, hvilket overgår V3 med 2,7 procentpoint, mens GPQA-scoren for videnskabelige spørgsmål på kandidatniveau rammer 68,4 %.

Træningsmetoden for R1 involverede reinforcement learning fra menneskelig feedback med specifikt fokus på ræsonnement, hvilket adskiller sig fra den bredere RLHF, der er anvendt på V3. Resultatet er en model, der eksplicit viser sit arbejde frem for blot at præsentere en konklusion. Til matematiske beviser, videnskabelige analyser og juridiske anvendelser er denne egenskab uvurderlig. Parametertallet matcher V3 på 671B med mixture-of-experts routing, men ekspertvalget prioriterer de logik-tunge stier i netværket.

  • Eksplicit chain-of-thought ræsonnement i alle svar.
  • Overlegen performance på matematiske og videnskabelige benchmarks.
  • Verificerbare outputs til beslutningstagning i kritiske processer.
  • Udvidede ræsonnement-spor til komplekse problemer i flere trin.

Modellen koster $0,55 pr. million input-tokens og $2,19 pr. million output-tokens, hvilket er omtrent det dobbelte af prisen på V3. Denne merpris afspejler den specialiserede træning og de typisk længere output-sekvenser, der indeholder detaljerede ræsonnementer. Organisationer, der arbejder med finansiel analyse, medicinske beslutningsstøttesystemer og ingeniørmæssige beregninger, finder ofte gennemsigtigheden den ekstra omkostning værd.

DeepSeek Coder V2: Specialist i softwareudvikling

DeepSeek Coder V2 er målrettet workflows i softwareudvikling med træningsdata, der er tungt vægtet mod kode-repositories, teknisk dokumentation og specifikationer for programmeringssprog. Den blev udgivet i juni 2025 med 236 milliarder parametre og understøtter over 100 sprog med særlig styrke i Python, JavaScript, TypeScript, Java, C++ og Go. HumanEval-scoren når 84,2 % for kodegenerering i Python, mens MultiPL-E benchmarket i gennemsnit ligger på 72,8 % på tværs af alle understøttede sprog.

Modellen forstår konteksten i et helt repository gennem sit 128K token-vindue, hvilket muliggør analyse af hele kodebaser i en enkelt prompt. Fill-in-the-middle-kapabilitet understøtter integration i IDE til kodefuldførelse i realtid. Udledning af funktionssignaturer, generering af dokumentation og oprettelse af enhedstests og kernekompetencer. Debugging-assistance inkluderer identifikation af logiske fejl, sikkerhedshuller og flaskehalse i ydeevnen gennem statisk analyse af den leverede kode.

Benchmark DeepSeek V3 DeepSeek-R1 DeepSeek Coder V2 GPT-4o Claude 3.5 Sonnet
MMLU 87.1% 86.8% 79.4% 88.7% 88.3%
HumanEval 71.5% 69.2% 84.2% 90.2% 73.0%
MATH 78.9% 81.6% 62.3% 83.2% 76.4%
GPQA 64.2% 68.4% 51.7% 69.1% 67.3%
BBH 82.6% 84.1% 76.8% 86.4% 84.9%

Sådan vælger du den rette model

Sådan vælger du den rette model

Valget af model afhænger af balancen mellem krav til ydeevne, budgetbegrænsninger og opgavespecifikke behov. Til generelle applikationer, der kræver stærk flersproget support og bred viden, leverer DeepSeek V3 den optimale værdi. Prismæssigt er fordelen over GPT-4o betydelig ved stor volumen: behandling af 100 millioner tokens månedligt koster cirka $137 med V3 mod $1.500 med GPT-4o's input-priser. Kundeservice, indholdsplatforme og forskningsassistenter drager stor fordel af alsidigheden i V3.

DeepSeek-R1 er velegnet til scenarier, hvor gennemsigtighed i ræsonnementer retfærdiggør de højere omkostninger. Finansiel modellering, medicinsk diagnosticering, juridisk kontraktanalyse og videnskabelig forskning falder i denne kategori. Muligheden for at revidere de logiske trin reducerer risikoen ved vigtige beslutninger. Organisationer rapporterer, at de eksplicitte chain-of-thought outputs accelererer menneskelig gennemgang med 40-50 %, hvilket opvejer prisen gennem effektivisering af arbejdsprocesserne.

Udviklingsteams bør som udgangspunkt vælge DeepSeek Coder V2 til software-relaterede opgaver. Automatisering af kode-review, dokumentationsgenerering, oprettelse af testcases og forslag til refactoring fungerer bedre med den specialiserede model. Kombinationen af overlegne HumanEval-scorer og markedets laveste priser skaber en markant fordel. Teams, der behandler 50 millioner tokens månedligt, bruger kun $21 sammenlignet med $70 med V3 ved kode-tunge opgaver.

  • Budgetfokuserede projekter: Start med Coder V2 til kode eller V3 til tekst.
  • Krav om maksimal præcision: Sammenlign V3 mod GPT-4o på dine specifikke prompts.
  • Ræsonnement-intensive opgaver: R1 giver gennemsigtighed, der er merprisen værd.
  • Flersproget indhold: V3 håndterer 29 sprog med konsistent kvalitet.
  • Realtidsapplikationer: Coder V2 tilbyder hurtigst inference med 45 tokens/sekund.
Anvendelse Anbefalet model Årsag
Kundeservice chatbot DeepSeek V3 Flersproget, sammenhæng i lange samtaler, billig skalering
Kodegenerering og review DeepSeek Coder V2 Højeste HumanEval-score, laveste pris, hurtig inference
Finansiel analyse DeepSeek-R1 Gennemsigtig logik, høj MATH-score, revisionsspor
Tekstforfatning DeepSeek V3 Bred viden, kreativ fleksibilitet, 128K kontekst til research
Videnskabelig forskning DeepSeek-R1 GPQA-ydeevne, logisk slutning, præcise kildehenvisninger
Prototype og test DeepSeek Coder V2 Gratis niveau til udvikling, laveste pris til eksperimenter

FAQ

Hvad er DeepSeek V3?

DeepSeek V3 er virksomhedens flagskibsmodel til generelle formål, der konkurrerer med GPT-4o gennem en effektiv MoE-arkitektur og 128K context-vindue.

Hvordan adskiller DeepSeek-R1 sig fra V3?

R1 er optimeret til ræsonnementer og logik, hvor den viser sine tankeprocesser via chain-of-thought, mens V3 er en bredere model til generelle opgaver.

Er DeepSeek Coder V2 den bedste til programmering?

Ja, den har en HumanEval-score på 84,2 % og understøtter over 100 sprog, hvilket gør den yderst effektiv til kodegenerering og debugging.

Hvad er prisen for at bruge DeepSeek modeller via API?

Priserne varierer fra $0,14 pr. 1M tokens for Coder V2 til omkring $0,55 pr. 1M tokens for den specialiserede R1-model.

Understøtter DeepSeek modeller dansk?

DeepSeek V3 understøtter 29 sprog med høj kvalitet, og serien generelt er meget kompetent til både engelsk, kinesisk og andre større sprog.

Er DeepSeek modeller open-source?

Mange af DeepSeeks modeller udgives under Apache 2.0-licens, hvilket tillader både kommerciel brug og selv-hosting.

Hvad er et context-vindue på 128K tokens?

Det betyder, at modellen kan behandle og huske information fra op til ca. 300 sider tekst i en enkelt forespørgsel.

Hvornår kommer der multimodale funktioner?

Billed-input (Vision) gik i beta i december 2025, og fuld multimodal understøttelse inklusiv lyd forventes i løbet af 2026.