Deepseek Chat App Try Now

DeepSeek API: Ghid Complet de Integrare și Modele AI

Interfața DeepSeek API oferă acces programatic la suita de modele de limbaj de mari dimensiuni pentru o integrare AI eficientă din punct de vedere al costurilor.

Începe Integrarea

Getting started with the API

Getting started with the API

Configurarea accesului la API începe cu crearea unui cont de dezvoltator pe platforma DeepSeek și generarea primei chei API din secțiunea de acreditări. Procesul de pornire rapidă implică trei pași de bază: configurarea autentificării, instalarea SDK-ului și executarea primei cereri. Majoritatea dezvoltatorilor finalizează testarea primei cereri în 15 minute folosind șabloanele de cod furnizate.

Autentificarea utilizează formatul bearer token cu chei prefixate de "sk-". URL-ul de bază pentru toate endpoint-urile API este https://api.deepseek.com/v1, respectând convențiile RESTful. Header-ele obligatorii includ Authorization cu cheia API și Content-Type setat la application/json. Limitarea ratei se aplică pe cheie și nu pe cont, permițând echipelor să distribuie cotele pe mai multe proiecte.

Pentru instalarea SDK-ului Python, utilizați pip pentru a adăuga biblioteca client oficială. Următorul cod demonstrează un flux complet pentru prima cerere folosind endpoint-ul de chat completion cu DeepSeek V3:

pip install deepseek-sdk
from deepseek import DeepSeek

client = DeepSeek(api_key="sk-your-api-key-here")

response = client.chat.completions.create(
    model="deepseek-chat-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    max_tokens=500,
    temperature=0.7
)

print(response.choices[0].message.content)

Pentru dezvoltatorii care preferă cereri prin curl, apelul HTTP echivalent necesită configurarea explicită a header-elor. Această abordare funcționează pentru testare fără dependențe de SDK:

curl https://api.deepseek.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-api-key-here" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-chat-v3",
    "messages": [{"role": "user", "content": "Hello, API!"}],
    "max_tokens": 100
  }'

API returnează răspunsuri JSON care conțin textul generat, statistici privind utilizarea token-urilor și metadate despre cerere. Răspunsurile reușite includ o matrice choices cu rezultatul modelului, în timp ce erorile returnează coduri standardizate pentru depanare. Numărul de tokens apare în obiectul usage, monitorizând prompt_tokens, completion_tokens și total_tokens pentru acuratețea facturării.

  • Obțineți configurarea cheii API din fila de securitate a tabloului de bord.
  • Instalați SDK-ul Python sau utilizați cereri HTTP directe pentru flexibilitate.
  • Testați conectivitatea cu o finalizare simplă de chat înainte de integrarea în producție.
  • Monitorizați header-ele de răspuns pentru starea limitei de rată și cota rămasă.

Ghidurile de pornire rapidă din documentație acoperă limbi suplimentare, inclusiv Node.js și Go, cu exemple specifice pentru integrări în Express, Flask și FastAPI. Configurarea webhooks pentru procesarea asincronă necesită verificarea endpoint-ului în timpul configurării inițiale.

API pricing and rate limits

API pricing and rate limits

În 2026, structura de prețuri DeepSeek API urmează un model bazat pe tokens care taxează separat pentru tokens de intrare și de ieșire, tarifele variind în funcție de capacitatea modelului. Modelul emblematic DeepSeek V3 costă 0,27 USD per 1M tokens de intrare și 1,10 USD per 1M tokens de ieșire, fiind poziționat semnificativ sub modelele concurente. Credite gratuite în valoare totală de 5 USD sunt oferite conturilor noi, suficiente pentru aproximativ 4,5M tokens de intrare sau 900K tokens de ieșire pe modelul de chat standard.

Calculele costului per token fac DeepSeek deosebit de competitiv pentru aplicațiile cu volum mare. Actualmente, un schimb tipic de chatbot care consumă 500 tokens de intrare și 200 tokens de ieșire costă aproximativ 0,00036 USD, permițând milioane de interacțiuni în limitele unor bugete modeste. Limitele de rată scalează cu nivelul contului, începând de la 500K tokens zilnic pentru conturile gratuite și ajungând până la 50M tokens zilnic pentru abonamentele enterprise.

Model Intrare (per 1M tokens) Ieșire (per 1M tokens) Fereastră Context Limită Rată (tokens/min)
DeepSeek V3 $0.27 $1.10 128K 90,000
DeepSeek Chat $0.14 $0.28 64K 150,000
DeepSeek Coder V2 $0.14 $0.28 64K 120,000
DeepSeek Embeddings $0.002 N/A 8K 200,000

Facturarea utilizării funcționează pe un sistem de credit preplătit cu deduceri automate per cerere. Tabloul de bord afișează metrici de consum în timp real defalcate pe model și proiect, cu alerte de cheltuieli configurabile pentru a preveni depășirile neașteptate. Creditele neutilizate nu expiră, iar reducerile de volum se aplică automat la praguri lunare de peste 1.000 USD în consum.

Limitele de rată impun cote de cereri bazate pe tokens pe minut, mai degrabă decât pe numărul brut de cereri, permițând dimensiuni flexibile ale loturilor. API returnează coduri de stare 429 atunci când limitele sunt depășite, cu header-e Retry-After care indică timpii de așteptare. Conturile enterprise accesează rezervări dedicate de debit și configurații personalizate ale limitelor de rată prin canalele de asistență.

Available models and endpoints

Available models and endpoints

Endpoint-urile DeepSeek API expun cinci modele de producție, fiecare optimizat pentru sarcini de lucru distincte, variind de la conversație generală la generare specializată de cod. Selecția modelului se face prin parametrul model în cererile API, cu ID-uri care urmează modelul "deepseek-{capability}-{version}". Modelele învechite rămân accesibile timp de 90 de zile după lansarea versiunilor de înlocuire, cu notificări de migrare trimise utilizatorilor activi.

ID Model Tip Fereastră Context Caz de Utilizare Optim
deepseek-chat-v3 Chat Completion 128K tokens AI conversațional, raționament general, dialog multilingv
deepseek-coder-v2 Code Completion 64K tokens Generare de cod, depanare, documentație tehnică
deepseek-reasoner Chat Completion 128K tokens Rezolvare de probleme complexe, raționament chain-of-thought
deepseek-embed Embeddings 8K tokens Căutare semantică, conducte RAG, potrivire de similaritate
deepseek-vision-preview Multimodal (Beta) 32K tokens + imagini Analiză imagini, OCR, răspunsuri la întrebări vizuale

Endpoint-ul de chat completion la /v1/chat/completions gestionează interacțiunile conversaționale cu suport pentru prompt-uri de sistem, dialoguri multi-turn și apelarea funcțiilor. Acest endpoint funcționează atât cu modelul deepseek-chat-v3, cât și cu deepseek-reasoner, acesta din urmă adăugând urme explicite de raționament în răspunsuri. Parametrii temperature și top_p controlează caracterul aleatoriu al rezultatului, în timp ce max_tokens limitează lungimea generării.

  • Modelele de chat suportă răspunsuri în flux prin parametrul stream pentru un UX rapid.
  • Modelele de finalizare a codului includ optimizări specifice pentru Python, JavaScript și C++.
  • Lista de modele de embeddings returnează vectori de 1024 de dimensiuni pentru operațiuni semantice.
  • Modelul Vision acceptă URL-uri de imagini sau date codificate base64 alături de text.

Modelele disponibile variază de la 7B la 671B parametri, deși numărul de parametri este abstractizat pentru utilizatorii API care selectează în funcție de capacitate. DeepSeek Coder V2 excelează în special pe benchmark-urile HumanEval cu o acuratețe pass@1 de 88,4%, în timp ce V3 obține 87,1% pe MMLU pentru sarcini de cunoștințe generale. Toate modelele de producție suportă modul JSON pentru rezultate structurate și apelarea funcțiilor pentru integrarea instrumentelor.

Modelele beta, precum deepseek-vision-preview, pot prezenta o latență mai mare și capacități în evoluție pe măsură ce antrenamentul continuă. Endpoint-ul de listă a modelelor de la /v1/models returnează disponibilitatea curentă și starea de depreciere în mod programatic. Modelele vechi rămân accesibile pentru o perioadă limitată pentru compatibilitate retroactivă, dar noile integrări ar trebui să vizeze endpoint-urile V3.

Use cases and integration examples

Use cases and integration examples

Scenariile practice de integrare API cuprind chatbot-uri pentru clienți, conducte de generare de conținut, instrumente de dezvoltare și fluxuri de lucru analitice. Compatibilitatea DeepSeek cu OpenAI permite înlocuirea directă a integrărilor LLM existente, în timp ce funcțiile specifice, cum ar fi ferestrele de context extinse, permit aplicații inedite. Desfășurările în producție utilizează frecvent streaming pentru un UX receptiv și apelarea funcțiilor pentru accesul la date externe.

Dezvoltarea de chatbot-uri reprezintă cel mai comun model de integrare, companiile încorporând AI conversațional în platforme de suport și aplicații mobile. Fereastra de context de 128K găzduiește întreaga documentație de suport sau istoricul conversațiilor fără trunchiere. Apelarea funcțiilor permite căutări de date în timp real, permițând roboților să interogheze baze de date sau să verifice stocul în timpul conversației.

  • Automatizarea generării de conținut pentru marketing și bloguri folosind eșantionarea controlată.
  • Instrumente de asistență cod care integrează DeepSeek Coder V2 în IDE-uri pentru autocompletare.
  • Conducte de analiză a datelor unde API procesează rapoarte financiare cu extracție structurată.
  • Implementări de conducte RAG care combină embeddings pentru recuperare cu modele de chat.

O integrare RAG tipică utilizează endpoint-ul de embeddings pentru a vectoriza documentele dintr-o bază de cunoștințe, stochează vectorii, apoi recuperează fragmente relevante pentru injecția de context în prompt-urile de chat. Această arhitectură reduce halucinațiile menținând în același timp fluența conversațională. Modul JSON asigură rezultate structurate pentru procesarea ulterioară, fiind valoros în fluxurile de lucru automatizate care necesită răspunsuri ușor de analizat.

Răspunsurile prin streaming se dovedesc esențiale pentru aplicațiile orientate către utilizator, unde latența percepută afectează experiența. API livrează tokens incremental prin server-sent events, permițând interfețelor să afișeze textul pe măsură ce este generat. Definițiile de apelare a funcțiilor specifică instrumentele disponibile cu scheme JSON, permițând modelului să determine când sunt necesare acțiuni externe și să formateze cererile în mod corespunzător.

Întrebări Frecvente

Este DeepSeek API compatibil cu bibliotecile OpenAI?

Da, DeepSeek API utilizează o structură bazată pe REST compatibilă cu OpenAI, permițând dezvoltatorilor să utilizeze SDK-urile existente cu modificări minime de cod.

Care sunt prețurile pentru DeepSeek V3 API?

Modelul DeepSeek V3 costă aproximativ 0,27 USD per 1M tokens de intrare și 1,10 USD per 1M tokens de ieșire.

Există un nivel gratuit pentru testare?

Da, conturile noi primesc credite gratuite în valoare de 5 USD pentru a testa modelele de chat și cod.

Ce lungime maximă de context suportă API-ul?

Modelele emblematice precum V3 suportă o fereastră de context de până la 128K tokens.

Ce limbaje de programare sunt suportate de SDK-urile oficiale?

Sunt disponibile SDK-uri oficiale pentru Python, Node.js, Go și Java.

Poate DeepSeek API să genereze cod?

Da, modelul DeepSeek Coder V2 este optimizat special pentru generare de cod, depanare și documentație tehnică în multiple limbaje.

Cum funcționează limitele de rată?

Limitele de rată sunt bazate pe consumul de tokens pe minut și scalează în funcție de nivelul contului, de la 500K la 50M tokens zilnic.

Suportă DeepSeek API funcția de streaming?

Da, parametrul 'stream' permite livrarea răspunsurilor în timp real prin server-sent events.

Pot folosi DeepSeek pentru căutare semantică?

Da, endpoint-ul deepseek-embed oferă vectori pentru conducte RAG și sisteme de căutare semantică.

Unde pot genera cheia mea API?

Cheile API pot fi generate din tabloul de bord al dezvoltatorului, în secțiunea de acreditări de securitate.