Fillimi i punës me API

Konfigurimi i aksesit fillon me krijimin e një llogarie zhvilluesi në platformën DeepSeek dhe gjenerimin e çelësit tuaj të parë API nga seksioni i kredencialeve. Ky proces përfshin tre hapa kryesorë: konfigurimin e autentifikimit, instalimin e SDK dhe ekzekutimin e kërkesës suaj fillestare. Shumica e zhvilluesve përfundojnë testimin e kërkesës së parë brenda 15 minutave duke përdorur modelet e gatshme të kodit.
Autentifikimi përdor formatin e tokenit bearer me çelësat që kanë prefiksin "sk-". URL-ja bazë për të gjitha pikat fundore të API është https://api.deepseek.com/v1, duke ndjekur konventat RESTful. Header-at e kërkuar përfshijnë Authorization med çelësin tuaj API dhe Content-Type të vendosur si application/json. Limitimi i shpejtësisë zbatohet për çdo çelës dhe jo për llogari, duke lejuar ekipet të shpërndajnë kuotat në projekte të ndryshme.
Për instalimin e Python SDK, përdorni pip për të shtuar bibliotekën zyrtare të klientit. Kodi i mëposhtëm demonstron një rrjedhë pune të plotë për kërkesën e parë duke përdorur endpoint-in e bisedës me DeepSeek V3:
pip install deepseek-sdk
from deepseek import DeepSeek
client = DeepSeek(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="deepseek-chat-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
Për zhvilluesit që preferojnë kërkesat me curl, thirrja e ekuivalente HTTP kërkon konfigurim të qartë të header-ave. Kjo metodë funksionon mirë për testim pa pasur nevojë për varësi nga SDK:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key-here" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat-v3",
"messages": [{"role": "user", "content": "Hello, API!"}],
"max_tokens": 100
}'
API kthen përgjigje JSON që përmbajnë tekstin e gjeneruar, statistikat e përdorimit të tokeneve dhe metadata të kërkesës. Përgjigjet e suksesshme përfshijnë një varg choices me rezultatin e modelit, ndërsa gabimet kthejnë kode të standardizuara për debugging. Numërimi i tokeneve shfaqet në objektin usage, duke gjurmuar prompt_tokens, completion_tokens dhe total_tokens për saktësi në faturim.
- Sigurimi i çelësit API nga seksioni i sigurisë në panelin e zhvilluesit.
- Instalimi i Python SDK ose përdorimi i kërkesave direkte HTTP për fleksibilitet.
- Testimi i lidhjes me një bisedë të thjeshtë përpara integrimit në produksion.
- Monitorimi i header-ave të përgjigjes për statusin e limiteve dhe kuotën e mbetur.
Udhëzuesit për fillimin e shpejtë në dokumentacion mbulojnë gjuhë shtesë si Node.js dhe Go, me shembuj specifikë për kornizat Express, Flask dhe FastAPI. Konfigurimet e webhooks për procesim asinkron kërkojnë verifikimin e endpoint-it gjatë konfigurimit fillestar.
Modelet e disponueshme dhe endpoint-et

Pikat fundore të DeepSeek API ofrojnë pesë modele produksioni, secili i optimizuar për detyra të caktuara që variojnë nga biseda e përgjithshme deri te gjenerimi i specializuar i kodit. Përzgjedhja e modelit bëhet përmes parametrit model në kërkesat API, me ID që ndjekin modelin "deepseek-{capability}-{version}". Modelet e vjetruara mbeten të aksesueshme për 90 ditë pas lëshimit të versioneve të reja për të lejuar tranzicionin.
| Model ID | Lloji | Dritarja e kontekstit | Përdorimi ideal |
|---|---|---|---|
| deepseek-chat-v3 | Chat Completion | 128K tokene | AI bisedore, arsyetim i përgjithshëm, dialog multilingual |
| deepseek-coder-v2 | Code Completion | 64K tokene | Gjenerim kodi, debugging, dokumentacion teknik |
| deepseek-reasoner | Chat Completion | 128K tokene | Zgjidhje e problemeve komplekse, arsyetim i thellë |
| deepseek-embed | Embeddings | 8K tokene | Kërkim semantik, RAG pipelines, përputhje ngjashmërie |
| deepseek-vision-preview | Multimodal (Beta) | 32K tokene + imazhe | Analizë imazhi, OCR, pyetje-përgjigje vizuale |
Endpoint-i i bisedës në /v1/chat/completions menaxhon ndërveprimet me mbështetje për system prompts dhe thirrje funksionesh. Ky endpoint funksionon si me deepseek-chat-v3 ashtu edhe me deepseek-reasoner, ku ky i fundit shton gjurmë të qarta arsyetimi në përgjigje. Parametrat si temperature dhe top_p kontrollojnë shkallën e rastësisë së rezultatit, ndërsa max_tokens kufizon gjatësinë e gjenerimit.
- Modelet e bisedës mbështesin streaming përmes parametrit stream për përvojë në kohë reale.
- Modelet e kodit përfshijnë optimizime për Python, JavaScript, Java, C++ dhe Go.
- Lista e modeleve të embeddings kthen vektorë 1024-dimensionalë për operacione semantike.
- Modeli vision pranon URL imazhesh ose të dhëna base64 së bashku me tekstin.
Modelet variojnë nga 7B deri në 671B parametra, megjithëse këto detaje mbeten të fshehura për përdoruesit që zgjedhin sipas aftësive. DeepSeek Coder V2 shquhet veçanërisht në testet HumanEval me një saktësi prej 88.4%, ndërsa DeepSeek V3 arrin 87.1% në MMLU për detyrat e njohurive të përgjithshme. Të gjitha modelet mbështesin modalitetin JSON për dalje të strukturuara në integrime të mjetit.
Modelet beta si deepseek-vision-preview mund të shfaqin latencë më të lartë gjatë trajnimit të vazhdueshëm. Endpoint-i i listës së modeleve në /v1/models kthen disponueshmërinë aktuale dhe statusin e vjetrimit në mënyrë programatike. Modelet e trashëguara si deepseek-chat-v2 do të mbeten aktive deri në mars 2026 për të garantuar pajtueshmërinë, megjithatë integrimet e reja duhet të synojnë V3 për performancë maksimale.
Rastet e përdorimit dhe shembujt

Skenarët praktikë të integrimit të API përfshijnë chatbot-et për klientët, proceset e gjenerimit të përmbajtjes, mjetet e zhvillimit dhe rrjedhat analitike të punës. Pajtueshmëria e API me OpenAI lejon zëvendësimin e menjëhershëm të integrimeve ekzistuese të LLM, ndërsa dritaret e zgjeruara të kontekstit mundësojnë aplikacione të reja. Vendosjet në produksion zakonisht shfrytëzojnë streaming për përgjigje të shpejtë dhe thirrjen e funksioneve për akses në të dhëna të jashtme.
Zhvillimi i chatbot-eve është modeli më i zakonshëm i integrimit, ku bizneset përfshijnë AI-n bisedore në platformat e mbështetjes dhe aplikacionet mobile. Dritarja prej 128K tokeneve akomodon dokumentacionin e plotë të mbështetjes ose historikun e bisedave pa pasur nevojë për shkurtim. Thirrja e funksioneve mundëson kërkime të të dhënave në kohë reale, duke lejuar bot-et të kontrollojnë inventarin ose llogaritë e përdoruesve gjatë bisedës.
- Automatizimi i gjenerimit të përmbajtjes për marketing, postime në blog dhe përshkrime produktesh.
- Asistentët e kodimit që integrojnë DeepSeek Coder V2 në IDE për autocompletion dhe zgjidhje gabimesh.
- Analiza e të dhënave ku API proceson raporte financiare ose dokumente ligjore med nxjerrje të strukturuar.
- Implementimet e RAG që kombinojnë Embeddings për kërkimin me modelet chat për gjenerim të saktë.


