Darba sākšana ar API

API piekļuves iestatīšana sākas ar izstrādātāja konta izveidi DeepSeek platformā un pirmās API atslēgas ģenerēšanu drošības sadaļā. Ātrās palaišanas process ietver trīs posmus: autentifikācijas konfigurēšanu, SDK instalēšanu un pirmā pieprasījuma izpildi. Lielākā daļa izstrādātāju pabeidz pirmā pieprasījuma testēšanu 15 minūšu laikā, izmantojot sagatavotos koda paraugus.
Autentifikācijai izmanto bearer žetona formātu ar atslēgām, kurām ir prefikss sk-. Visu API galapunktu bāzes URL ir https://api.deepseek.com/v1, ievērojot RESTful konvencijas. Pieprasījuma galvenēs obligāti jāiekļauj Authorization ar jūsu API atslēgu un Content-Type kā application/json.
Python SDK instalēšanai izmantojiet pip, lai pievienotu oficiālo klienta bibliotēku. Šis kods demonstrē pilnu darba plūsmu, izmantojot tērzēšanas pabeigšanas galapunktu ar DeepSeek V3 modeli:
pip install deepseek-sdk
from deepseek import DeepSeek
client = DeepSeek(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="deepseek-chat-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
Izstrādātājiem, kuri dod priekšroku curl pieprasījumiem, ekvivalents HTTP izsaukums prasa precīzu galveņu konfigurāciju. Šī pieeja ir piemērota testēšanai vidēs, kurās nav iespējams instalēt SDK atkarības:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key-here" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat-v3",
"messages": [{"role": "user", "content": "Hello, API!"}],
"max_tokens": 100
}'
API atgriež JSON atbildes, kas satur ģenerēto tekstu, tokenu lietošanas statistiku un pieprasījuma metadatus. Veiksmīgas atbildes ietver choices masīvu ar modeļa izvadi, savukārt kļūdas atgriež standartizētus kodus atkļūdošanai. Tokenu skaitītāji parādās usage objektā, izsekojot prompt_tokens un completion_tokens precīzai rēķinu sagatavošanai.
- Iegūstiet savu API atslēgu no izstrādātāja paneļa drošības cilnes.
- Instalējiet Python SDK vai izmantojiet tiešus HTTP pieprasījumus elastībai.
- Pārbaudiet savienojumu ar vienkāršu tērzēšanas pieprasījumu pirms produkcijas integrācijas.
- Pārraugiet atbildes galvenes, lai uzzinātu ātruma ierobežojuma statusu un kvotu.
Ātrās palaišanas rokasgrāmatas aptver arī Node.js un Go valodas ar specifiskiem piemēriem Express un FastAPI karkasiem. Webhook konfigurācijas asinhronai datu apstrādei prasa galapunkta verifikāciju sākotnējās iestatīšanas laikā.
Lietošanas gadījumi un piemēri

Praktiskie API integrācijas scenāriji ietver klientu tērzēšanas robotus, satura ģenerēšanas cauruļvadus un izstrādes rīkus. API saderība ar OpenAI ļauj vienkārši aizstāt esošās integrācijas, savukārt DeepSeek specifiskās funkcijas paver jaunas iespējas. Ražošanas vidēs parasti izmanto straumēšanu atsaucīgai saskarnei un funkciju izsaukšanu piekļuvei ārējiem datiem.
Tērzēšanas robotu izstrāde ir visizplatītākais modelis, uzņēmumiem ievietojot AI atbalsta platformās un mobilajās lietotnēs. 128K tokenu konteksta logs ļauj apstrādāt visu atbalsta dokumentāciju vai garas sarunu vēstures bez informācijas zaudēšanas. Funkciju izsaukšana nodrošina reāllaika datu meklēšanu, ļaujot robotiem pārbaudīt krājumus vai lietotāju kontu statusu sarunas laikā.
- Satura ģenerēšanas automatizēšana mārketinga tekstiem un produktu aprakstiem.
- Koda asistentu integrēšana IDE vidēs automātiskai papildināšanai un kļūdu noteikšanai.
- Datu analīzes sistēmu izveide pētījumu un finanšu ziņojumu strukturētai apstrādei.
- RAG cauruļvadu ieviešana, apvienojot iegulšanas modeļus ar tērzēšanas modeļiem.
Tipiska RAG integrācija izmanto iegulšanas galapunkto, lai vektorizētu zināšanu bāzes dokumentus un uzglabātu tos vektoru datubāzēs. Pēc tam sistēma izgūst atbilstošos fragmentus un ievieto tos tērzēšanas pieprasījumos konteksta nodrošināšanai. Šāda arhitektūra samazina modeļa halucinācijas, saglabājot dabisku sarunas stilu un augstu faktu precizitāti.
Straumēšanas atbildes ir būtiskas lietotājiem paredzētās lietotnēs, kur latentums tieši ietekmē pieredzi. API pakāpeniski piegādā tokenus, ļaujot saskarnei parādīt tekstu tā ģenerēšanas laikā, negaidot pilnu atbildi. Šīs iespējas kopā veido sarežģītus aģentus, kas spēj veikt vairāku posmu uzdevumus ar ārējo sistēmu integrāciju.



