DeepSeek API: Teljes Útmutató az AI Integrációhoz
Fedezze fel a költséghatékony és nagy teljesítményű DeepSeek nyelvi modelleket fejlesztői projektjeihez.
Kezdje el most

Az API-hozzáférés beállítása a DeepSeek platformon történő fejlesztői fiók létrehozásával és az első API kulcs generálásával kezdődik a hitelesítő adatok menüpontban. A gyorsindítási folyamat három alapvető lépésből áll: a hitelesítés konfigurálásából, az SDK telepítéséből og az első lekérdezés végrehajtásából. A legtöbb fejlesztő 15 percen belül sikeresen teszteli az első kérést a biztosított kódsablonok segítségével.
A hitelesítés bearer token formátumot használ, ahol a kulcsok "sk-" előtaggal rendelkeznek. Minden API végpont alap URL-je a https://api.deepseek.com/v1, követve a RESTful konvenciókat. A kötelező fejlécek közé tartozik az Authorization a saját API kulccsal, valamint a Content-Type application/json értékkel. A sebességkorlátozás kulcsonként, nem pedig fiókonként érvényes, ami lehetővé teszi a csapatok számára a kvóták elosztását a projektek között.
A Python SDK telepítéséhez használja a pip csomagkezelőt a hivatalos kliens könyvtár hozzáadásához. Az alábbi kód egy teljes első kérést mutat be a chat completion végponton keresztül, a DeepSeek V3 modell használatával:
pip install deepseek-sdk
from deepseek import DeepSeek
client = DeepSeek(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="deepseek-chat-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
A curl parancsot preferáló fejlesztők számára az ekvivalens HTTP hívás explicit fejléc-konfigurációt igényel. Ez a megközelítés ideális SDK függőségek nélküli teszteléshez:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key-here" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat-v3",
"messages": [{"role": "user", "content": "Hello, API!"}],
"max_tokens": 100
}'
Az API JSON válaszokat ad vissza, amelyek tartalmazzák a generált szöveget, a tokenhasználati statisztikákat és a kérés metaadatait. A sikeres válaszok egy choices tömböt tartalmaznak a modell kimenetével, míg a hibák szabványos kódokat küldenek a hibakereséshez. A tokenszámok a usage objektumban jelennek meg, követve a prompt_tokens, completion_tokens és total_tokens értékeket a számlázási pontosság érdekében.
A dokumentációban található gyorsindítási útmutatók további nyelveket is lefednek, beleértve a Node.js és Go környezeteket, keretrendszer-specifikus példákkal az Express, Flask és FastAPI integrációkhoz. Az aszinkron feldolgozáshoz szükséges webhook konfigurációk a kezdeti beállítás során végpont-ellenőrzést igényelnek.

A gyakorlati API integrációs forgatókönyvek az ügyféloldali chatbotoktól a tartalomgeneráló folyamatokon át a fejlesztői eszközökig terjednek. Az API OpenAI-kompatibilitása lehetővé teszi a meglévő LLM integrációk azonnali kiváltását, míg a DeepSeek-specifikus funkciók új alkalmazások előtt nyitják meg az utat. Az éles rendszerek gyakran használnak streaminget a reszponzivitásért és function callingot a külső adatok eléréséhez.
A chatbot-fejlesztés a leggyakoribb integrációs minta, ahol a vállalkozások támogatási platformokba vagy mobilalkalmazásokba ágyazzák be az AI-t. A 128K tokenes kontextusablak lehetővé teszi teljes dokumentációk vagy hosszú beszélgetési előzmények kezelését darabolás nélkül. A function calling révén a botok valós időben kérdezhetnek le adatbázisokat vagy ellenőrizhetik a készletet a beszélgetés közben.
Egy tipikus RAG integráció az embedding végpontot használja a tudásbázis vektorizálására, majd a releváns részeket beilleszti a chat completion promptba. Ez az architektúra csökkenti a hallucinációt, miközben fenntartja a folyamatos társalgást. A JSON mód biztosítja a strukturált kimenetet az automatizált munkafolyamatokhoz, ahol a válaszok programozott feldolgozása elengedhetetlen.
A streaming válaszok kritikusak a felhasználói felületeknél, ahol az észlelt válaszidő meghatározza az élményt. Az API tokenenként küldi az adatokat, így a felület azonnal megjelenítheti a szöveget a generálás során. A function calling definíciók JSON sémákkal határozzák meg az elérhető eszközöket, lehetővé téve a modell számára, hogy eldöntse, mikor van szükség külső műveletre és megfelelően formázza a kérést.
Az árazás token-alapú: a DeepSeek V3 input díja 0,27 USD/1M token, az output pedig 1,10 USD/1M token.
Igen, a DeepSeek OpenAI-kompatibilis végpontokat használ, így a váltás minimális kódmódosítást igényel.
Igen, az új fejlesztői fiókok 5 USD értékű ingyenes kreditet kapnak a teszteléshez.
Hivatalos SDK-k érhetők el Python, Node.js, Go és Java nyelvekhez, de bármilyen REST klienst használhat.
A zászlóshajó modellek (mint a V3) akár 128K token kontextust is képesek kezelni.
Igen, a valós idejű alkalmazásokhoz az API támogatja a streaming (tokenenkénti) válaszgenerálást.
Az API kulcsot a DeepSeek fejlesztői műszerfalán, a hitelesítő adatok (API Keys) menüpontban generálhatja.
A korlátok TPM (token per minute) alapon működnek, és a fiók szintjétől függően 90K-tól 200K-ig terjednek.
Igen, a DeepSeek Coder V2 kifejezetten kódgenerálási és hibakeresési feladatokra lett optimalizálva.
A 429-es hiba a sebességkorlát túllépését jelzi; ilyenkor várjon a Retry-After fejlécben megadott ideig.