Getting started with the API

La configuration commence par la création d'un compte développeur sur la plateforme DeepSeek et la génération d'une clé API unique. Le processus de démarrage rapide comprend trois étapes essentielles : la configuration de l'authentification, l'installation du SDK et l'exécution d'une première requête. La plupart des tests initiaux sont complétés en moins de 15 minutes grâce aux modèles de code fournis.
L'authentification utilise le format Bearer token avec des clés commençant par le préfixe sk. L'URL de base pour tous les points de terminaison est https://api.deepseek.com/v1, respectant les conventions RESTful. Les en-têtes obligatoires incluent Authorization pour votre clé et Content-Type pour le format JSON. La limitation du débit s'applique par clé, ce qui permet aux équipes de répartir les quotas entre différents projets.
Pour l'installation du SDK Python, utilisez le gestionnaire de paquets pip afin d'ajouter la bibliothèque client officielle. Le bloc suivant montre une infrastructure de requête complète utilisant le point de terminaison de chat avec le modèle DeepSeek V3 :
pip install deepseek-sdk
from deepseek import DeepSeek
client = DeepSeek(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="deepseek-chat-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
max_tokens=500,
temperature=0.7
)
print(response.choices[0].message.content)
L'API renvoie des réponses JSON incluant le texte généré, les statistiques d'utilisation des tokens et les métadonnées de la requête. Les réponses réussies contiennent un tableau de choix avec la sortie du modèle, tandis que les erreurs renvoient des codes standardisés pour le débogage. Le suivi des tokens apparaît dans l'objet usage, distinguant prompt_tokens, completion_tokens et total_tokens.
- Récupération sécurisée de la clé API via l'onglet sécurité du tableau de bord.
- Installation du SDK Python ou utilisation de requêtes HTTP directes.
- Test de connectivité avec une complétion simple avant l'intégration en production.
- Surveillance des en-têtes de réponse pour vérifier l'état des limites de débit.
Available models and terminal endpoints

L'API DeepSeek propose cinq modèles de production optimisés pour des tâches allant de la conversation générale à la génération de code spécialisé. La sélection s'effectue via le paramètre model dans les requêtes, avec des identifiants suivant le format deepseek-capability-version.
| Model ID | Type | Context Window | Best Use Case |
|---|---|---|---|
| deepseek-chat-v3 | Chat Completion | 128K tokens | Conversational AI, reasoning, multilingual |
| deepseek-coder-v2 | Code Completion | 64K tokens | Debugging, generation, documentation |
| deepseek-reasoner | Chat Completion | 128K tokens | Complex problem-solving, chain-of-thought |
| deepseek-embed | Embeddings | 8K tokens | Semantic search, RAG, similarity |
| deepseek-vision-preview | Multimodal | 32K tokens + images | Image analysis, OCR, visual QA |
FAQ
L'API DeepSeek est-elle compatible avec OpenAI ?
Oui, elle utilise une structure REST compatible OpenAI, permettant d'utiliser les mêmes SDK avec des changements d'URL minimes.
Quelle est la fenêtre de contexte maximale ?
Les modèles phares comme DeepSeek V3 offrent une fenêtre de contexte allant jusqu'à 128K tokens.
Combien coûte l'API pour DeepSeek V3 ?
Le tarif est de 0,27 $ par million de tokens en entrée et 1,10 $ par million en sortie.
Quels langages de programmation sont supportés par les SDK ?
Des SDK officiels sont disponibles pour Python, Node.js, Go et Java.
Existe-t-il un essai gratuit ?
Oui, DeepSeek offre 5 $ de crédits gratuits aux nouveaux comptes, soit environ 4,5 millions de tokens.
Quels sont les modèles disponibles pour le code ?
DeepSeek Coder V2 est le modèle optimisé pour la génération et le débogage de code.
Le streaming est-il supporté ?
Oui, l'API supporte les réponses en streaming via SSE pour une expérience utilisateur en temps réel.
Quelles sont les limites de débit ?
Elles commencent à 500K tokens par jour et peuvent monter jusqu'à 50M pour les entreprises.
Comment s'effectue l'authentification ?
L'authentification utilise un jeton porteur (Bearer token) généré depuis votre tableau de bord.
L'API supporte-t-elle l'analyse d'images ?
Oui, via le modèle multimodal deepseek-vision-preview.



