Deepseek Chat App Try Now

DeepSeek API Full Integration Guide

Exploitez la puissance des modèles V3 et Coder V2 avec une intégration transparente et économique.

Commencer maintenant

DeepSeek API Overview

DeepSeek API Overview

L'interface de programmation DeepSeek offre un accès programmatique à une suite de modèles de langage étendus via une architecture REST conçue pour les développeurs et les entreprises. Cette solution privilégie une intégration rentable de l'intelligence artificielle tout en supportant diverses variantes de modèles optimisées pour des charges de travail spécifiques. Le service maintient une compatibilité totale avec les points de terminaison OpenAI, ce qui permet de migrer d'un fournisseur à un autre avec des modifications de code minimales.

L'accès à l'API nécessite une authentification par jeton porteur généré depuis le tableau de bord développeur. Des SDK officiels sont disponibles pour Python, Node.js, Go et Java, bien que n'importe quel client HTTP puisse interagir avec les points de terminaison REST. La plateforme cible aussi bien les développeurs indépendants créant des prototypes que les entreprises nécessitant une tarification prévisible pour des volumes d'inférence élevés.

Fonctionnalité Spécification
Modèles disponibles DeepSeek V3, DeepSeek Coder V2, DeepSeek Chat
Limites de débit Niveau gratuit de 500K tokens par jour, jusqu'à 50M en payant
Méthode d'authentification Jeton porteur (API key)
SDK officiels Python, Node.js, Go, Java
Langues supportées Multilingue (plus de 70 langues, optimisé EN/ZH)

Les capacités techniques incluent les réponses en streaming pour les applications en temps réel, l'appel de fonctions pour l'intégration d'outils et le mode JSON pour les sorties structurées. L'API gère des fenêtres de contexte allant jusqu'à 128K tokens sur les modèles phares, permettant l'analyse de documents longs sans découpage. Toutes les requêtes sont routées via des points de terminaison CDN mondiaux avec une latence moyenne inférieure à 200 ms.

  • Structure API REST compatible OpenAI pour faciliter la migration.
  • Support natif pour les complétions de chat, les embeddings et la génération de code.
  • Équilibrage de charge automatique sur plusieurs clusters d'inférence.
  • Analyses détaillées de l'usage et suivi précis de la consommation de tokens.

La documentation technique inclut des exemples interactifs et des configurations de webhook pour le traitement asynchrone. Une intégration de base nécessite environ 30 minutes, bénéficiant d'une gestion complète des erreurs et d'une logique de répétition intégrée aux SDK officiels.

Getting started with the API

Getting started with the API

La configuration commence par la création d'un compte développeur sur la plateforme DeepSeek et la génération d'une clé API unique. Le processus de démarrage rapide comprend trois étapes essentielles : la configuration de l'authentification, l'installation du SDK et l'exécution d'une première requête. La plupart des tests initiaux sont complétés en moins de 15 minutes grâce aux modèles de code fournis.

L'authentification utilise le format Bearer token avec des clés commençant par le préfixe sk. L'URL de base pour tous les points de terminaison est https://api.deepseek.com/v1, respectant les conventions RESTful. Les en-têtes obligatoires incluent Authorization pour votre clé et Content-Type pour le format JSON. La limitation du débit s'applique par clé, ce qui permet aux équipes de répartir les quotas entre différents projets.

Pour l'installation du SDK Python, utilisez le gestionnaire de paquets pip afin d'ajouter la bibliothèque client officielle. Le bloc suivant montre une infrastructure de requête complète utilisant le point de terminaison de chat avec le modèle DeepSeek V3 :

pip install deepseek-sdk
from deepseek import DeepSeek

client = DeepSeek(api_key="sk-your-api-key-here")

response = client.chat.completions.create(
    model="deepseek-chat-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    max_tokens=500,
    temperature=0.7
)

print(response.choices[0].message.content)

L'API renvoie des réponses JSON incluant le texte généré, les statistiques d'utilisation des tokens et les métadonnées de la requête. Les réponses réussies contiennent un tableau de choix avec la sortie du modèle, tandis que les erreurs renvoient des codes standardisés pour le débogage. Le suivi des tokens apparaît dans l'objet usage, distinguant prompt_tokens, completion_tokens et total_tokens.

  • Récupération sécurisée de la clé API via l'onglet sécurité du tableau de bord.
  • Installation du SDK Python ou utilisation de requêtes HTTP directes.
  • Test de connectivité avec une complétion simple avant l'intégration en production.
  • Surveillance des en-têtes de réponse pour vérifier l'état des limites de débit.

API pricing and rate limits

API pricing and rate limits

En 2026, la tarification de l'API DeepSeek repose sur un modèle basé sur les tokens avec une facturation distincte pour l'entrée et la sortie. Le modèle phare DeepSeek V3 coûte 0,27 $ par million de tokens en entrée et 1,10 $ par million en sortie. Un crédit gratuit de 5 $ est offert aux nouveaux comptes, permettant de traiter environ 4,5 millions de tokens en entrée sur le modèle standard.

Model Input (per 1M tokens) Output (per 1M tokens) Context Window Rate Limit (tokens/min)
DeepSeek V3 $0.27 $1.10 128K 90,000
DeepSeek Chat $0.14 $0.28 64K 150,000
DeepSeek Coder V2 $0.14 $0.28 64K 120,000
DeepSeek Embeddings $0.002 N/A 8K 200,000

La facturation fonctionne via un système de crédits prépayés avec des déductions automatiques par requête effectuée. Le tableau de bord affiche la consommation en temps réel par modèle et par projet avec des alertes de dépenses configurables. Les crédits non utilisés n'expirent pas et des remises sur volume s'appliquent automatiquement au-delà de 1 000 $ de consommation mensuelle.

Available models and terminal endpoints

Available models and terminal endpoints

L'API DeepSeek propose cinq modèles de production optimisés pour des tâches allant de la conversation générale à la génération de code spécialisé. La sélection s'effectue via le paramètre model dans les requêtes, avec des identifiants suivant le format deepseek-capability-version.

Model ID Type Context Window Best Use Case
deepseek-chat-v3 Chat Completion 128K tokens Conversational AI, reasoning, multilingual
deepseek-coder-v2 Code Completion 64K tokens Debugging, generation, documentation
deepseek-reasoner Chat Completion 128K tokens Complex problem-solving, chain-of-thought
deepseek-embed Embeddings 8K tokens Semantic search, RAG, similarity
deepseek-vision-preview Multimodal 32K tokens + images Image analysis, OCR, visual QA

Integration examples and use cases

Integration examples and use cases

Les scénarios d'intégration couvrent les chatbots clients, les pipelines de génération de contenu et les workflows analytiques. La compatibilité OpenAI facilite le remplacement direct d'autres LLM dans les infrastructures existantes. Les déploiements en production exploitent souvent le streaming pour la réactivité et l'appel de fonctions pour l'accès aux données externes.

  • Automatisation du contenu marketing pour les articles de blog et descriptions tiers.
  • Outils d'assistance au code intégrant le modèle Coder V2 dans les IDE.
  • Pipelines d'analyse de données traitant des rapports financiers ou juridiques complexes.
  • Implémentation de pipelines RAG combinant embeddings et complétions de discussion.

FAQ

L'API DeepSeek est-elle compatible avec OpenAI ?

Oui, elle utilise une structure REST compatible OpenAI, permettant d'utiliser les mêmes SDK avec des changements d'URL minimes.

Quelle est la fenêtre de contexte maximale ?

Les modèles phares comme DeepSeek V3 offrent une fenêtre de contexte allant jusqu'à 128K tokens.

Combien coûte l'API pour DeepSeek V3 ?

Le tarif est de 0,27 $ par million de tokens en entrée et 1,10 $ par million en sortie.

Quels langages de programmation sont supportés par les SDK ?

Des SDK officiels sont disponibles pour Python, Node.js, Go et Java.

Existe-t-il un essai gratuit ?

Oui, DeepSeek offre 5 $ de crédits gratuits aux nouveaux comptes, soit environ 4,5 millions de tokens.

Quels sont les modèles disponibles pour le code ?

DeepSeek Coder V2 est le modèle optimisé pour la génération et le débogage de code.

Le streaming est-il supporté ?

Oui, l'API supporte les réponses en streaming via SSE pour une expérience utilisateur en temps réel.

Quelles sont les limites de débit ?

Elles commencent à 500K tokens par jour et peuvent monter jusqu'à 50M pour les entreprises.

Comment s'effectue l'authentification ?

L'authentification utilise un jeton porteur (Bearer token) généré depuis votre tableau de bord.

L'API supporte-t-elle l'analyse d'images ?

Oui, via le modèle multimodal deepseek-vision-preview.