Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

Qu'est-ce que DeepSeek ? Présentation détaillée de ce modèle LLM open source révolutionnaire

Publié le 30 avril 2025

DeepSeek s'est rapidement imposé comme l'un des noms les plus mentionnés dans le domaine de l'IA (intelligence artificielle)

Mais en quoi consiste cet outil et quel est son fonctionnement ? Pourquoi suscite-t-il déjà des inquiétudes en matière de protection de la vie privée ? Est-il pertinent de le comparer directement à OpenAI et Google ? Et fait-il l'objet d'interdictions gouvernementales ? Ce guide explique tout ce que vous devez savoir sur DeepSeek : ses modèles d'IA, ses différentes applications, ainsi que la manière dont des entreprises comme Tenable peuvent vous aider à répondre aux risques qu'il présente.

Qu'est-ce que l'IA DeepSeek ?

Fondée en 2023 par Liang Wenfeng, DeepSeek est une société chinoise d'IA qui développe de grands modèles de langage (LLM) très performants. Ses développeurs voulaient proposer une alternative open source aux modèles des géants américains de la technologie tels qu'OpenAI, Meta et Anthropic.

En janvier 2025, DeepSeek s'est fait connaître auprès du public international après avoir publié deux modèles de LLM open source, DeepSeek V3 et DeepSeek R1, capables de rivaliser avec les plus grands LLM propriétaires au monde.

Les modèles d'IA de DeepSeek

DeepSeek V3

DeepSeek V3 utilise une architecture « MoE » (mixture-of-experts, ou mélange d'experts en français), qui ne charge que les « experts » nécessaires pour répondre aux requêtes des utilisateurs. Il intègre également la technique « MLA » (multi-head latent attention, ou attention latente multi-têtes), qui optimise l'utilisation de la mémoire afin d'accélérer l'inférence et l'entraînement.

DeepSeek R1

DeepSeek R1 s'appuie sur le modèle V3 avec la MTP (multitoken prediction, ou prédiction multitoken), qui lui permet de générer plus d'un token à la fois. Il utilise également une méthode de raisonnement CoT (par chaîne de pensée) qui rend son processus décisionnel plus transparent pour les utilisateurs.

*Les deux modèles sont disponibles en différentes tailles, allant de 1,5 milliard à 671 milliards de paramètres. Ils peuvent ainsi être déployés sur de nombreux appareils, des ordinateurs portables personnels aux clusters GPU d'entreprise.

Comparaison avec les concurrents

Les résultats de l'analyse comparative montrent que DeepSeek R1 réalise des performances équivalentes ou proches de celles de o1 d'OpenAI et de Llama 3 de Meta, et cela avec une infrastructure d'entraînement nettement moins importante. 

Contrairement aux modèles avancés d'OpenAI, les modèles entièrement open source de DeepSeek ont suscité l'intérêt des développeurs et entraîné plusieurs expérimentations de la part de la communauté.

FonctionnalitéDeepSeek R1OpenAI o1Meta Llama 3

Open source

 

✅ Oui

 

❌ Non

 

✅ Oui (limité)

 

Raisonnement CoT

 

✅ Verbose

 

✅ Léger

 

✅ Pris en charge dans une certaine mesure

 

Prédiction multitoken

 

✅ Oui

 

❌ Non

 

✅ Partielle

 

Confidentialité des données

 

⚠️ Faible

 

✅ Forte

 

✅ Forte

 

Résistance au jailbreak de l'IA

 

❌ Facilement contournable

 

✅ Renforcée

 

✅ Modérée

 

Censure et biais✅ Oui❌ Non❌ Non

Applications et cas d'utilisation

Les développeurs utilisent DeepSeek à des fins très diverses, notamment :

  • Chatbots de service client multilingues
  • Synthèse de documents
  • Génération de codes en langage naturel
  • Soutien scolaire et entraînement à des examens
  • Prototypage rapide d'outils d'IA

Cependant, sa nature open source et ses faibles garde-fous en font un outil vulnérable aux activités malveillantes telles que la génération de malwares, l'enregistrement de frappe ou l'expérimentation de ransomwares.

Comment accéder à DeepSeek

Tout le monde peut télécharger et exécuter DeepSeek localement à partir de référentiels publics. Le modèle R1 complet (671 milliards de paramètres) nécessite des clusters GPU d'entreprise, mais les modèles distillés (1,5 à 70 milliards de paramètres) peuvent s'exécuter sur du matériel accessible au public.

DeepSeek est également accessible via :

  • Interface web
  • Les applications mobiles sur iOS et Android
  • Les intégrations API (en cours de développement)

Impact sur le secteur de l'IA

Avec DeepSeek, c'est un nouveau chapitre de l'IA qui s'ouvre avec la promesse de meilleures performances, d'un modèle open source et accessible à tous, mais également d'une surveillance renforcée par les autorités de réglementation. 

Si sa technologie offre des capacités impressionnantes, sa conception permissive soulève des inquiétudes sur les sujets suivants :

  • Vie privée et surveillance
  • Garde-fous de sécurité
  • Filtrage du contenu et biais
  • Utilisation par des acteurs mal intentionnés ou affiliés à un État

Certains États ont déjà réagi en adoptant des réglementations relatives à l'IA. Depuis février 2025, DeepSeek est interdit, ou à l'étude :

Quel avenir pour DeepSeek ?

La feuille de route de DeepSeek comprend les éléments suivants :

  • Le développement de son écosystème de développeurs
  • Le perfectionnement des capacités de raisonnement par chaîne de pensée (CoT)
  • Une meilleure résistance au jailbreak
  • Le lancement de services cloud payants avec des API premium

Mais en raison de la surveillance croissante de DeepSeek par certaines agences gouvernementales et des chercheurs en sécurité du secteur privé, la société peut faire évoluer cette feuille de route afin de trouver le juste milieu entre ouverture et développement responsable de l'IA.

Problèmes de sécurité et risques liés à DeepSeek

Tenable Research a identifié quatre domaines majeurs de préoccupation associés à l'utilisation de DeepSeek :

  • Confidentialité des données : les données des utilisateurs sont stockées sur des serveurs en Chine et ne sont pas protégées ni par le RGPD, ni par d'autres réglementations similaires.
  • Suivi par des tiers : le système d'analyse web de DeepSeek est provisionné par Baidu, et la société partagerait des données de réseaux et d'appareils avec ByteDance.
  • Failles de sécurité: la faiblesse des garde-fous rend le modèle vulnérable aux jailbreaks et aux mauvaises utilisations.
  • Censure et biais : les tests révèlent un taux élevé de censure et de biais systémique.

Quel est l'impact de DeepSeek sur mon entreprise ?

« Dois-je m'inquiéter de l'utilisation de DeepSeek au travail ? » Voilà une question qui n'a pas manqué de jaillir dans l'esprit de nombreux professionnels de la sécurité après que DeepSeek ait fait les gros titres de l'actualité.

Comme bien souvent avec ce type d'innovation, l'essor de l'IA DeepSeek présente à la fois des opportunités et des risques pour votre entreprise. Si la nature open source des modèles de DeepSeek peut accélérer l'expérimentation et l'innovation, elle est également synonyme de préoccupations en matière de sécurité, de conformité et de respect de la vie privée.

Principaux risques à surveiller

  • Utilisation du Shadow AI : les employés peuvent utiliser les applications de chat DeepSeek, des extensions de navigateur ou des modèles hébergés localement sans l'approbation de l'équipe IT, ce qui crée des angles morts en matière de traitement des données et d'utilisation acceptable.
  • Exfiltration des données : les applications mobiles et web de DeepSeek collectent les données sur les requêtes et le comportement des utilisateurs, qui sont transmises à des serveurs étrangers et en dehors de la plupart des cadres réglementaires occidentaux.
  • Faiblesse des garde-fous : la résistance de DeepSeek au jailbreak est minime, ce qui facilite la production de résultats interdits ou malveillants. Les entreprises qui feraient un mauvais usage interne de DeepSeek prennent le risque de ternir leur réputation ou de s'exposer à des poursuites judiciaires.
  • Mauvais alignement des politiques : sans visibilité, vous risquez de ne pas pouvoir appliquer les politiques d'utilisation acceptable, les directives de contrôle d'exportation de données ou les règles de gouvernance interne relatives à l'utilisation des LLM.

Quelles mesures puis-je prendre pour réduire le risque lié à DeepSeek ?

  • Surveillez l'activité de DeepSeek à l'aide des plug-ins de détection AI Aware de Tenable.
  • Mettez à jour vos politiques d'utilisation des LLM afin de prendre explicitement en charge les modèles open source et les outils d'IA non autorisés.
  • Sensibilisez les utilisateurs aux risques liés à l'utilisation de modèles et d'outils non approuvés, en particulier si ces utilisateurs manipulent des données réglementées ou sensibles.
  • Déployez des contrôles de détection et de réponse qui s'étendent au-delà des assets cloud pour inclure l'utilisation de modèles d'IA, les extensions de navigateur et les interactions avec les endpoints.

DeepSeek représente un changement de paradigme dans le développement et la distribution des modèles d'IA. Les entreprises qui adoptent une attitude proactive, en évaluant l'exposition et en appliquant des politiques, sont les mieux placées pour bénéficier des outils émergents tout en restant sécurisées et conformes.

Ce qu'apporte Tenable

AI Aware pour la détection de DeepSeek

La solution AI Aware de Tenable peut vous aider à trouver et à surveiller l'utilisation non autorisée d'outils tels que DeepSeek dans votre environnement.

AI Aware comprend des plug-ins personnalisés pour :

  • Détecter les fichiers exécutables et les plug-ins de navigateur connus de DeepSeek
  • Identifier les API ou les variantes de modèles DeepSeek en cours d'utilisation
  • Surveiller les communications réseau avec l'infrastructure DeepSeek
  • Les plug-ins actifs sont notamment les suivants :

Ces détections font partie de Tenable Vulnerability Management et de Tenable Enclave Security, permettant aux équipes de sécurité d'appliquer des politiques aux risques émergents liés à l'IA.

En savoir plus sur AI Aware.

FAQ sur DeepSeek

Qu'est-ce que DeepSeek ?

DeepSeek est une société chinoise de grands modèles de langage (LLM) open source fondée en 2023. Elle a publié DeepSeek V3 et R1 en 2025.

L'utilisation de DeepSeek est-elle sans risque ?

DeepSeek est associé à plusieurs risques en matière de vie privée, en particulier si les données sont hébergées sur des serveurs chinois. Il est préférable d'exécuter localement DeepSeek plutôt que d'utiliser son site web ou ses applications mobiles pour assurer davantage la sécurité de vos données. 

Quelle est la particularité de DeepSeek R1 ?

R1 utilise un système unique de raisonnement par chaîne de pensée et de prédiction multitoken, ses performances sont comparables à celles des meilleurs modèles comme OpenAI o1, tout en restant open source.

L'utilisation de DeepSeek a-t-elle déjà été interdite dans certains pays ?

Oui. Des agences gouvernementales américaines et plusieurs pays ont interdit ou restreint l'utilisation de DeepSeek pour des raisons de protection de la vie privée et de sécurité.

Comment Tenable détecte-t-il DeepSeek ?

Tenable utilise des plug-ins AI Aware pour surveiller l'utilisation de DeepSeek, identifier les vulnérabilités et s'aligner sur la politique de sécurité de l'entreprise.

La technologie de DeepSeek constitue une avancée majeure dans le domaine de l'IA open source, mais son utilisation n'est pas sans risque. Ses modèles rivalisent en effet avec les meilleures offres américaines. Cependant, ils suscitent de vives préoccupations en matière de respect de la vie privée, de biais et de sécurité. Tenable peut aider votre entreprise à faire face à ces risques grâce à une détection proactive, à l'application de politiques et à des tests en conditions réelles du comportement des LLM, afin d'aider votre équipe à innover en toute sécurité.

Vous voulez en savoir plus sur DeepSeek ? Consultez l'article « Frequently asked questions about DeepSeek large language model (LLM) ».

Ressources sur l'IA DeepSeek

Des actualités utiles sur la cyber-sécurité

Saisissez votre adresse e-mail et ne manquez plus aucune alerte ni aucun conseil en matière de sécurité de la part de nos experts Tenable.