Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

Sécurité pour l'IA et IA pour la sécurité

Publié le 1er août 2025

Le guide complet de la gestion du risque et de la gouvernance de l'IA

Dans le cadre de la cyber-défense moderne, l'IA pour la sécurité et la sécurité pour l'IA sont des termes distincts avec des définitions spécifiques. L'IA pour la sécurité utilise des modèles d'apprentissage automatique (machine learning, ML) et d'apprentissage profond (deep learning, DL) pour améliorer les technologies de sécurité, y compris la sécurité des réseaux, des endpoints, des e-mails et bien plus, afin d'accélérer les cyber-résultats et d'augmenter les cyber-compétences de façon à renforcer votre posture de sécurité globale. La sécurité pour l'IA comprend des solutions conçues pour sécuriser et gouverner l'IA afin de réduire le risque associé à l'utilisation acceptable de l'IA et au cycle de développement et de production des modèles d'IA.

Principales différences entre la sécurité pour l'IA et l'IA pour la sécurité

L'IA pour la sécurité utilise l'intelligence artificielle afin de renforcer la cyber-défense. Il s'agit d'intégrer l'apprentissage automatique (ML), l'apprentissage profond (DL) et l'IA générative dans les technologies de sécurité afin d'accroître leur efficacité et leurs performances. 

Par exemple, une évaluation du risque basée sur le ML dans une solution de gestion des vulnérabilités permet de prioriser les vulnérabilités ayant le plus d'impact sur votre business. Une telle approche renforce votre posture de sécurité et facilite la mission de vos praticiens, qui n'ont plus qu'à gérer un nombre réduit d'expositions au lieu d'atténuer tous les cas de sévérité critique et élevée. 

L'IA générative a également contribué à l'essor des assistants de sécurité, qui ont permis de booster la productivité globale des équipes de sécurité IT et de faire monter en compétences les profils juniors. 

Elle rend les opérations de sécurité plus rapides et plus adaptatives tout en simplifiant le traitement des données à une échelle dépassant les capacités humaines.

La sécurité pour l'IA protège contre les expositions à l'IA d'entreprise et au Shadow AI. Lorsque vous créez vos propres modèles d'IA ou adoptez des outils tiers tels que ChatGPT et Gemini, vous élargissez votre surface d'attaque. La sécurité pour l'IA protège les modèles d'IA, les données d'entraînement et votre infrastructure sous-jacente contre une nouvelle catégorie de menaces, par exemple les attaques adverses, l'empoisonnement de données et le vol de modèles.

Comprendre la sécurité pour l'IA

La sécurisation des outils d'IA devient une priorité croissante à mesure que les équipes de votre entreprise les adoptent :

Outils de productivité :

  • ChatGPT
  • Gemini
  • Microsoft Copilot

Modèles d'IA open source comme :

  • Llama
  • Mistral
  • Bloom

Bibliothèques d'IA comme :

  • PyTorch
  • TensorFlow
  • Scikit-learn

Stockage de données comme :

  • Bucket S3 (AWS)
  • Stockage Azure Blob
  • Stockage Google Cloud

Grands modèles de langage (LLM) comme :

  • GPT-4
  • Claude 3
  • PaLM 2

Mais plus ces outils s'intègrent dans les processus de sécurité, de développement logiciel, de finance, de marketing et autres workflows de votre entreprise, plus ils l'exposent à de nouveaux risques.

La sécurité pour l'IA fait référence aux personnes, processus, politiques et outils dont vous avez besoin pour protéger l'infrastructure, les modèles d'utilisation et les productions de l'IA. 

Dans de nombreux environnements, cela commence par l'élaboration d'une politique d'utilisation sécurisée, éthique et appropriée de l'IA, ainsi que par l'identification du Shadow AI, c'est-à-dire des outils d'IA que votre entreprise n'a pas officiellement approuvés ou sécurisés.

Posez-vous les questions suivantes :

  • Nos développeurs insèrent-ils le code source dans des outils d'IA publics ?
  • Les utilisateurs professionnels téléchargent-ils des données sensibles sur ChatGPT ?

La sécurité pour l'IA commence par un inventaire exhaustif.

Posez-vous les questions suivantes :

  • Quels modèles utilisons-nous ?
  • Où sont-ils déployés ?
  • Qui peut y accéder ?

Ce que cela inclut :

  • IA autorisée
  • Utilisation d'IA non autorisée
  • Emplacement des données
  • Conservation des données
  • Politiques d'entraînement de modèles
  • Utilisation d'API entre différents LLM
  • IA dans les systèmes cloud
  • Gouvernance des modèles affinée

La sécurité pour l'IA est importante, que vous vous appuyiez sur des modèles open source, que vous utilisiez des outils d'IA tiers ou que vous exploitiez l'IA dans des applications internes. 

Une fois que vous savez où se trouvent les modèles, vous pouvez appliquer les contrôles suivants :

  • Accès basé sur le rôle
  • Classification et protection des données
  • Surveillance du comportement d'inférence
  • Application de politiques pour empêcher les accès non autorisés ou les fuites de données

Pour une infrastructure d'IA hébergée dans le cloud, vos contrôles doivent sécuriser les éléments suivants :

  • Pondération des modèles et données d'entraînement
  • Déploiements de l'Infrastructure as Code (IaC)
  • API qui exposent l'inférence de modèles
  • Services associés, par exemple des bases de données vectorielles

Cas d'utilisation de la sécurité pour l'IA

Sécurisez l'utilisation de l'IA et prévenez les fuites de données.

L'un des plus grands risques liés à l'IA est la manière dont les gens l'utilisent. 

Les employés qui rentrent des informations sensibles dans des outils d'IA sans garde-fous peuvent, sans le savoir, exposer des données propriétaires. 
 

Ce qui pourrait mal tourner
  • Les développeurs peuvent insérer du code source dans des outils d'IA publics.
  • Les équipes marketing peuvent télécharger des listes de clients.
  • Les utilisateurs professionnels peuvent partager des documents confidentiels avec un chatbot. 

Si une personne introduit ces données dans le modèle d'entraînement d'un tiers, même des actions bien intentionnées peuvent entraîner des violations de données confidentielles ou des fuites de propriété intellectuelle.
 

Comment réduire le risque
  • Fixez des règles claires.
    • Créez et appliquez des politiques d'utilisation acceptable qui définissent où, quand et quelles données vos employés peuvent utiliser dans les outils d'IA publics.
  • Découvrez comment l'IA est utilisée dans votre entreprise.
    • Commencez par identifier qui utilise quoi à l'aide d'outils de surveillance de l'IA. Cela inclut les plug-ins de navigateur, les applications et les services d'IA cloud, qu'ils soient approuvés ou non.
  • Empêchez la fuite de données sensibles.
    • Utilisez des politiques de prévention des pertes de données (DLP) adaptées aux interactions avec l'IA pour signaler le code source, les données personnelles (PII) ou les documents confidentiels internes avant d'autoriser un partage externe. Vous pouvez également utiliser des pare-feu pour bloquer l'accès aux adresses IP d'IA non approuvées. Cependant, il convient de rappeler que les employés pourront toujours trouver comment contourner un tel blocage, et que cette pratique vous contraint à courir sans arrêt après de nouveaux services. 
       

Verrouillez votre environnement de développement IA.

Le développement de l'IA utilise une pile complexe de services cloud, d'API, de données d'entraînement, de bases de données vectorielles et de plateformes d'opérations d'apprentissage automatique (MLOps). Chaque couche introduit une exposition potentielle. 

C'est là que AI-SPM joue un rôle clé.
 

Ce qui pourrait mal tourner
  • Une mauvaise configuration peut exposer les endpoints des modèles, les données d'entraînement ou les autorisations.
    • Un attaquant qui trouve une API ouverte ou un rôle IAM faible peut voler des pondérations de modèles, accéder à des données sensibles ou même manipuler le comportement de l'IA en production.
       
Comment sécuriser vos modèles et bibliothèques d'IA contre les vulnérabilités
  • Faites l'inventaire de votre écosystème IA.
    • Suivez tout, pas seulement les modèles, mais aussi les services tels que SageMaker, Bedrock, Azure AI, Vertex AI et les infrastructures à la base.
  • Recherchez les mauvaises configurations.
    • Identifiez les buckets publics, les rôles aux autorisations excessives ou les expositions d'API avant qu'ils ne créent un risque.
  • Contrôlez les accès.
    • Appliquez un contrôle d'accès basé sur le rôle strict et le principe du moindre privilège afin que seules les identités approuvées puissent accéder à vos ressources d'IA.
  • Sécurisez votre chaîne d'approvisionnement.
    • Utilisez des outils comme une nomenclature d'IA (AIBOM) pour surveiller les dépendances à des tiers et les risques liés aux modèles pré-entraînés.

Protégez les modèles d'IA en runtime.

Les modèles d'IA réagissent aux requêtes des utilisateurs, et les attaquants savent parfaitement comment exploiter cette faiblesse. Les défenses en runtime vous aident à repérer et à contrer les attaques avant qu'elles ne causent de réels dégâts.
 

Ce qui pourrait mal tourner
  • Empoisonnement des données, quand les attaquants altèrent les données d'entraînement pour introduire des vulnérabilités cachées.
  • Attaques par évasion, quand les attaquants entrent des requêtes destinées à tromper votre modèle et à l'amener à commettre des erreurs de classification ou de comportement.
  • Extraction de modèles, quand les schémas de requêtes permettent une rétro-ingénierie de la logique ou une fuite de données d'entraînement sensibles.
  • Injection de requêtes, quand des attaquants utilisent des requêtes malveillantes pour manipuler les LLM afin qu'ils génèrent des résultats nuisibles ou qu'ils révèlent des instructions cachées.
     
Comment se défendre
  • Renforcez votre résilience face aux attaquants. Utilisez des échantillons contradictoires lors de l'entraînement du modèle pour renforcer les défenses.
  • Filtrez et validez les requêtes. Vérifiez l'intégrité des requêtes avant qu'elles n'atteignent votre modèle afin de bloquer les attaques par injection.
  • Surveillez le comportement du modèle. Surveillez les anomalies de production, les pics de refus ou les comportements qui suggèrent une mauvaise utilisation.

Une stratégie complète de sécurité pour l'IA couvre les trois couches. Vous avez besoin de visibilité sur la manière dont les utilisateurs interagissent avec l'IA, de garde-fous pour l'infrastructure et les droits d'accès, et de défenses pour les modèles en production. Ces protections permettent à vos équipes d'innover sans ouvrir la voie à des risques évitables.

Qu'est-ce que l'IA pour la sécurité ?

Quels sont les avantages de l'IA pour les technologies de cyber-sécurité ?

L'IA pour la sécurité renforce les outils de sécurité de votre pile, afin que vous puissiez plus rapidement et plus précisément identifier, prioriser et bloquer les expositions et les menaces. 

L'IA analyse des volumes massifs de télémétrie en temps réel pour trouver des modèles, cartographier le risque et suggérer les meilleures actions pour éliminer les expositions et remédier aux menaces.

Analyse prédictive des menaces

Les modèles d'IA s'appuient sur les attaques passées et la threat intelligence pour prédire l'avenir, de façon à renforcer vos systèmes avant qu'un attaquant ne puisse s'introduire.

Par exemple, l'IA peut identifier les vulnérabilités les plus susceptibles d'être ciblées par les attaquants en fonction du comportement de ces derniers, de la disponibilité des exploits et de l'exposition des assets. 

Les solutions dotées d'outils de priorisation des vulnérabilités utilisent l'apprentissage automatique pour mettre en évidence les risques réels à partir de milliers de détections, le tout en s'affranchissant du bruit généré par les scores CVSS et en vous orientant vers les failles les plus critiques.

 

Comment l'IA soutient les opérations de sécurité proactive

Les plateformes d'IA combinent le contexte de plusieurs sources sur les anomalies comportementales, les menaces, les vulnérabilités et d'autres expositions, y compris les configurations cloud et les autorisations d'identités, pour signaler les assets à risque et leur importance.

Voici comment l'IA peut améliorer vos cyber-défenses :

Découvrez comment le score de risque de Tenable aide à rationaliser la priorisation des vulnérabilités avec plus de précision. 

Détection des menaces et des anomalies

L'IA établit une base de référence dynamique pour les éléments habituels de votre environnement. Cela comprend les connexions, les comportements de services, l'activité des API et les opérations des charges de travail cloud.

Un outil d'IA intégré à votre solution de cyber-sécurité peut automatiquement détecter des activités inhabituelles telles que des tentatives de connexion à partir d'emplacements suspects ou des conteneurs qui fouillent là où ils ne devraient pas.

Cette approche de détection d'anomalies ne reposant pas sur des signatures prédéfinies, elle est particulièrement efficace pour repérer les nouvelles menaces, les attaques Zero Day et les menaces internes que les outils traditionnels basés sur des signatures et des règles risquent de ne pas détecter.

Cartographie intelligente du chemin d'attaque

L'IA vous aide à avoir une vue d'ensemble. En traitant les données d'exposition de toute votre surface d'attaque en temps réel, elle permet de savoir quelles vulnérabilités, mauvaises configurations et autorisations excessives dans vos environnements cloud et sur site se combinent pour créer des chemins d'attaque à haut risque menant à vos assets les plus précieux.

Vous pouvez utiliser ces informations pour condamner en amont les chemins d'attaque, que ce soit en révoquant une autorisation, en remédiant à une mauvaise configuration ou en isolant un asset à risque.

Avec l'IA générative, tout le monde peut devenir un analyste

L'IA générative facilite la compréhension des données complexes. Elle peut résumer les chemins d'exposition, expliquer ce que fait une vulnérabilité et indiquer comment y remédier, le tout dans un langage simple.

Au lieu de fouiller dans des dashboards ou des bases de connaissances, vos analystes SOC et chargés de l'exposition peuvent poser des questions en langage naturel et obtenir immédiatement des réponses enrichies avec le contexte de votre environnement. Cela renforce l'efficacité et permet aux analystes de se concentrer sur des tâches à plus forte valeur ajoutée.

Génial et sans aucun danger n'est-ce pas ? Pas tout à fait. Si vous n'appliquez pas le même niveau de vérification et de contrôle d'accès à vos outils d'IA générative, vous risquez d'introduire de nouvelles expositions, et donc de compromettre vos données sensibles, vos modèles propriétaires et la confiance de vos utilisateurs.

L'IA pour la sécurité ne remplace pas la surveillance humaine. Elle décharge votre équipe des tâches manuelles et répétitives qui lui font perdre du temps et peuvent entraîner des surmenages.

Vous pouvez automatiser le tri des alertes, la corrélation et la synthèse des données afin que vos analystes SOC puissent se concentrer sur une meilleure compréhension des objectifs des attaquants, sur l'investigation des incidents et sur la mise en place de cyber-défenses plus matures. 

Combiner la vitesse et l'échelle de l'IA avec l'expertise humaine vous apporte un avantage considérable. 
 

Découvrez comment les fonctionnalités d'IA de Tenable peuvent vous aider à gérer les expositions introduites par les nouvelles attaques basées sur l'IA et à identifier les utilisations d'IA non autorisées dans votre environnement.

Comprendre les modèles d'IA dans le domaine de la cyber-sécurité

L'expression « sécurité optimisée par l'IA » est utilisée à tort et à travers. Mais lorsque l'on examine les plateformes de sécurité optimisées par l'IA les plus performantes du marché, on constate qu'elles ont toutes un point commun : la spécialisation.

  • Certains modèles excellent en matière de prédiction.
  • D'autres sont dédiés à la reconnaissance de schémas ou à l'interprétation du langage naturel. 

Plus une solution associe efficacement chaque modèle à un cas d'utilisation de sécurité, plus les résultats sont solides et fiables.

Voici quelques-uns des principaux types de modèles d'IA que vos équipes peuvent utiliser pour renforcer la sécurité et ce qu'ils font le mieux :

Apprentissage automatique (ML) supervisé pour la prédiction basée sur des schémas

  • Sa fonction : apprend à partir de données historiques étiquetées pour prédire les résultats ou classer les nouvelles requêtes.
  • Son rôle pour la sécurité : vous devez savoir quelles vulnérabilités présentent un risque réel. Les modèles de ML supervisé peuvent apprendre à partir de plusieurs milliards de points de données, des tendances d'exploitation passées, du comportement des attaquants et de la criticité des assets pour prévoir les nouvelles vulnérabilités les plus susceptibles d'être exploitées.
  • Son mode d'opération : les plateformes qui utilisent ce modèle peuvent attribuer un score de risque prédictif à chaque vulnérabilité sur la base de l'activité réelle des menaces. Il s'agit d'une alternative basée sur des données aux scores CVSS statiques, qui vous aidera à réduire la fatigue liée aux alertes.

Apprentissage profond (DL) pour détecter les menaces complexes

  • Sa fonction : les réseaux neuronaux, tels que les réseaux Long Short-Term Memory (LSTM) et les réseaux neuronaux convolutifs (CNN), analysent les schémas de trafic réseau, le comportement des utilisateurs et les journaux d'accès aux fichiers afin de découvrir des relations que les analystes humains mettraient autrement des heures à trouver.
  • Son rôle pour la sécurité : l'apprentissage profond (DL) est essentiel pour faire face aux menaces sophistiquées qui ne suivent pas les playbooks d'attaque habituels. Ces modèles détectent des éléments qui échappent totalement aux systèmes traditionnels basés sur des règles, en particulier lorsque les attaquants tentent de passer inaperçus ou utilisent de nouvelles techniques.
  • Son mode d'opération : prenons l'exemple d'un malware conçu pour modifier son apparence afin d'échapper à la détection traditionnelle. L'apprentissage profond permet de repérer les schémas comportementaux sous-jacents, même lorsque les attaquants modifient intentionnellement le code pour lui donner une nouvelle apparence. Prenons un autre exemple, cette fois-ci avec une personne disposant d'un accès légitime. Si cette dernière commence à agir de façon douteuse, comme accéder à des fichiers dans un ordre inhabituel ou à des heures incongrues, l'apprentissage profond est capable de détecter ces subtils changements de comportement. Et cela même si les actions ne sont en apparence pas contraires aux politiques.

Graphiques de connaissances pour cartographier la propagation des menaces

  • Sa fonction : relie les entités, les utilisateurs, les assets, les autorisations et les vulnérabilités dans un réseau de relations visuel et consultable.
  • Son rôle pour la sécurité : ces modèles optimisent l'analyse du chemin d'attaque. Au lieu de traiter le risque comme des détections isolées, ils montrent comment les attaquants peuvent enchaîner plusieurs expositions pour atteindre vos assets les plus précieux.
  • Son mode d'opération : un graphe de connaissances peut faire apparaître une combinaison toxique comme un serveur public présentant une faille connue et se connectant (via des comptes de services aux autorisations excessives) à votre base de données en production. Il vous indique où intervenir pour bloquer le chemin d'attaque.

IA générative et traitement du langage naturel (NLP) au service des analystes

  • Sa fonction : analyse et génère du langage naturel afin que les données de sécurité complexes deviennent compréhensibles, consultables et exploitables.
  • Son rôle pour la sécurité : au lieu de fouiller dans des dashboards, votre équipe peut poser naturellement des questions et obtenir des résumés lisibles par un humain concernant les expositions, les menaces et les étapes de réponse.
  • Son mode d'opération : un analyste peut demander « Comment corriger cette exposition ? » ou « Quelles vulnérabilités affectent nos assets exposés à Internet avec un accès administrateur ? » et obtenir immédiatement des réponses précises et contextualisées. Cela accélère les recherches et rend les workflows de sécurité plus accessibles aux non-spécialistes.
L'importance du choix du modèle

Lorsqu'un fournisseur prétend utiliser l'IA, il convient de lui poser ces questions :

  • Quel type ?
  • Pour quels problèmes ?
  • Quelle quantité de données le fournisseur a-t-il utilisée pour entraîner son modèle d'IA ?
  • À quelle fréquence le fournisseur met-il à jour son modèle ?
  • Où se situe le modèle de score de risque de la solution par rapport à CVSS, CISA KEV ou EPSS ?

Il y a une grande différence entre une plateforme qui applique un algorithme générique et une autre qui combine stratégiquement plusieurs modèles, chacun adapté à une tâche spécifique. 

Les plateformes d'IA pour la sécurité les plus avancées intègrent tous les éléments évoqués plus haut. Elles utilisent l'apprentissage automatique (ML) pour la prédiction des vulnérabilités, les graphes de connaissances pour la cartographie des chemins d'attaque et l'IA générative pour les conseils de remédiation.

Ces distinctions détermineront la rapidité d'action de votre équipe, la précision de leur réponse et l'efficacité avec laquelle vous réduirez le risque réel.

Gestion du risque lié à l'IA et cadres de gouvernance

Aux États-Unis, la principale norme régissant la gouvernance de l'IA est le NIST AI Risk Management Framework (AI RMF). Ce cadre optionnel est conçu pour vous aider à gérer les risques liés à l'IA et à contribuer au développement de systèmes d'IA fiables et responsables.

Il comporte quatre fonctions essentielles : gouverner, cartographier, mesurer et gérer. 

Le NIST AI RMF propose un schéma directeur pour une gouvernance de l'IA et une gestion du risque responsables, afin que vos équipes puissent bâtir des systèmes d'IA dignes de confiance.

La mise en œuvre de ce cadre ne se limite pas à de bonnes intentions. Elle nécessite des outils pratiques qui offrent une visibilité approfondie et des informations exploitables. 

Les plateformes dotées de solides fonctionnalités IA de découverte et de sécurité (par exemple celles qui signalent à la fois les utilisations, modèles et infrastructures d'IA approuvés et non approuvés) jouent un rôle direct dans les étapes de cartographie et de mesure du cadre en établissant un inventaire complet et en dévoilant les risques connexes. 

En surveillant en continu l'exposition de l'IA et en repérant les vulnérabilités, ces outils vous aident également à gérer le risque grâce à une remédiation ciblée. 

En fin de compte, les solutions de sécurité modernes vous permettent de concevoir une gouvernance responsable de l'IA et d'adopter cette technologie en toute sécurité.

Cependant, n'oubliez pas que les cadres ne constituent pas une simple checklist. Ce sont plutôt des guides pour vous accompagner dans la mise en œuvre de processus de gestion du risque tout au long du cycle de vie de l'IA. 
 

Gouverner

La fonction de gouvernance est la pierre angulaire du cadre AI RMF. Elle établit et promeut une culture de gestion du risque. Elle crée des politiques, définit la responsabilité et garantit que vous disposez des processus adéquats pour soutenir les trois autres fonctions. 

Si les personnes et les politiques sont les moteurs de la gouvernance, les technologies en assurent le bon fonctionnement et l'application. Une gouvernance efficace est impossible sans la visibilité complète et les données que fournissent les outils de sécurité.

Principales activités de gouvernance
  • Créer des directives pour le déploiement de l'IA et définir votre tolérance au risque dès le départ
  • Définir et attribuer les rôles et responsabilités en matière de gouvernance de l'IA
  • Favoriser une culture qui privilégie une communication ouverte sur les risques liés à l'IA
  • Créer des processus pour gérer les risques liés aux composants IA de tiers

Cartographier, mesurer et gérer

Une fois que vous disposez d'une solide base de gouvernance de l'IA, vous devez mettre en place un cycle continu de cartographie, de mesure et de gestion des risques liés à l'IA.

Cartographier

La carte met l'accent sur le contexte et la découverte. Avant de sécuriser un système d'IA, il faut en comprendre l'objectif, les composantes et l'impact potentiel.

Pour la cartographie :

  • Dressez un inventaire complet des systèmes d'IA, y compris des modèles et des sources de données, des services d'IA AWS, Azure et GCP, des logiciels de Shadow AI non approuvés et de la détection des plug-ins de navigateur.
  • Documentez le contexte des systèmes, y compris les capacités et les objectifs prévus.
  • Identifiez les risques potentiels pour tous les composants, y compris les éléments tiers.
Mesurer

Pendant l'étape de mesure, vous évaluez les risques à partir de cette carte pour déterminer jusqu'à quel point vous pouvez faire confiance à l'infrastructure qui fait fonctionner vos systèmes d'IA.

Pour la mesure :

  • Analysez les pipelines de données et l'infrastructure cloud pour détecter les expositions potentielles en matière de sécurité, tels que les buckets de données accessibles au public, les configurations non sécurisées dans les services d'IA comme Amazon SageMaker, ou les rôles de gestion des identités et des accès (IAM) qui accordent aux utilisateurs un accès beaucoup plus étendu qu'ils n'en ont besoin.
  • Testez et évaluez en continu les assets d'IA pour détecter les vulnérabilités et les mauvaises configurations.
  • Définissez et suivez les indicateurs relatifs à la sécurité et à la conformité de l'IA au fil du temps.
Gérer

L'étape de gestion concerne les risques déjà cartographiés et mesurés. Vous devez allouer des ressources pour faire face aux risques majeurs en fonction de la tolérance que vous avez définie.

Pour la gestion :

  • Appliquez des contrôles de sécurité pour réduire le risque, par exemple des mesures techniques d'atténuation comme la correction des mauvaises configurations cloud, la révocation des autorisations excessives et le chiffrement des données.
  • Conseil : utilisez une plateforme de sécurité pour bénéficier de recommandations exploitables et d'instructions de remédiation étape par étape.
  • Faites peser le risque ailleurs, par exemple en souscrivant à une cyber-assurance.
  • Préférez ne pas déployer un système d'IA si les risques qu'il présente sont supérieurs à votre limite acceptable.
  • Acceptez formellement un risque qui se situe dans le seuil de tolérance défini par votre entreprise.

IA responsable avec AI Aware

Un cadre tel que le NIST AI Risk Management Framework (AI RMF) fournit un schéma directeur essentiel pour une IA responsable. Mais sans la bonne approche pour le mettre en œuvre, il n'est rien de plus qu'un exercice théorique.

C'est là qu'intervient AI Aware. Cette solution fournit des données pour la gouvernance de l'IA afin de contribuer à l'élaboration et à l'application de politiques.

AI Aware vous apporte la visibilité, la compréhension et le contrôle nécessaires à une gestion efficace des risques liés à l'IA au sein de votre entreprise. Elle vous accompagne dans la mise en œuvre pratique des directives conceptuelles.

Une plateforme comme Tenable Cloud Security offre la base technique dont vous avez besoin pour cultiver une posture AI Aware. Elle fournit un inventaire complet pour cartographier votre paysage IA, une analyse en continu pour mesurer votre posture de sécurité, des conseils exploitables pour atténuer le risque et la visibilité à l'échelle de l'entreprise requise pour une gouvernance efficace de l'IA.

Êtes-vous prêt à dépasser les cadres théoriques et à véritablement comprendre et gérer vos risques liés à l'IA ? Découvrez comment Tenable Cloud Security peut vous aider.

4 conseils pour aider les RSSI à évaluer les fonctionnalités d'IA d'une plateforme de sécurité

En tant que RSSI, les fournisseurs de solutions de gestion de l'exposition vous bombardent probablement d'affirmations audacieuses sur leurs solutions IA. Mais en réalité, beaucoup de ces solutions se contentent d'automatiser des tâches. 

Votre investissement dans la sécurité IA doit faire bien plus que cela. Il doit vous aider à réduire le risque pour votre entreprise et à renforcer votre programme de sécurité. 

Voici quelques questions clés que tout RSSI devrait se poser pour mieux comprendre comment évaluer une solution de sécurité IA.
 

La solution associe-t-elle clairement son IA à des résultats concrets en matière de sécurité, ou se contente-t-elle d'énumérer des caractéristiques techniques ?

Posez-vous les questions suivantes :

  • Le fournisseur explique-t-il pourquoi il utilise des techniques d'IA spécifiques, ou se contente-t-il d'énumérer une liste de modèles ou de mots à la mode ?
  • Le fournisseur peut-il démontrer les performances de son architecture d'IA, par exemple des résultats de remédiation plus rapide, une amélioration du MTTD/MTTR ou une réduction de l'exposition ?
  • L'IA est-elle optimisée pour votre usage (priorisation des vulnérabilités, risque lié aux droits d'accès, etc.) ou faut-il lui ajouter des fonctionnalités optionnelles ?
  • Le fournisseur fournit-il des preuves ou des indicateurs démontrant l'impact réel de sa solution IA sur la sécurité ?

Un fournisseur qui met en avant des résultats, et non des algorithmes, est plus à même d'apporter une valeur stratégique.
 

La solution IA peut-elle communiquer clairement avec les humains et ne pas se contenter de générer des données ?

Posez-vous les questions suivantes :

  • La plateforme explique-t-elle les détections dans un langage commun que les analystes peuvent exploiter sans difficulté ?
  • Peut-elle traduire les alertes techniques en contexte pour les dirigeants, les équipes chargées du risque ou les auditeurs ?
  • Permet-elle un tri plus rapide des alertes en expliquant les enjeux et les raisons de leur importance ?
  • Les résultats sont-ils utilisables par toutes les équipes, et pas seulement celles de sécurité ou IT ?

Une IA qui améliore la communication renforce la confiance et accélère votre temps de réaction. Si la plateforme ne parle pas la langue de votre équipe, elle ne favorisera ni la collaboration ni la réponse.
 

La solution IA s'adapte-t-elle aux besoins de votre entreprise ou est-ce plutôt l'inverse ?

Posez-vous les questions suivantes :

  • L'IA peut-elle apprendre de votre environnement, par exemple en analysant le comportement de vos utilisateurs et en identifiant quels sont vos assets les plus importants ?
  • Ajuste-t-elle le score de risque en fonction de votre secteur et de votre environnement, et non d'une référence générique ?
  • Les résultats sont-ils adaptés à votre surface d'attaque réelle ou toutes les entreprises sont-elles traitées de la même manière ?
  • L'IA peut-elle évoluer en même temps que votre environnement ou est-elle figée dans des hypothèses statiques ?

Une IA incapable de s'adapter à votre entreprise ne vous aidera pas à gérer le risque réel. Elle passera à côté de l'essentiel ou vous distraira avec le superflu.
 

La solution IA vous permet-elle de prendre des décisions basées sur le risque en fonction de l'exposition et de l'impact ?

Posez-vous les questions suivantes :

  • L'IA priorise-t-elle les détections en fonction du risque réel, et pas seulement à partir de scores de sévérité ?
  • Peut-elle faire la distinction entre les vulnérabilités théoriques et les chemins d'exposition réels ?
  • Tient-elle compte de l'exploitabilité, de la criticité des assets et du comportement des attaquants, et pas seulement des scores CVSS statiques ?
  • Aide-t-elle votre équipe à se concentrer sur ce qui réduit le plus rapidement le risque, ou monopolise-t-elle vos ressources sur des vulnérabilités de faible sévérité ?

Une IA offrant une sécurité basée sur le risque vous permet de concentrer efficacement vos efforts et vos ressources limitées sur les expositions les plus importantes.

Comment Tenable utilise l'IA dans le cadre de la cyber-sécurité

Les outils d'IA de Tenable prennent en charge les deux côtés de l'équation IA-sécurité : l'utilisation de l'IA pour renforcer la cyber-sécurité et la sécurisation des systèmes d'IA construits ou adoptés par votre entreprise. 

Cette double approche permet de réduire le risque sur deux fronts critiques : la protection de votre infrastructure et la protection de votre empreinte IA.

Cette solution est disponible dans trois offres de base :

  • ExposureAI optimise la détection des menaces, l'analyse de l'exposition et la priorisation de la remédiation.
  • La gestion des vulnérabilités avec AI Aware permet de prendre des décisions plus intelligentes en matière de correctifs, en fonction du contexte réel du risque.
  • AI-SPM sécurise vos modèles d'IA, votre infrastructure et vos droits d'accès.
     

Utiliser l'IA pour renforcer la cyber-défense avec ExposureAI

ExposureAI est le moteur génératif de la plateforme de gestion de l'exposition Tenable One. Il traite plus de mille milliards de points de données pour vous aider à détecter, comprendre et réduire le risque avec précision.

ExposureAI cartographie les relations entre vos assets, utilisateurs, services cloud, identités et vulnérabilités. Basé sur l'Exposure Data Fabric de Tenable, il rassemble, normalise et relie des données de sécurité éparses provenant de l'ensemble de votre surface d'attaque. Ce maillage de données transforme des détections disparates en un ensemble d'informations riches et interconnectées.

Or, bénéficier d'une telle vision connectée est essentiel pour renforcer votre posture de sécurité. 

Au lieu de se contenter de signaler des problèmes isolés, ExposureAI peut détecter des chaînes d'attaques complexes en plusieurs étapes et ajouter des détails à chaque alerte. Imaginez un graphe de connaissances. En structurant vos données de manière relationnelle, il est possible de retracer les chemins d'attaque depuis le point d'entrée initial jusqu'à vos assets les plus précieux.

Grâce à cette vue d'ensemble, votre équipe sait non seulement où se situe le risque, mais visualise aussi les relations qui contribuent à créer l'exposition réelle. Cette visibilité permet d'accélérer la priorisation et la remédiation des problèmes. 

Cette base donne aux modèles d'ExposureAI le contexte approfondi dont ils ont besoin pour fournir des renseignements précis et des étapes claires. Vous pouvez ainsi mieux trouver, comprendre et éliminer le risque dans votre environnement.

Découvrez comment ExposureAI peut vous aider à trier les vulnérabilités pour vous concentrer sur le risque réel de votre entreprise. 
 

Prioriser les vulnérabilités avec AI Aware

AI Aware améliore les workflows traditionnels de gestion des vulnérabilités en utilisant le ML pour indiquer à votre équipe les faiblesses qui représentent vos plus grandes menaces actuelles.

Plutôt que de s'appuyer sur des scores CVSS statiques, le système prend en compte l'exploitabilité, les chemins d'exposition, la threat intelligence et le contexte métier pour prioriser les vulnérabilités en fonction du risque réel.

AI Aware réduit le bruit et accélère l'application des correctifs en mettant en évidence les failles de votre environnement que les attaquants sont les plus susceptibles d'exploiter. La solution vous aide à passer d'une gestion des vulnérabilités réactive à une stratégie basée sur le risque.

Découvrez comment AI Aware améliore la priorisation basée sur le risque.
 

Sécuriser votre pile d'IA avec AI-SPM

L'adoption de l'IA s'accompagne d'une expansion de votre surface d'attaque. AI-SPM vous aide à découvrir, à renforcer et à gouverner les services cloud, les modèles et les droits d'accès qui alimentent vos initiatives d'IA.

AI-SPM détecte les infrastructures liées à l'IA sur AWS, Azure et Google Cloud. Il identifie la manière dont les utilisateurs interagissent avec les plateformes et signale les extensions de navigateur, paquets ou services Shadow IA non autorisés auxquels les utilisateurs professionnels accèdent.

La solution s'intègre aux outils de gestion de l'infrastructure cloud et des droits d'accès (CIEM) pour appliquer le principe du moindre privilège. Elle surveille qui accède à vos modèles, à vos API et à vos données sensibles, vous aidant à détecter plus rapidement les abus et à garantir la conformité.

Utiliser l'IA pour prioriser le risque réel avec le classement VPR

Le classement VPR (Vulnerability Priority Rating) de Tenable utilise le ML pour attribuer des scores de risque dynamiques basés sur plusieurs facteurs concrets, et pas seulement un score CVSS statique. Votre équipe est ainsi mieux équipée pour prioriser le risque réel, au lieu d'être submergée par un trop grand nombre d'alertes.

Qu'est-ce qui entre en compte dans le VPR ?

  • La disponibilité des exploits et l'utilisation malveillante
  • Une threat intelligence active provenant de sources publiques et du Dark Web
  • L'exposition des assets et le contexte réseau
  • Les tendances du moment et le comportement des attaquants

Exemple :

  • Le score CVSS peut attribuer à deux vulnérabilités la même note de 9,8, mais les attaquants peuvent n'en exploiter activement qu'une seule en environnement réel.
  • Au lieu de vous pousser à corriger à la hâte les deux vulnérabilités sur la base de leur score CVSS, le classement VPR applique d'autres mesures de score de risque pour attribuer une sévérité plus élevée au risque qui présente une réelle menace. Il vous fournit les informations dont vous avez besoin pour savoir ce qu'il faut corriger en premier.

Vous voulez voir comment ExposureAI et AI-SPM sécurisent ensemble votre environnement et vos initiatives d'IA ? Découvrez les solutions de cyber-sécurité optimisées par l'IA de Tenable.

Ressources sur la sécurité pour l'IA

Produits de sécurité pour l'IA

Des actualités utiles sur la cyber-sécurité

Saisissez votre adresse e-mail et ne manquez plus aucune alerte ni aucun conseil en matière de sécurité de la part de nos experts Tenable.