Sécurité de l'IA : un cadre stratégique pour éliminer le gap d'exposition IA
Alors que l'adoption de l'IA s'accélère, les RSSI sont confrontés à un double défi : encourager l'innovation tout en atténuant les risques d'une surface d'attaque en pleine expansion. La stratégie en cinq étapes de Tenable pour sécuriser l'IA offre une approche systématique de réduction des risques de sécurité IA alors que votre entreprise tente d'obtenir les gains de productivité de l'IA.
Points clés
- Adoptez une stratégie en cinq étapes pour sécuriser l'utilisation de l'IA dans l'ensemble de votre entreprise et atténuer les risques de sécurité créés par les outils d'IA.
- Pour sécuriser l'utilisation de l'IA en entreprise, vous devez combiner des fonctionnalités de découverte IA solides, des mécanismes de sécurisation des workloads IA et de l'infrastructure exécutant l'IA, une visibilité au niveau des prompts, la capacité d'analyser les risques de sécurité IA aux côtés d'autres expositions, et des contrôles techniques pour assurer la conformité avec la politique d'utilisation acceptable de l'IA de votre entreprise.
- Découvrez pourquoi vos contrôles de sécurité actuels peuvent être inadéquats lorsqu'il s'agit de sécuriser l'IA.
Alors que l'IA transforme les entreprises, les responsables sécurité comme moi se demandent comment gérer le plus efficacement possible les risques de sécurité qu'elle engendre.
Le défi auquel nous sommes confrontés est que l'IA est désormais intégrée pratiquement partout dans nos entreprises : dans les outils de productivité des collaborateurs, les plateformes SaaS, les bibliothèques de développeurs, les services cloud, les API et les applications web. Résultat ? Nos équipes se retrouvent face à un gap d'exposition IA de plus en plus important : une surface d'attaque vaste et largement invisible que nos outils de sécurité traditionnels ne sont pas en mesure de surveiller.
Ce qui complique les choses, c'est que nous ne pouvons souvent pas isoler le risque lié à l'IA à un seul asset. Il résulte plutôt d'une série d'éléments interconnectés (tels que les applications, les infrastructures, les identités et les données) qui, ensemble, créent une exposition. Voici un exemple qui illustre mes propos.
Imaginons qu'un collaborateur utilise un chatbot IA approuvé pour la résolution de problèmes techniques qui s'appuie sur des agents Amazon Bedrock, et que ces agents disposent de privilèges élevés pour accéder à des systèmes internes sensibles tels que des outils de planification des ressources de l'entreprise et de gestion des ressources client. Si un attaquant accède à l'agent par le biais d'une vulnérabilité non corrigée sur l'ordinateur portable de ce collaborateur, il peut utiliser l'agent pour violer des données sensibles. Une utilisation apparemment sûre d'un outil d'IA approuvé se transforme alors en une exposition à fort impact.
La protection des données dans les environnements de travail assistés par l'IA d'aujourd'hui devient exponentiellement plus difficile, car chacune des multiples interactions avec les assets d'IA (par exemple, chaque prompt, téléchargement de fichier, réponse générée, intégration et configuration) peut mettre en péril la propriété intellectuelle, les informations sur les clients et les plans confidentiels.
Alors comment apprivoiser cette nouvelle surface d'attaque complexe qui se développe de manière incontrôlée à mesure que nos entreprises étendent leur utilisation de l'IA ? Voici un cadre stratégique que j'ai mis en place pour régir, découvrir et sécuriser l'IA partout où elle apparaît et crée un risque pour votre entreprise.
Cadre stratégique : 5 étapes pour sécuriser l'IA en entreprise
1. Mettre en place un comité de gouvernance, un cadre et une politique d'utilisation acceptable de l'IA
La sécurisation de l'IA commence par définir des attentes claires avec les collaborateurs sur l'utilisation acceptable. Mettez en place une politique d'utilisation acceptable de l'IA qui :
- fournit une liste des outils d'IA approuvés et non approuvés ;
- définit les cas d'utilisation métier appropriés et inappropriés ;
- explique les types de données qui peuvent être partagées ou non avec les LLM ;
- prescrit des règles pour le traitement des données ;
- tient compte des lois sur les droits d'auteur ; et
- énonce les conséquences des manquements à la politique.
Sur la base de la politique d'utilisation acceptable de l'IA de votre entreprise, vous pouvez mettre en œuvre des contrôles pour appliquer et surveiller le respect de cette politique.
2. Découvrir l'IA sur l'ensemble de votre surface d'attaque
Lorsque je discute avec d'autres RSSI de la sécurisation de l'IA, ils disent que l'un de leurs plus grands défis est de découvrir et de détecter cette dernière. Je comprends tout à fait : elle est partout et souvent vraiment difficile à trouver, en partie parce que la présence de l'IA s'étend bien au-delà des systèmes gérés de manière centralisée qui sont clairement visibles.
En tant que responsables sécurité, nous devons prendre en charge les éléments suivants :
- Les assets, agents, plug-ins, extensions de navigateur et workloads IA...
- qu'ils s'exécutent dans le cloud ou sur site
- qu'ils soient accessibles de l'intérieur ou de l'extérieur
- qu'ils soient approuvés ou non
- Les déploiements de tests d'IA oubliés
- Les outils d'IA intégrés dans les endpoints et les applications
- Tous les logiciels, bibliothèques, modèles et services d'IA
- Les services d'IA exposés publiquement, les API de grands modèles de langage (LLM) et les chatbots d'IA sur les endpoints et dans les applications cloud
Vos solutions existantes de prévention des pertes de données (DLP), de courtiers de sécurité d'accès au cloud (CASB) et de gestion de la posture de sécurité du cloud (CSPM) peuvent constituer un bon point de départ pour découvrir les assets IA. Mais une détection complète nécessite des outils de découverte spécialisés, car la nature non déterministe de l'IA défie les protections de sécurité traditionnelles basées sur des règles. Cela requiert également des capacités de détection uniques pour identifier les outils et les bibliothèques d'IA intégrés et comprendre comment l'association des systèmes d'IA créent une exposition.
En bénéficiant d'une vue continue et complète de l'utilisation de l'IA par votre entreprise, vous saurez précisément quelles sont les workloads et les infrastructures à sécuriser, et vous pourrez commencer à évaluer l'exposition IA globale de votre entreprise et prioriser des actions de remédiation spécifiques en conséquence.
3. Sécuriser les workloads et les agents d'IA
Les workloads IA sont profondément interconnectées et souvent mal configurées ou dotées d'autorisations excessives, et ce à un niveau très préoccupant. Cette étape implique donc de sécuriser de manière proactive l'infrastructure dans laquelle l'IA s'exécute et de renforcer les workloads IA avant que les attaquants ne puissent les exploiter. Par exemple, si les développeurs de votre entreprise créent des applications basées sur l'IA dans le cloud, vous devez vous assurer que l'infrastructure cloud est sécurisée.
Pour être efficaces, les protections doivent être dotées des capacités suivantes :
- Identifier les mauvaises configurations et les configurations à risque dans les workloads IA basées sur le cloud.
- Détecter les vulnérabilités qui pourraient exposer les modèles, les agents, les données ou les API à un accès non autorisé.
- Mettre en œuvre une réduction de l'exposition liée aux identités, car l'IA s'appuie fortement sur des identités non humaines.
- Détecter les comptes de service, les rôles et les identités machines dotés de privilèges excessifs utilisés par les workflows d'IA, et appliquer de manière stricte le principe du moindre privilège pour limiter les accès.
- Comprendre les chemins d'attaque potentiels à partir des assets et des workloads IA qui pourraient avoir un impact sur les systèmes critiques de l'entreprise ou conduire à des données sensibles.
- Isoler rapidement les agents IA erratiques ou compromis dans des environnements contrôlés afin de minimiser l'impact potentiel d'une intrusion.
J'ai prévu d'approfondir ce sujet spécifique de la sécurisation des workloads et des agents IA dans un article de blog à suivre. En attendant, vous pouvez comprendre comment les faiblesses liées aux identités et les failles de l'infrastructure se combinent pour créer une exposition critique en effectuant une analyse de risque approfondie de votre pile d'IA. Sur la base de ces informations, vous pouvez fournir des playbooks exploitables à vos équipes de sécurité afin de renforcer les environnements et de garantir l'exécution des services sur des architectures sécurisées, résilientes et validées.
4. Évaluer l'utilisation de l'IA et les interactions
Cette étape consiste à comprendre comment vos collaborateurs interagissent avec les outils d'IA générative et les agents autonomes afin de s'assurer qu'ils ne violent pas la politique d'utilisation acceptable de l'IA de votre entreprise. Il est impératif de comprendre comment les données circulent dans toutes les applications d'IA et de déterminer où naît l'exposition.
Il faut pour cela disposer d'une visibilité granulaire sur :
- Qui utilise l'IA
- Dans quel but
- L'origine des comportements à risque et des utilisations abusives
- Les données que les employés partagent par le biais de prompts, de téléchargements ou d'actions automatisées
- Les tentatives de jailbreak d'outils d'IA approuvés et de prompts malveillants
La visibilité au niveau des prompts sur l'utilisation de l'IA par les collaborateurs permet à votre équipe de sécurité de détecter les violations des politiques et de renforcer les comportements sûrs en matière d'IA. Cela lui permet également d'identifier toutes les données sensibles, notamment la propriété intellectuelle et les données personnelles, que les collaborateurs ou les agents partagent avec des outils d'IA via des prompts, des téléchargements et des interactions automatisées et qui pourraient créer une exposition suite à une fuite accidentelle. Votre équipe de sécurité peut aussi détecter et répondre aux nouvelles menaces et utilisations abusives propres à l'IA, comme les tentatives d'injection de prompts et d'autres instructions malveillantes conçues pour manipuler les systèmes d'IA.
Qu'il s'agisse de la découverte d'un outil malveillant connecté à un agent Microsoft Copilot ou d'un collaborateur qui utilise l'IA à mauvais escient dans des situations inappropriées pour lesquelles l'outil n'a pas été conçu (par exemple, des décisions d'embauche internes), vous devez réagir rapidement pour remédier à l'exposition et renforcer l'utilisation sécurisée.
5. Analyser les risques de sécurité IA dans le contexte d'autres expositions
Pour atténuer les risques de sécurité IA, il ne suffit pas de détecter isolément les vulnérabilités non corrigées dans les logiciels d'IA, les configurations faibles des systèmes d'IA et les agents dotés de privilèges excessifs. Après tout, l'IA est en train de s'intégrer complètement à toutes nos applications, nos données et nos processus métier.
L'atténuation des risques de sécurité IA nécessite une approche unifiée et automatisée de la collecte de données de sécurité IA très contextualisées, ainsi que leur corrélation et leur analyse aux côtés d'autres données d'exposition, telles qu'un bucket S3 exposé publiquement, un ordinateur portable vulnérable ou un compte orphelin doté de privilèges d'administrateur. Chez Tenable, nous appelons cette approche "gestion de l'exposition", et nous constatons que le secteur s'en empare rapidement. La gestion de l'exposition vous permet de voir de manière proactive comment les faiblesses de sécurité de votre environnement s'associent pour causer une exposition : des chemins d'attaque à haut risque menant aux systèmes et aux données les plus sensibles de votre entreprise.
La gestion de l'exposition fait également apparaître les risques avec un contexte précis, notamment le moteur d'IA, l'utilisateur et la session spécifiques, pour permettre une gestion des problèmes extrêmement fiable et une réponse rapide. Il s'agit de comprendre comment les combinaisons toxiques de risques s'allient pour créer une exposition au niveau de l'entreprise. Une mauvaise configuration de criticité moyenne dans Amazon Bedrock pourrait être liée à un LLM non sécurisé permettant aux agents de bénéficier d'un droit d'accès surprovisionné. La gestion de l'exposition nécessite cette compréhension complète de l'ensemble de l'environnement et de la surface d'attaque.
Sécuriser l'avenir de l'innovation en matière d'IA
L'intégration rapide de l'IA dans l'ensemble de l'entreprise a créé une surface d'attaque complexe et interconnectée que les contrôles de sécurité traditionnels ne sont tout simplement pas en mesure de gérer. Pour combler le gap d'exposition IA, les responsables sécurité doivent passer d'une approche réactive, centrée sur les outils, à une stratégie proactive et unifiée.
En mettant en œuvre cette stratégie en cinq étapes, vous pouvez créer une posture de sécurité résiliente qui évolue au même rythme que la technologie de l'IA. En fin de compte, une gestion efficace de l'exposition ne consiste pas à ralentir l'innovation, mais à fournir les garde-fous nécessaires pour que votre entreprise puisse exploiter le pouvoir de l'IA en toute sécurité et en toute confiance.
En savoir plus
- Cloud
- Exposure Management
Tenable One
Demandez une démo
La plateforme de gestion de l'exposition alimentée par l'IA leader du secteur
Merci
Nous vous remercions de votre intérêt pour Tenable One.
Un représentant vous contactera prochainement.
Form ID: 7469
Form Name: one-eval
Form Class: c-form form-panel__global-form c-form--mkto js-mkto-no-css js-form-hanging-label c-form--hide-comments
Form Wrapper ID: one-eval-form-wrapper
Confirmation Class: one-eval-confirmform-modal
Simulate Success