L'intelligence artificielle agentique (IA) promet de transformer le fonctionnement des organisations. Contrairement aux outils d'IA antérieurs conçus pour résumer des documents ou générer du contenuL'intelligence artificielle agentique (IA) promet de transformer le fonctionnement des organisations. Contrairement aux outils d'IA antérieurs conçus pour résumer des documents ou générer du contenu

Laura I. Harder : Comment préparer les conseils d'administration aux risques de sécurité de l'IA agentique

2026/03/19 13:28
Temps de lecture : 7 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

L'intelligence artificielle agentique (IA) promet de transformer le fonctionnement des organisations. Contrairement aux outils d'IA antérieurs conçus pour résumer des documents ou générer du contenu, ces systèmes peuvent agir de manière autonome, exécuter des tâches et interagir avec les systèmes d'entreprise. Pour les conseils d'administration supervisant les risques technologiques, ce changement introduit une catégorie fondamentalement différente de préoccupations en matière de sécurité. Laura I. Harder, vice-présidente de l'Information Systems Security Association (ISSA) International et officier de cybersécurité offensive dans la Réserve de l'US Air Force, estime que de nombreux dirigeants sous-estiment la rapidité avec laquelle ces risques peuvent se matérialiser. « Le risque pour les organisations se résume vraiment à avoir trop d'autonomie », déclare Harder. « Les Agents d'IA peuvent modifier les autorisations, changer les fonctionnalités et créer des actions auxquelles vous ne vous attendiez peut-être pas. » Alors que les organisations passent de l'expérimentation de l'IA à l'opérationnalisation des agents autonomes, les conseils d'administration doivent agir tout aussi rapidement pour établir des structures de gouvernance, des garde-fous et des mécanismes de surveillance capables de gérer des systèmes qui peuvent prendre des décisions et agir sans intervention humaine.

L'IA agentique modifie l'équation de sécurité

Au cours des dernières années, la plupart des déploiements d'IA en entreprise se sont concentrés sur des outils qui analysent les informations ou génèrent des résultats. Ces capacités ont introduit des préoccupations en matière de confidentialité et d'intégrité des données, mais les systèmes eux-mêmes exécutaient rarement des actions dans les environnements d'entreprise. L'IA agentique change cette dynamique. Au lieu de simplement offrir des recommandations ou de filtrer des CV, les agents peuvent déclencher des flux de travail, accéder à des bases de données et interagir avec des systèmes logiciels dans toute l'organisation. « Ce n'est plus seulement nous donner des conseils. Cela prend des mesures et agit de manière autonome », déclare Harder.

Laura I. Harder: How to Prepare Boards for the Security Risks of Agentic AI

Cette autonomie crée de nouveaux défis en matière de sécurité car les systèmes peuvent être manipulés. Tout comme les humains peuvent tomber dans le piège de l'ingénierie sociale, les Agents d'IA peuvent être trompés pour exécuter des tâches involontaires par des techniques telles que l'injection de prompts. Harder cite des exemples concrets où des instructions cachées intégrées dans les entrées modifient le comportement de l'IA. « L'IA va se comporter en fonction des instructions qui lui sont données », dit-elle. Ces menaces sont aggravées par la nature opaque de nombreux modèles d'IA. Les organisations s'appuient souvent sur des outils tiers sans avoir une visibilité complète sur la façon dont les décisions sont prises. Le résultat est un système capable d'exécuter des actions tout en fonctionnant de manière difficile à prévoir.

Le risque caché que les conseils d'administration négligent souvent

Lorsque les conseils d'administration commencent à évaluer l'IA agentique, Harder affirme que la vulnérabilité la plus sous-estimée concerne les autorisations. Chaque Agents d'IA fonctionne au sein d'un réseau de systèmes, de sources de données et d'applications. Le niveau d'accès accordé à ces systèmes détermine les dommages potentiels si quelque chose tourne mal. Harder décrit cela comme le « rayon d'explosion » du système. Un agent qui reçoit des autorisations larges peut être capable d'interagir avec beaucoup plus de données et d'infrastructure que les dirigeants ne le réalisent.

Un exemple courant se produit lorsque les systèmes d'IA sont connectés à des outils de collaboration internes ou à des référentiels de documents. Si un dossier largement partagé contient des informations sensibles, un agent opérant dans cet environnement pourra accéder et utiliser ces données dans le cadre des autorisations accordées à l'utilisateur, au compte de service ou à l'intégration sous laquelle il fonctionne. En pratique, cela signifie que l'agent peut faire apparaître ou agir sur des informations qui ont pu être largement accessibles mais pas activement surveillées.

Les services d'IA tiers introduisent une couche de risque supplémentaire. « Si vous utilisez un modèle, à quelles informations ce modèle a-t-il accès, et vos informations peuvent-elles être utilisées pour entraîner ce modèle ? » demande Harder. Sans contrôles clairs, les informations propriétaires, la propriété intellectuelle ou les données sensibles des clients pourraient involontairement quitter l'organisation par le biais d'interactions avec l'IA.

Construire une gouvernance qui peut suivre le rythme de l'IA

La gouvernance de l'IA doit être traitée comme un programme structuré plutôt que comme un complément technologique. Les organisations devraient commencer par établir un conseil de gouvernance de l'IA dédié, souvent modelé sur les comités existants de gouvernance de la confidentialité ou des risques. Ce groupe devrait adopter des cadres établis tels que le NIST AI Risk Management Framework ou des normes internationales comme ISO 42001. « Avoir une gouvernance de l'IA et des protections de l'IA n'est pas seulement un produit que vous pouvez acheter », dit-elle.

Ces cadres fournissent des orientations sur les politiques, les évaluations des risques et les contrôles opérationnels. Mais ils exigent toujours que les organisations définissent comment l'IA fonctionnera dans leur environnement et à quelles données elle sera autorisée à accéder. « Vous avez besoin de politiques, de procédures et d'inventaires », déclare Harder. « Ces éléments aideront à construire l'infrastructure à partir de laquelle vos équipes peuvent travailler. » Une pratique émergente est la création d'une « nomenclature de l'IA » qui inventorie chaque outil d'IA utilisé au sein de l'organisation, les systèmes auxquels il se connecte et les données auxquelles il peut accéder. Sans cette visibilité, les organisations ne peuvent pas comprendre pleinement l'exposition créée par les systèmes autonomes interagissant avec l'infrastructure d'entreprise.

Des garde-fous qui empêchent l'IA de devenir incontrôlable

Même avec des structures de gouvernance en place, les systèmes agentiques nécessitent des garanties techniques qui limitent leur fonctionnement. La stratégie la plus efficace consiste à concevoir des contrôles de sécurité dès le début. Les systèmes devraient initialement être développés dans des environnements sandbox fermés et contrôlés utilisant des données de test (et non des données de production) et des privilèges limités. « Lorsque vous construisez votre système agentique, vous devez le faire dans un sandbox », dit-elle. « C'est un environnement contrôlé où les systèmes synthétiques peuvent fonctionner avec un faible risque et sans privilège. »

Les tests doivent également inclure le red teaming, où les professionnels de la sécurité tentent de casser le système ou de manipuler son comportement. Ces exercices exposent les vulnérabilités avant que les systèmes ne soient déployés dans des environnements de production. « Avoir un humain dans la boucle garantit que si et quand votre outil d'IA décide de prendre une décision que vous ne souhaitiez peut-être pas, il y a une certaine restriction », déclare Harder. Les techniques d'isolation peuvent également limiter le risque. Dans certaines architectures, les agents sont contenus à l'intérieur de machines virtuelles où les politiques restreignent les commandes qu'ils peuvent exécuter et les systèmes auxquels ils peuvent accéder.

La surveillance du conseil d'administration compte en fin de compte

Pour les conseils d'administration, l'essor de l'IA agentique est un défi de gouvernance et de responsabilité, et Harder souligne que les organisations restent responsables des actions que prennent leurs systèmes d'IA. « Vous ne pouvez pas revenir en arrière et dire : "Je ne savais pas que cela pouvait faire ça" », dit-elle. « Vous devez faire preuve de diligence raisonnable. » Cette responsabilité comporte des implications à la fois juridiques et fiduciaires. Les conseils d'administration doivent s'assurer que les technologies autonomes sont mises en œuvre avec une surveillance claire, une autorité limitée et une surveillance continue. « Ne connectez pas les agents à des outils privilégiés tant que vous ne pouvez pas prouver qu'ils ont une autorité limitée, des points de contrôle humains et une surveillance », déclare Harder. Alors que l'IA agentique continue de passer de l'expérimentation aux opérations de base, les organisations qui réussiront seront celles qui traiteront la gouvernance et la sécurité comme des exigences fondamentales plutôt que comme des considérations après coup.

Suivez Laura I. Harder sur LinkedIn pour plus d'informations.

Commentaires
Opportunité de marché
Logo de The AI Prophecy
Cours The AI Prophecy(ACT)
$0.01366
$0.01366$0.01366
-0.72%
USD
Graphique du prix de The AI Prophecy (ACT) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.