Skip to main content

Établissement d’une gouvernance de l’IA

Objectifs de formation

Une fois cette unité terminée, vous pourrez :

  • Énumérer certains des risques associés à l’IA
  • Expliquer ce qu’est la gouvernance de l’IA
  • Faire l’inventaire de l’utilisation actuelle de l’IA dans votre organisation
  • Évaluer les risques liés à l’IA dans votre organisation
  • Énumérer des exemples de stratégies d’atténuation des risques liés à l’IA

Les risques de l’IA

Il est presque impossible de parler d’IA sans reconnaître les risques liés à la technologie. Nous avons tous entendu parler des menaces de sécurité, des inquiétudes concernant les inexactitudes et les biais, de la possibilité de fuite de données, des craintes d’atteinte à la réputation, et bien plus encore.

Pour rendre les choses encore plus compliquées, la technologie évolue à un rythme très rapide. Il n’est donc pas étonnant que, selon le Rapport sur les tendances de l’IA pour CRM Salesforce, 68 % des personnes interrogées estiment que les progrès de l’IA renforcent la fiabilité d’une entreprise.

Mais dans de nombreux cas, la révolution de l’IA dépasse la capacité des organisations à s’adapter aux changements. C’est l’une des inquiétudes d’Alex, notre champion de l’IA et dirigeant chez Coral Cloud Resorts. Comment Coral Cloud peut-elle s’assurer d’adopter l’IA de manière fiable ?

La nécessité d’une gouvernance

Comme vous l’avez probablement deviné, la confiance dans l’IA est fondamentalement liée à sa gouvernance. Découvrons ce qu’est la gouvernance de l’IA.

La gouvernance de l’IA est un ensemble de politiques, de processus et de meilleures pratiques qui aident les organisations à garantir que les systèmes d’IA sont développés, utilisés et gérés de manière responsable et évolutive pour optimiser les avantages et atténuer les risques.

Dans cette unité, nous suivons Alex alors qu’il travaille avec l’équipe chargée de l’IA chez Coral Cloud pour établir une gouvernance de l’IA. Votre organisation dispose peut-être déjà d’un ou de plusieurs groupes dédiés à la supervision de la gouvernance. Si vous n’envisagez pas de centraliser la gouvernance de l’IA auprès d’un comité d’IA, assurez-vous que tous les organes directeurs internes existants disposent de l’expertise nécessaire en matière d’IA pour améliorer les pratiques existantes et combler les lacunes.

Développement des principes pour une IA responsable

Avant que Coral Cloud ne commence à créer son programme de gouvernance, Alex encourage l’équipe de direction à prendre du recul et à rester concentrée sur son engagement : développer l’IA de manière responsable. Quel est leur point de repère ?

De nombreuses organisations adoptant l’IA trouvent qu’il est utile d’établir des principes d’IA responsables. Grâce à un ensemble de principes d’IA, les entreprises peuvent clarifier leur position sur l’IA et prendre en compte l’impact de la technologie sur les employés, les clients et la société dans son ensemble. Ce point de repère permet aux employés de suivre une approche commune afin que vos principes d’IA puissent être appliqués à tous les niveaux de l’entreprise.

Une série d’icônes bleues représentant les cinq principes d’IA approuvée de Salesforce : responsabilité, fiabilité, transparence, responsabilisation et inclusivité.

Pour vous inspirer, jetez un œil aux Principes de l’IA approuvée de Salesforce. Gardez cependant à l’esprit que les principes d’IA de votre organisation doivent être alignés sur la mission et les valeurs de votre entreprise. Un certain chevauchement avec d’autres organisations est normal, mais ne négligez pas le travail consistant à développer votre propre ensemble de principes, à obtenir l’adhésion des parties prenantes et à vous engager publiquement à respecter ces valeurs.

Remarque

Les principes sont une très bonne chose, mais comment les transformer en une utilisation responsable de l’IA ? La plupart des organisations commencent par employer l’IA de manière ponctuelle, puis leurs efforts se formalisent progressivement. Consultez le Modèle de maturité en matière d’éthique de l’IA de Salesforce pour en savoir plus.

Enquête sur le contexte réglementaire

L’équipe de direction de Coral Cloud est prête à se lancer dans la gouvernance, mais quelques questions préoccupent tout le monde : qu’en est-il de la réglementation sur l’IA ? Que prévoit la loi dans ce domaine ?

À l’heure actuelle, la réglementation autour de l’IA comprend une multitude de directives et de politiques émergentes qui varient selon les régions et les secteurs. Les gouvernements et les organismes de réglementation ont du mal à rattraper leur retard sur les progrès rapides de la technologie. Il en devient même difficile de deviner à quoi ressemblera la réglementation dans quelques années.

Malgré l’incertitude, vous pouvez prendre certaines mesures proactives. Suivez les meilleures pratiques de cette unité et restez informé des tendances réglementaires en matière d’IA. En examinant les mises à jour des organismes de réglementation et des groupes du secteur, vous pouvez obtenir un aperçu des changements législatifs potentiels, ainsi que du soutien et des ressources disponibles en cas de nouvelles exigences.

Inventaire de l’utilisation de l’IA par votre organisation

Pour faire progresser les efforts de gouvernance de Coral Cloud, Alex recommande de répertorier la manière dont l’organisation utilise actuellement l’IA.

Il est difficile d’évaluer correctement les risques tant que l’on ne sait pas d’où ils proviennent. Il est donc judicieux de répertorier tous les outils d’IA pour comprendre le degré de leur intégration dans les processus commerciaux.

  • Identifiez les technologies d’IA : répertoriez toutes les technologies d’IA actuellement utilisées, allant des simples outils d’automatisation aux modèles d’apprentissage machine complexes. Ne négligez pas l’IA intégrée aux services et logiciels tiers.
  • Documentez les cas d’utilisation : pour chaque technologie d’IA, documentez ses cas d’utilisation spécifiques. Le fait de comprendre le rôle de chaque solution d’IA et la raison de son utilisation vous aide à évaluer son impact et son importance.
  • Mappez les flux de données : suivez la manière dont les données circulent vers et depuis chaque application d’IA. Examinez notamment les sources de données d’entrée, les éléments que l’IA modifie ou analyse et l’endroit où elle envoie les données de sortie.
  • Établissez la propriété : attribuez la propriété de chaque outil d’IA à des personnes ou à des équipes spécifiques. L’identification du responsable de chaque outil garantit la responsabilisation et simplifie les audits et évaluations futurs.
  • Mise à jour régulière : faites de l’inventaire de l’IA un document dynamique, mis à jour pour refléter les nouveaux déploiements d’IA ou les modifications apportées aux déploiements existants. Vous pourrez ainsi maintenir la pertinence et l’utilité de l’inventaire pour assurer une conformité continue.

L’équipe de direction de Coral Cloud est convaincue que son inventaire peut révéler toutes les manières officielles dont l’organisation utilise actuellement l’IA. Qu’en est-il de l’utilisation non autorisée ? Également appelés « IA fantôme », les outils d’IA non approuvés présentent un risque important pour l’entreprise. Consultez l’article du magazine CIO sur comment éviter les problèmes causés par l’IA fantôme.

Remarque

Si votre entreprise utilise déjà un nombre important d’outils d’IA, l’inventaire peut prendre un certain temps. Le processus d’inventaire ne doit cependant pas empêcher votre organisation d’explorer des cas d’utilisation et des expériences d’IA. Assurez-vous simplement de procéder à une évaluation des risques pour tout projet pilote d’IA et de continuer à travailler en parallèle sur l’audit de l’IA à l’échelle de votre entreprise.

Évaluation des risques liés à l’IA

Maintenant que Coral Cloud dispose de son inventaire d’IA, l’équipe peut commencer à évaluer les risques auxquels l’organisation est confrontée en matière d’IA. Il s’agit d’une étape essentielle pour établir une gouvernance, mais elle peut également vous aider à vous préparer aux exigences réglementaires. Certaines politiques, comme la loi européenne sur l’intelligence artificielle, adoptent une approche fondée sur les risques pour gérer la technologie. Ainsi, si vous implémentez un processus d’évaluation des risques dès le début, vous serez plus susceptible de respecter les réglementations.

Voici comment Alex et l’équipe chargée de l’IA évaluent les risques liés à l’IA pour l’organisation.

Identification et catégorisation des facteurs de risque

Examinez l’inventaire de l’IA. Pour chaque cas d’utilisation, réfléchissez aux risques potentiels. Impliquez les parties prenantes de différents services de l’organisation, car elles pourraient relever des risques que vous n’aviez pas pris en compte. Une fois que vous avez une liste, catégorisez les risques en groupes logiques tels que techniques, éthiques, opérationnels, liés à la réputation, réglementaires, etc. Utilisez des catégories adaptées à votre entreprise.

Évaluation de l’impact et de la probabilité

Pour chaque risque, évaluez l’impact potentiel qu’il aurait sur votre entreprise. Déterminez ensuite la probabilité que chaque risque se produise. Ces facteurs peuvent être évalués comme faibles, moyens ou élevés. Les données historiques, les références du secteur et les avis d’experts sont précieux pour réaliser ces évaluations.

Hiérarchisation des risques

Utilisez l’impact et la probabilité pour hiérarchiser les risques. Une méthode courante consiste à utiliser une matrice de risques qui trace la probabilité par rapport à l’impact, vous aidant ainsi à vous concentrer sur les risques à fort impact et à forte probabilité.

Si vous ne savez pas par où commencer, téléchargez le modèle de cadre de gestion des risques liés à l’IA de Google DeepMind à partir du site du Centre de ressources sur l’IA du National Institute of Standards and Technology (NIST), ou faites des recherches pour trouver d’autres exemples en ligne. N’oubliez pas que chaque organisation doit développer un cadre adapté à son contexte spécifique, qui peut inclure la région géographique, le secteur d’activité, les cas d’utilisation et les exigences réglementaires.

Développement des stratégies d’atténuation des risques

Maintenant que le comité d’IA de Coral Cloud a terminé son évaluation, il est prêt à implémenter certaines stratégies pour atténuer tous ces risques. Vous trouverez ci-dessous quelques exemples de mesures de protection pour différents types de risques, mais gardez à l’esprit qu’il ne s’agit pas d’une liste exhaustive.

Type de risque

Stratégies d’atténuation des risques courantes

Technique et sécurité

  • Politiques et protocoles de sécurité
  • Systèmes de détection d’anomalies et options de secours
  • Infrastructure, propriété et hébergement d’IA sécurisés
  • Équipes rouges de cybersécurité

Données et confidentialité

  • Contrôles d’accès
  • Techniques d’anonymisation et de chiffrement des données
  • Audits réguliers des données
  • Politiques d’utilisation abusive des données
  • Normes de qualité en matière de données
  • Processus de nettoyage et de validation des données

Éthique et sécurité

  • Principes d’IA responsable
  • Politiques d’utilisation acceptable
  • Équipes rouges éthiques
  • Outils d’évaluation et d’atténuation des biais
  • Analyses comparatives des modèles
  • Transparence des modèles, comme l’explicabilité et les citations
  • Filigranes pour le contenu généré par l’IA
  • Mécanismes de commentaires
  • Journaux d’audit

Opérationnel

  • Évaluations des risques
  • Plans de réponse aux incidents
  • Gestion du changement
  • Documentation et formation à l’échelle de l’entreprise
  • Métriques et suivi
  • Examens éthiques internes pour les nouveaux produits et fonctionnalités de l’IA

Conformité et juridique

  • Protocoles de conformité et formation
  • Consultations juridiques et contrats

Alex et le reste de l’équipe de direction de l’IA de Coral Cloud savent qu’il est impossible d’éviter tous les risques liés à l’IA. Leur objectif est donc de développer des processus et des outils pour permettre à leur organisation d’identifier et de gérer les risques efficacement. Si vous souhaitez savoir comment implémenter la gouvernance de l’IA au sein de votre organisation, consultez le guide d’implémentation et d’auto-évaluation du blog du Forum économique mondial.

Amélioration de vos pratiques de gouvernance

Le comité d’IA de Coral Cloud sait que la gouvernance est un processus continu. Voici ce que l’organisation peut faire pour améliorer sa capacité à gérer les risques et mieux s’adapter à l’évolution du contexte réglementaire.

  • Formation et cours : implémenter une formation à la conformité de l’IA et mesurer la réussite du programme de formation. Favoriser une culture d’IA éthique et encourager les équipes à considérer l’impact global de leur travail.
  • Suivi et examen : surveiller régulièrement l’efficacité des stratégies de gestion des risques implémentées et procéder aux ajustements nécessaires. Il s’agit d’une étape cruciale, car de nouveaux risques apparaissent et les stratégies existantes doivent être affinées.
  • Documentation et rapports : conserver des enregistrements détaillés de toutes les activités d’atténuation des risques. Cette documentation peut être essentielle pour la conformité réglementaire et utile pour les audits internes. Développer des métriques pour les initiatives de gouvernance et communiquer les résultats aux parties prenantes.

Il est maintenant temps de s’intéresser à l’un des éléments les plus passionnants de la stratégie de l’IA : l’identification et la hiérarchisation des cas d’utilisation de l’IA.

Ressources

Partagez vos commentaires sur Trailhead dans l'aide Salesforce.

Nous aimerions connaître votre expérience avec Trailhead. Vous pouvez désormais accéder au nouveau formulaire de commentaires à tout moment depuis le site d'aide Salesforce.

En savoir plus Continuer à partager vos commentaires