Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Création d’une IA générative responsable

Objectifs de formation

Une fois cette unité terminée, vous pourrez :

  • Énumérer les cinq principes d’un développement responsable de l’IA générative
  • Identifier les fonctionnalités fiables de l’IA générative dans le produit Salesforce
  • Décrire les meilleures pratiques d’identification des risques éthiques et créer des garde-fous

L’IA générative, un nouveau type d’intelligence artificielle

Jusqu’à récemment, la plupart des personnes qui parlaient d’IA faisaient référence à l’IA prédictive. Ce type d’intelligence artificielle se concentre sur l’examen d’un ensemble de données existant et sur la réalisation de prédictions limitées concernant ce qui devrait être vrai, compte tenu des informations disponibles. Mais un nouvel acteur fait son entrée sur scène : un type émergent d’IA qui est générative et non prédictive. Quelle est la principale différence ? Tandis que l’IA prédictive analyse des tendances, l’IA générative crée du contenu.

L’intelligence artificielle générative (IA générative) offre une gamme impressionnante de fonctionnalités, depuis les conversations en temps réel avec des robots qui simulent efficacement un échange avec un agent d’assistance en direct jusqu’aux applications destinées aux marketeurs, aux programmeurs et aux pionniers de la créativité. De plus, l’avènement culturel de l’IA générative incite les utilisateurs à affluer pour faire l’expérience de ses capacités. Ainsi, la plupart d’entre nous rencontreront probablement ces algorithmes dans la vie quotidienne, où ils pourraient jouer un rôle de plus en plus incontournable.

Toute technologie émergente s’accompagne d’inconnues. Qu’il s’agisse d’abus intentionnels ou de biais accidentels, l’IA générative présente des risques qui doivent être compris et gérés afin de tirer le meilleur parti de cette technologie.

Présentation des risques

Chez Salesforce, nous nous concentrons sur la conception, le développement et la distribution de technologies de manière responsable et fiable. Pour ce faire, nous anticipons les conséquences prévues et imprévues de ce que nous créons.

Passons en revue quelques risques potentiels posés par l’IA générative.

Précision

Les modèles d’IA générative sont excellents en matière de prédictions. Ils créent du contenu en rassemblant des tonnes d’exemples qui entrent dans les mêmes catégories. Cependant, même si un modèle peut être capable de créer une phrase nouvelle en imitant le style d’un écrivain célèbre, il n’existe aucun moyen de savoir si cette phrase est factuelle. Cela peut poser problème si les utilisateurs partent du principe que les prédictions d’une IA sont des faits vérifiés. C’est à la fois une fonctionnalité et un bug : cela donne aux modèles les capacités créatives qui ont captivé l’imagination des utilisateurs dès leurs débuts. Cependant, il est facile de confondre un élément qui semble correct avec quelque chose qui correspond effectivement au monde réel. 

Biais et toxicité

Étant donné que les interactions humaines peuvent être toxiques, c’est-à-dire impliquer des comportements nuisibles comme les insultes ou le sectarisme, l’IA reproduit cette toxicité lorsqu’elle n’est pas calibrée pour la reconnaître et la filtrer. Elle peut même amplifier les biais constatés, car la formulation de prédictions implique souvent d’écarter les données aberrantes. Pour une IA, ces données peuvent inclure les communautés sous-représentées. 

Confidentialité et sécurité

Les deux caractéristiques les plus convaincantes de l’IA générative sont sa capacité à reproduire le comportement humain et la rapidité pour le faire à grande échelle. Ces fonctionnalités offrent des possibilités étonnantes, mais elles présentent un inconvénient : il est facile d’exploiter la technologie pour causer d’énormes dégâts très rapidement. Les modèles ont tendance à « divulguer » leurs données de formation, exposant ainsi des informations confidentielles sur les personnes qui y sont représentées. Et l’IA générative peut même être utilisée pour créer des e-mails d’hameçonnage crédibles ou reproduire une voix afin de contourner des contrôles de sécurité. 

Perturbation

En raison de toutes ses capacités, l’IA présente un risque pour la société, même lorsqu’elle fonctionne comme prévu. Les perturbations économiques, les changements dans les métiers et les responsabilités, ainsi que les préoccupations en matière de durabilité liées à l’énorme puissance de calcul requise pour le fonctionnement des modèles ont tous des implications sur les espaces où nous cohabitons. 

Site : En résumé

La confiance est la valeur principale chez Salesforce, c’est notre boussole lorsque nous créons et déployons des applications d’IA générative. Afin de guider notre travail, nous avons élaboré un ensemble de principes pour développer l’IA générative de manière responsable et aider tout un chacun à exploiter le potentiel de la technologie tout en se prémunissant contre ses pièges.

Précision : l’IA générative, comme d’autres modèles, fait des prédictions en fonction de données sur lesquelles elle a été entraînée. Cela signifie qu’elle a besoin de données de qualité pour fournir des résultats précis, mais aussi que ses utilisateurs doivent être conscients des risques d’inexactitude ou d’incertitude dans les résultats d’une IA.

Sécurité : les évaluations des biais, d’explicabilité et de robustesse, ainsi que les tests de résistance délibérés de détection des résultats négatifs, nous aident à protéger nos clients des dangers tels que la toxicité et les données trompeuses. Nous protégeons également la confidentialité de toutes les informations personnelles identifiables présentes dans les données utilisées pour la formation. Enfin, nous mettons en place des garde-fous pour éviter des dommages supplémentaires (comme la publication du code dans une sandbox plutôt que sa publication automatique en production).

Honnêteté : vos données ne sont pas notre produit. Lors de la collecte de données pour entraîner et évaluer nos modèles, nous devons respecter leur provenance et nous assurer que nous disposons d’un consentement pour leur utilisation (par exemple, des données open source ou fournies par l’utilisateur). Il est également important d’informer les personnes, grâce à un filigrane ou un avertissement, lorsqu’elles utilisent ou dialoguent avec une IA, afin qu’elles ne confondent pas un agent conversationnel bien calibré avec un agent humain.

Autonomisation : dans certains cas, il est préférable d’automatiser entièrement les processus. Mais il existe d’autres situations dans lesquelles l’IA doit jouer un rôle de soutien auprès de l’humain, ou dans lesquelles le jugement humain est indispensable. Nous visons à maximiser ce que les humains peuvent faire en développant une IA qui améliore ou simplifie leur travail et donne aux clients des outils et des ressources leur permettant d’appréhender la véracité du contenu qu’ils créent. 

Durabilité : s’agissant des modèles d’IA, plus grand ne signifie pas toujours meilleur. Dans certains cas, les modèles plus petits et mieux entraînés surpassent les modèles plus grands et moins bien entraînés. Trouver le bon équilibre entre la puissance algorithmique et la durabilité à long terme est un élément clé pour intégrer l’IA générative dans notre avenir commun.

L’action de l’IA est régie par plusieurs lignes directrices

Comment ces engagements se traduisent-ils concrètement ? Voici quelques actions prises par Salesforce.

Couche de confiance Einstein Nous avons intégré la couche de confiance Einstein à la plate-forme Salesforce afin de renforcer la sécurité de l’IA générative grâce à des contrôles relatifs aux données et à la confidentialité parfaitement intégrés à l’expérience utilisateur. Pour en savoir plus, reportez-vous à la section relative à la couche de confiance Einstein dans l’aide.

Décisions de conception des produits : les utilisateurs doivent pouvoir être assurés que lorsqu’ils utilisent l’IA, ils obtiennent des informations et une assistance fiables qui leur permettent de répondre à leurs besoins sans les exposer au risque de partager des informations inexactes ou trompeuses. 

Nous intégrons la responsabilité dans nos produits. Nous examinons tout, de la couleur des boutons aux limitations des résultats eux-mêmes, afin de nous assurer que nous faisons tout notre possible pour protéger les clients des risques sans compromettre les capacités sur lesquelles ils comptent pour rester compétitifs. 

Interruptions minutieuse : les utilisateurs doivent toujours disposer des informations dont ils ont besoin afin de prendre la meilleure décision pour leur cas d’utilisation. Nous aidons nos utilisateurs à garder une longueur d’avance grâce à des interruptions discrètes, mais appliquées minutieusement. Dans ce cas, cela consiste à interrompre le processus habituel de réalisation d’une tâche pour encourager la réflexion. Par exemple, des fenêtres contextuelles de guide dans l’application pour informer les utilisateurs sur les biais, ou signaler une toxicité détectée et demander aux agents du service client d’examiner attentivement la réponse avant de l’envoyer.

Équipes rouges : nous utilisons les équipes rouges, un processus qui consiste à essayer intentionnellement de trouver des vulnérabilités dans un système en anticipant et en testant la manière dont les utilisateurs pourraient l’utiliser et en faire un mauvais usage, pour nous assurer que nos produits d’IA générative résistent à la pression. Découvrez comment Salesforce renforce la confiance dans nos produits avec la couche de confiance Einstein dans Trailhead.

L’une des façons dont nous testons nos produits consiste à effectuer des « attaques par injection d’invites » préventives, en créant des invites spécialement conçues pour qu’un modèle d’IA ignore les instructions ou les limites précédemment établies. Anticiper les menaces de cybersécurité réelles comme celles-là est essentiel pour affiner le modèle afin qu’il résiste aux attaques réelles.

Politique d’utilisation acceptable : étant donné que l’IA concerne de nombreuses applications différentes, nous avons des politiques spécifiques pour nos produits d’IA. Elles nous permettent de définir de manière transparente des directives d’utilisation acceptables qui garantissent la confiance de nos clients et utilisateurs finaux. Cette approche n’est pas nouvelle : Salesforce disposait déjà de politiques en matière d’IA conçues pour protéger les utilisateurs, notamment l’interdiction de la reconnaissance faciale et des robots se faisant passer pour des humains. 

Nous actualisons actuellement nos directives existantes en matière d’IA pour tenir compte de l’IA générative, afin que les clients puissent continuer à faire confiance à notre technologie. Grâce à la mise à jour de nos règles, chacun peut voir si son cas d’utilisation est pris en charge, à mesure que nous proposons des produits et des fonctionnalités d’IA encore plus avancés. Vous pouvez en savoir plus en consultant notre Politique d’utilisation acceptable

L’IA générative change la donne dans la collaboration entre les personnes et les entreprises. Même si nous n’avons pas toutes les réponses, nous souhaitons suggérer quelques meilleures pratiques.

Collaboration

Les partenariats transversaux, au sein des entreprises et entre les organismes publics et privés, sont essentiels pour encourager des progrès responsables. Nos équipes participent activement à des comités et initiatives externes comme le NAIAC (Comité national de conseil sur l’intelligence artificielle) et le cadre de gestion des risques du NIST afin de contribuer aux efforts déployés à l’échelle du secteur pour créer une IA générative plus fiable.

Inclusion de points de vue différents

Tout au long du cycle de vie des produits, les points de vue différents fournissent des informations approfondies nécessaires pour anticiper efficacement les risques et mettre au point des solutions. Des exercices comme l’analyse des conséquences peuvent vous aider à garantir que vos produits intègrent des voix essentielles dans vos échanges sur la situation actuelle de l’IA générative et sur son orientation à l’avenir.

Même l’IA la plus avancée ne peut pas prédire comment cette technologie façonnera l’avenir du travail, du commerce et, vraisemblablement, de tout le reste. Cependant, en travaillant ensemble, nous pouvons garantir que les valeurs centrées sur l’humain permettent d’obtenir des fondations de confiance sur lesquelles construire un avenir plus efficace et plus évolutif.

Ressources

Partagez vos commentaires sur Trailhead dans l'aide Salesforce.

Nous aimerions connaître votre expérience avec Trailhead. Vous pouvez désormais accéder au nouveau formulaire de commentaires à tout moment depuis le site d'aide Salesforce.

En savoir plus Continuer à partager vos commentaires