Exploration du parcours des invites
Objectifs de formation
Une fois cette unité terminée, vous pourrez :
- Expliquer comment la couche de confiance gère vos données en toute sécurité
- Décrire comment l’ancrage dynamique améliore la contextualisation des invites
- Décrire comment les garde-fous de sécurité offerts par la couche de confiance protègent vos données
Parcours des invites
Maintenant que vous en savez un peu plus sur la couche de confiance, découvrons comment elle contribue plus largement au déploiement de l’IA générative chez Salesforce. Dans cette unité, vous explorerez le parcours d’une invite à travers la couche de confiance Einstein avant d’être envoyée à un grand modèle de langage (LLM).
La défense des invites est disponible dans le générateur de répliques, l’API Prompt Template Connect et l’action invocable de modèle d’invite.
Le pouvoir des invites
Dans le module Trailhead Principes fondamentaux des invites, vous avez vu que les invites sont la source d’alimentation des applications d’IA générative. Vous avez également appris que des instructions claires, des informations contextuelles et des contraintes permettent de créer des invites efficaces qui génèrent une réponse pertinente de la part du LLM. Pour aider nos clients dans leurs démarches, nous avons prédéfini des modèles d’invites pour toutes sortes d’utilisations professionnelles, comme les e-mails commerciaux ou les réponses du service client. Lorsqu’une demande est adressée à la couche de confiance par l’une de nos applications Salesforce, un modèle d’invite pertinent est appelé par la couche de confiance.
Penchons-nous sur un scénario du service client pour illustrer le parcours de l’invite. En plus d’observer le modèle d’invite, vous découvrirez comment le modèle est rempli à partir des données client et des ressources pertinentes, et comment la couche de confiance Einstein protège les données avant qu’elles ne soient transférées vers un LLM externe pour générer une réponse pertinente en fonction de l’invite.
L’exemple de Jessica
Jessica travaille au service client d’une société de crédit à la consommation. Son entreprise vient d’implémenter Réponses de service, une fonctionnalité optimisée par Einstein qui génère des suggestions de réponses aux employés du service clientèle lorsqu’ils discutent avec leurs clients. Jessica a accepté d’être la première à l’essayer. Lorsqu’elle échange avec les clients, Jessica aime apporter sa touche personnelle. Elle est donc un peu inquiète que les réponses générées par l’IA ne reflètent pas tout à fait son style. Malgré tout, elle a très envie d’ajouter l’IA générative sur son CV, sans compter qu’elle est curieuse de voir si les réponses de service pourraient l’aider à mieux servir les clients.
Jessica commence à discuter avec son premier client de la journée, qui souhaiterait demander une carte de crédit plus avantageuse. La fonctionnalité Réponses de service commence à suggérer des réponses directement dans la Console de service. Les réponses sont actualisées chaque fois que le client envoie un nouveau message, pour qu’elles tiennent compte du contexte de la conversation. Les réponses sont également personnalisées à partir des données client stockées dans Salesforce. Chaque réponse suggérée est construite sur la base d’un modèle d’invite. Un modèle d’invite contient des instructions et des espaces réservés qui seront remplis avec des données commerciales : dans le cas présent, il s’agit des données relatives au client de Jessica et à sa demande d’assistance, ainsi que des données et des flux pertinents provenant de l’organisation de Jessica. Le modèle d’invite se trouve derrière la couche de confiance de Salesforce. Étant l’utilisatrice finale de la console de service, Jessica ne peut pas voir les modèles d’invite.
Examinons de plus près comment ces données transitent par la couche de confiance pour fournir des réponses pertinentes de qualité, tout en préservant la sécurité des données des clients.
Ancrage dynamique
Des réponses pertinentes de qualité nécessitent des données d’entrée pertinentes, qualitatives. Lorsque le client de Jessica rejoint la conversation, la fonctionnalité Réponses de service relie la conversation à un modèle d’invite et commence à remplacer les espaces réservés par des éléments de contexte de la page, des champs de fusion et des articles Knowledge pertinents issus du dossier client. C’est ce qu’on appelle l’ancrage dynamique. En général, plus une invite est ancrée dans le contexte, plus la réponse sera précise et pertinente. L’ancrage dynamique permet de recycler les modèles d’invites afin qu’ils puissent être utilisés par l’ensemble d’une organisation.
Première étape du processus d’ancrage dynamique : la récupération sécurisée des données. Il s’agit d’identifier les données pertinentes, issues de l’organisation de Jessica, concernant son client. Plus important encore, la récupération sécurisée des données respecte toutes les autorisations Salesforce actuellement en vigueur dans son organisation qui limitent l’accès à certaines données sur les objets, les champs, etc. Ainsi, Jessica récupère uniquement les informations auxquelles elle a le droit d’accéder. Les données récupérées ne contiennent aucune donnée personnelle, ni aucune information nécessitant des autorisations élevées.
Récupération sémantique (bientôt disponible)
Dans l’exemple de Jessica, les données client suffisent à personnaliser la conversation. En revanche, elles ne peuvent pas l’aider à résoudre rapidement et efficacement le problème du client. Jessica a besoin d’informations provenant d’autres sources de données, telles que des articles Knowledge et le dossier du client, pour répondre à ses questions et identifier des solutions. La fonctionnalité Récupération sémantique s’appuie sur des méthodes d’apprentissage automatique et de recherche pour trouver des informations pertinentes dans d’autres sources de données, qui peuvent être automatiquement insérées dans l’invite. En d’autres termes, Jessica n’a pas besoin de rechercher ces sources manuellement, ce qui lui permet de gagner du temps et de ménager ses efforts.
Dans notre exemple, la récupération sémantique a trouvé un article Knowledge pertinent pour aider à résoudre la demande de carte de crédit du client et a inséré le passage pertinent de l’article dans le modèle d’invite. Cette invite prend vraiment forme !
Masquage des données
Bien que l’invite contienne des données précises sur le client de Jessica et sa demande, elle ne peut pas encore l’envoyer au LLM, car elle contient le nom et l’adresse du client. La couche de confiance apporte un niveau de protection supplémentaire aux données du client de Jessica grâce au masquage des données. Le masquage des données consiste à tokéniser chaque valeur, de sorte que chaque valeur sera remplacée par un espace réservé correspondant à ce qu’elle représente. En d’autres termes, le LLM peut conserver le contexte de la conversation entre Jessica et son client, tout en générant une réponse pertinente.
Salesforce combine des techniques d’apprentissage automatique avancé et de correspondance de modèles pour identifier avec précision les informations des clients, telles que leur nom ou leurs données de carte de crédit, puis les masque. Le masquage des données s’effectue en arrière-plan, de sorte que Jessica n’a rien à faire pour empêcher que les données de ses clients soient transmises au LLM. Dans l’unité suivante, vous découvrirez comment ces données sont réintégrées dans la réponse.
Défense des invites
Le générateur de répliques fournit des garde-fous supplémentaires pour protéger Jessica et son client. Ces garde-fous sont des instructions envoyées au LLM pour lui indiquer comment il doit se comporter dans certaines situations afin d’éviter la génération d’informations non souhaitées ou préjudiciables. Par exemple, un LLM peut être invité à ne pas aborder un certain type de contenu ni générer des réponses sur lesquelles il n’a aucune information.
Les hackers, et parfois même les employés, cherchent à contourner les restrictions en place et à effectuer des tâches ou à manipuler les résultats du modèle d’une manière qui n’a pas été prévue. Dans l’IA générative, l’injection d’invite est l’une de ces attaques. Une défense d’invite peut vous aider à protéger vos invites contre ces attaques et à réduire le risque de compromettre vos données.
Voyons maintenant ce que devient cette invite lorsqu’elle passe par la passerelle sécurisée pour intégrer le LLM.
Ressources
-
Étude de Salesforce AI Research : Intelligence artificielle de confiance
-
Trailhead : Data Quality
-
Trailhead : Concepts de base de Prompt Builder