Skip to main content

Seguire il percorso delle risposte

Obiettivi di apprendimento

Al completamento di questa unità, sarai in grado di:

  • Descrivere il percorso delle risposte.
  • Spiegare la politica di non conservazione dei dati.
  • Discutere dell'importanza del rilevamento del linguaggio tossico.
Nota

Questa unità descrive alcune funzionalità future di Einstein Trust Layer. Tutte le funzionalità o i servizi non ancora rilasciati a cui si fa riferimento in questo modulo non sono disponibili attualmente e potrebbero non essere forniti puntualmente o del tutto. I clienti devono basare le proprie decisioni di acquisto sulle funzionalità disponibili attualmente.

Rapido esame del percorso dei prompt

Puoi già vedere le fasi che Salesforce, con prudenza, attraversa con Einstein Trust Layer per proteggere i dati aziendali e dei clienti di Jessica. Prima di approfondire, rivedi rapidamente il percorso dei prompt.

  1. Un modello di prompt è stato estratto automaticamente da Risposte sul servizio per aiutare Jessica a risolvere il caso di assistenza di un suo cliente.
  2. Nel modello di prompt, i campi di unione sono stati precompilati con dati affidabili e protetti recuperati dall'organizzazione di Jessica.
  3. Per fornire maggiori informazioni di contesto per il prompt sono stati recuperati e inclusi articoli Knowledge e dettagli da altri oggetti.
  4. Le Informazioni personali (PII, Personally Identifiable Information) sono state mascherate.
  5. Sono state applicate salvaguardie aggiuntive per proteggere ulteriormente il prompt.
  6. Ora il prompt è pronto per attraversare il gateway sicuro per passare al Large Language Model (LLM) esterno.

Processo Einstein Trust Layer in cui ogni passaggio del percorso dei prompt è numerato da 1 a 6 per illustrare l'ordine in cui si svolge.

Gateway LLM sicuro

Ora che è stato compilato con dati pertinenti e protetto da misure apposite, il prompt è pronto per attraversare il confine di Salesforce Trust, passando attraverso il gateway LLM sicuro per raggiungere gli LLM connessi. In questo caso, l'LLM a cui è connessa l'organizzazione di Jessica è OpenAI. OpenAI usa questo prompt per generare una risposta pertinente e di alta qualità che Jessica potrà utilizzare nella sua conversazione con il cliente.

Nota

Il modo in cui il prompt interagisce con il Trust Layer potrebbe variare quando interagisce con LLM che risiedono all'interno del perimetro di Salesforce Trust, ad esempio gli LLM Salesforce sviluppati internamente.

Non conservazione dei dati

Se Jessica utilizzasse uno strumento LLM rivolto ai consumatori, ad esempio un chatbot bassato su IA generativa, senza un solido Trust Layer, il suo prompt, inclusi tutti i dati dei suoi clienti, e perfino la risposta dell'LLM, potrebbero essere archiviati dall'LLM per l'addestramento del modello. Tuttavia, un eventuale partenariato tra Salesforce e un LLM esterno basato su API deve essere soggetto a un accordo che tuteli la sicurezza dell'intera interazione, denominato non conservazione dei dati. La nostra politica di non conservazione dei dati prevede che nessun dato dei clienti, compresi il testo dei prompt e le risposte generate, sia archiviato all'esterno di Salesforce.

Primo piano del processo di invio di un prompt all'LLM attraverso il gateway sicuro, che mostra che nessun dato viene conservato dall'LLM.

Ecco come funziona: il prompt di Jessica viene inviato a un LLM (ricorda che quel prompt è un'istruzione). L'LLM riceve il prompt e, seguendo le istruzioni che contiene e applicando le salvaguardie, genera una o più risposte.

Normalmente, OpenAI conserva i prompt e le relative risposte per un determinato periodo di tempo per verificare che non siano presenti di abusi. Gli LLM di OpenAI, che sono estremamente potenti, controllano se nei loro modelli si verifica qualcosa di inusuale, ad esempio attacchi di tipo Prompt Injection, come illustrato nell'unità precedente. Tuttavia, la nostra politica di non conservazione dei dati impedisce ai partner degli LLM di conservare qualsiasi dato incluso nell'interazione. Abbiamo stretto un accordo per cui siamo noi a gestire questo tipo di moderazione.

Non consentiamo a OpenAI di archiviare nulla. Pertanto, quando un prompt viene inviato a OpenAI, il modello dimentica sia il prompt sia le risposte non appena queste vengono restituite a Salesforce. Questo è importante perché permette a Salesforce di gestire la moderazione dei propri contenuti e degli abusi. Inoltre, gli utenti come Jessica non devono preoccuparsi del fatto che i fornitori di LLM conservino e utilizzino i dati dei loro clienti.

Percorso delle risposte

Quando abbiamo presentato Jessica, abbiamo detto che era un po' preoccupata all'idea che le risposte generate dall'IA potessero non corrispondere al suo livello di coscienziosità. Non sa bene cosa aspettarsi, ma non deve preoccuparsi perché questo aspetto è gestito da Einstein Trust Layer, che offre diverse funzionalità che contribuiscono a mantenere la conversazione personalizzata e professionale.

Einstein Trust Layer che evidenzia il percorso delle risposte.

Finora, abbiamo visto che il modello di prompt della conversazione di Jessica con il suo cliente è stato compilato con dati rilevanti sul cliente e informazioni utili riguardo al contesto del caso. Ora, l'LLM ha assimilato quei dettagli e ha restituito una risposta inviandola all'interno del perimetro di Salesforce Trust. Tuttavia la risposta non è ancora pronta per essere utilizzata da Jessica: anche se il tono è amichevole e il contenuto accurato, deve comunque essere controllata dal Trust Layer per escludere la presenza di risultati indesiderati. Inoltre, la risposta contiene ancora blocchi di dati mascherati e Jessica la giudicherebbe troppo impersonale per poterla condividere con il suo cliente. Prima di condividere la risposta con Jessica, il Trust Layer deve ancora eseguire alcune operazioni importanti.

Una risposta dell'assistenza clienti che mostra informazioni personali mascherate e un link a un articolo Knowledge pertinente.

Rilevamento del linguaggio tossico e rimozione del mascheramento dei dati

Accadono due cose importanti quando la risposta per la conversazione di Jessica viene ritrasmessa dall'LLM all'interno del perimetro di Salesforce Trust Boundary. Innanzitutto, viene controllata per escludere la presenza di tossicità. Lo strumento di valutazione di Salesforce, costruito con un insieme di modelli di deep learning, analizza la risposta alla ricerca di eventuali elementi tossici. Ti chiederai: "Di cosa si tratta?". Il rilevamento del linguaggio tossico protegge Jessica e i suoi clienti dalle risposte con contenuti tossici, violenti, fisici, offensivi, con connotazioni sessuali, che incitano all'odio e che rendono identificabili i soggetti coinvolti. Lo strumento assegna un punteggio alla risposta iniziale applicando queste categorie e la ritrasmette all'applicazione da cui è stato chiamato inizialmente (in questo caso, Risposte sul servizio).

Successivamente, prima che il prompt venga condiviso con Jessica, Trust Layer deve mostrare i dati mascherati a cui abbiamo accennato prima, per far sì che la risposta sia personale e pertinente rispetto al cliente di Jessica. Per rimuovere il mascheramento dei dati, il Trust Layer utilizza gli stessi dati tokenizzati che abbiamo salvato durante l'operazione di mascheramento iniziale. Una volta rimosso il mascheramento dei dati, la risposta viene condivisa con Jessica.

Inoltre, nella risposta noterai la presenza in calce di un link alla fonte. Creazione articoli Knowledge (versione pilota) aggiunge credibilità alle risposte includendo link ad articoli provenienti da fonti utili.

Risposta dell'assistenza consigliata in cui il mascheramento dei dati è stato rimosso e in cui è incluso un link a un articolo Knowledge.

Framework dei feedback (non ancora disponibile al pubblico)

Ora, quando vede la risposta per la prima volta, Jessica sorride. È colpita dalla qualità e dal livello di dettaglio della risposta che ha ricevuto dall'LLM. È anche soddisfatta di quanto sia in linea con il suo personale stile di gestione dei casi. Mentre rilegge la risposta prima di inviarla al cliente, Jessica vede che può scegliere di accettarla così com'è, modificarla prima di inviarla o ignorarla.

Può anche (1) lasciare un feedback sotto forma di "mi piace" o "non mi piace" e (2) se la risposta non le è stata utile, può specificare il motivo. Il feedback viene raccolto e, in futuro, potrà essere utilizzato in sicurezza per migliorare la qualità dei prompt.

Framework dei feedback di Einstein.

Audit Trail

C'è un ultimo aspetto del Trust Layer che devi conoscere. Ricordi la politica di non conservazione dei dati di cui abbiamo parlato all'inizio di questa unità? Dato che il Trust Layer gestisce internamente il punteggio e la moderazione del linguaggio tossico, teniamo traccia di ogni passaggio che avviene durante l'intero percorso dal prompt alla risposta.

Tutto ciò che viene alla luce nel corso dell'interazione complessiva tra Jessica e il suo cliente corrisponde a metadati con data e ora che noi raccogliamo in un audit trail, che include il prompt, la risposta originale non filtrata, eventuali punteggi relativi al linguaggio tossico e il feedback raccolto lungo il percorso. L'audit trail di Einstein Trust Layer aggiunge un livello di trasparenza per cui Jessica può essere certa che i dati del suo cliente sono protetti.

Risposta dell'assistenza clienti che mostra l'audit trail e i metadati con data e ora.

Sono successe molte cose da quando Jessica ha iniziato ad assistere il suo cliente, ma tutto è accaduto in un batter d'occhio. In pochi secondi, la sua conversazione è passata da un prompt richiamato da una chat, attraverso la sicurezza dell'intero processo del Trust Layer, fino a una risposta pertinente e professionale che può essere condivisa con il cliente.

Jessica chiude il caso sapendo che il cliente è soddisfatto della risposta ricevuta e dell'esperienza con l'Assistenza clienti. E, soprattutto, è contenta di poter continuare a usare la potenza dell'IA generativa di Risposte sul servizio, dato che sa con certezza che la aiuterà a chiudere i casi più velocemente e a soddisfare i suoi clienti.

Ciascuna delle soluzioni di IA generativa di Salesforce segue lo stesso percorso del Trust Layer. Tutte le nostre soluzioni sono sicure, quindi hai la certezza che i tuoi dati, come quelli dei tuoi clienti, sono al sicuro.

Complimenti: hai appena imparato come funziona Einstein Trust Layer! Per saperne di più su cosa fa Salesforce riguardo all'IA generativa, guadagna il badge Trailhead Creare intelligenza artificiale in modo responsabile.

Risorse

Condividi il tuo feedback su Trailhead dalla Guida di Salesforce.

Conoscere la tua esperienza su Trailhead è importante per noi. Ora puoi accedere al modulo per l'invio di feedback in qualsiasi momento dal sito della Guida di Salesforce.

Scopri di più Continua a condividere il tuo feedback