Skip to main content

Seguire il percorso dei prompt

Obiettivi di apprendimento

Al completamento di questa unità, sarai in grado di:

  • Spiegare come il Trust Layer gestisce i dati in modo sicuro.
  • Descrivere in che modo il Dynamic Grounding migliora il contesto dei prompt.
  • Descrivere in che modo il Trust Layer costituisce una salvaguardia per i dati.

Il percorso dei prompt

Hai appena imparato le nozioni di base sul Trust Layer, quindi possiamo dare uno sguardo alla sua collocazione nel quadro complessivo dell'IA generativa in Salesforce. In questa unità imparerai in che modo un prompt passa attraverso l'Einstein Trust Layer prima di arrivare al Large Language Model (LLM).

Nota

Questa unità descrive alcune funzionalità future di Einstein Trust Layer. Tutte le funzionalità o i servizi non ancora rilasciati a cui si fa riferimento in questo modulo non sono disponibili attualmente e potrebbero non essere forniti puntualmente o del tutto. I clienti devono basare le proprie decisioni di acquisto sulle funzionalità disponibili attualmente.

Einstein Trust Layer in cui è evidenziato il percorso dei prompt.

La difesa dei prompt è disponibile nel Generatore di prompt, nelle API Connect dei modelli di prompt e nelle azioni invocabili associate ai modelli di prompt.

Il potere dei prompt

Il modulo Trailhead Nozioni fondamentali sui prompt tratta del modo in cui i prompt sono alla base delle applicazioni di IA generativa. Il modulo spiega inoltre che istruzioni chiare, informazioni sul contesto e vincoli contribuiscono alla creazione di ottimi prompt, che a loro volta consentono all'LLM di restituire risposte eccellenti. Per rendere la creazione di prompt un processo semplice e omogeneo per i nostri clienti, abbiamo creato dei modelli di prompt predefiniti associati a diversi casi d'uso aziendali, come email promozionali o risposte dell'assistenza clienti. Quando una qualsiasi delle app Salesforce invia una richiesta al Trust Layer, quest'ultimo richiama un modello di prompt rilevante.

Esaminiamo in dettaglio un caso dell'assistenza clienti per illustrare il percorso dei prompt. Vedremo il modello del prompt, il modo in cui questo viene compilato con i dati del cliente e con le risorse pertinenti e come Einstein Trust Layer protegge i dati prima di passarli a un LLM esterno che dovrà generare una risposta che rispecchi il prompt.

Ti presentiamo Jessica

Jessica è un'agente dell'assistenza clienti presso un'azienda che gestisce carte di credito per una clientela consumer. La sua azienda ha appena implementato Risposte sul servizio, una funzionalità basata sulla tecnologia Einstein che genera suggerimenti per le risposte che gli agenti dell'assistenza possono fornire durante le chat con i clienti. Jessica ha accettato di essere tra i primi agenti a provare la funzionalità. Dal momento che è nota per il suo tocco personale quando lavora con i clienti, è un po' nervosa, perché teme che le risposte generate dall'IA possano non rispecchiare il suo stile. Tuttavia, è felice di poter aggiungere al suo curriculum un'esperienza con l'IA ed è curiosa di scoprire se Risposte sul servizio può aiutarla a servire un maggior numero di clienti.

Jessica inizia a chattare con il suo primo cliente del giorno, che ha bisogno di essere aiutato a effettuare l'upgrade della propria carta di credito. Risposte sul servizio inizia a suggerire risposte direttamente in Service Console. Le risposte vengono aggiornate ogni volta che il cliente invia un nuovo messaggio, quindi hanno senso nel contesto della conversazione e sono personalizzate per il cliente in base ai dati archiviati in Salesforce che lo riguardano. Ciascun suggerimento viene creato a partire da un modello di prompt. Un modello di prompt contiene istruzioni e segnaposto che vengono compilati utilizzando dati associati all'attività, in questo caso dati correlati al cliente di Jessica e al suo caso, oltre a dati e flussi pertinenti provenienti dall'organizzazione di Jessica. Salesforce Trust Layer si trova tra il modello di prompt e Jessica che, in quanto utente finale in Service Console, non può vedere i modelli di prompt.

Guardiamo più da vicino come i dati passano attraverso il Trust Layer per fornire risposte pertinenti di alta qualità, mantenendo allo stesso tempo i dati dei clienti protetti e al sicuro.

Un modello di prompt per l'assistenza clienti che include istruzioni e campi segnaposto.

Dynamic Grounding

Risposte pertinenti di alta qualità richiedono dati di input pertinenti di alta qualità. Quando il cliente di Jessica avvia la conversazione, Risposte sul servizio la collega a un modello di prompt e inizia a sostituire i campi segnaposto con contesto pagina, campi di unione e articoli Knowledge pertinenti a partire dal record del cliente. Questo processo è conosciuto come Dynamic Grounding. In generale, più è solido il fondamento su cui si basa un prompt, maggiori saranno l'accuratezza e la pertinenza della risposta. Il Dynamic Grounding è ciò che rende i modelli di prompt riutilizzabili, in modo che il loro uso possa essere esteso all'intera organizzazione.

Il processo di Dynamic Grounding inizia con il recupero sicuro dei dati, durante il quale vengono identificati i dati pertinenti relativi al cliente di Jessica nell'organizzazione. Ma soprattutto, durante il recupero sicuro dei dati vengono rispettate tutte le autorizzazioni di Salesforce in vigore in un dato momento nell'organizzazione, che limitano l'accesso a determinati dati in oggetti, campi e così via. In questo modo, siamo sicuri che vengano recuperati solo i dati a cui Jessica è autorizzata ad accedere. I dati che vengono recuperati non contengono informazioni private o altri elementi che richiedano autorizzazioni di livello superiore.

Nota

Tramite il Dynamic Grounding vengono estratti dati dall'organizzazione. Pertanto, è importante assicurarsi che i dati siano aggiornati, accurati e completi. Visita il modulo Trailhead Qualità dei dati per scoprire come assicurare l'integrità e la pulizia dei dati.

Il modello di prompt per l'assistenza clienti compilato con i dati recuperati dall'organizzazione di Jessica.

Recupero semantico (non ancora disponibile al pubblico)

Nel caso di Jessica, i dati del cliente sono sufficienti per personalizzare la conversazione. Ma non sono sufficienti per aiutare Jessica a risolvere il problema del cliente in modo rapido ed efficace. Per rispondere alle domande e identificare soluzioni, Jessica ha bisogno di informazioni provenienti da altre origini di dati, come gli articoli Knowledge e la cronologia del cliente. Il recupero semantico utilizza il machine learning e metodi di ricerca per trovare informazioni pertinenti in altre origini di dati che possono essere incluse automaticamente nel prompt. Questo significa che Jessica non deve cercare queste informazioni manualmente, il che le consente di risparmiare tempo e lavoro.

Nel nostro caso, il recupero semantico ha trovato un articolo Knowledge pertinente che può aiutare a risolvere il problema relativo alla carta di credito e ha incluso il frammento dell'articolo rilevante nel modello di prompt. Adesso il prompt sta davvero prendendo forma!

Il modello di prompt per l'assistenza clienti compilato con un estratto da un articolo Knowledge.

Mascheramento dei dati

Anche se contiene dati accurati sul cliente di Jessica e sul suo problema, il prompt non è ancora pronto per passare all'LLM, in quanto contiene informazioni come nomi e indirizzi del cliente. Grazie al mascheramento dei dati, il Trust Layer aggiunge un ulteriore livello di protezione dei dati del cliente di Jessica. Il mascheramento dei dati comporta la tokenizzazione di ciascun valore, in modo che tale valore venga sostituito con un segnaposto basato su quello che rappresenta. Questo significa che l'LLM può conservare il contesto della conversazione di Jessica con il suo cliente e generare comunque una risposta pertinente.

Salesforce utilizza la ricerca di corrispondenze mediante pattern insieme a tecniche avanzate di machine learning per identificare in modo intelligente dettagli relativi ai clienti, come nomi e informazioni sulle carte di credito, quindi li maschera. Il mascheramento dei dati avviene dietro le quinte, quindi non è necessario che Jessica intervenga per impedire che i dati del suo cliente vengano esposti all'LLM. Nella prossima unità imparerai in che modo i dati vengono inseriti nuovamente nella risposta.

Il modello di prompt per l'assistenza clienti che mostra i dati protetti tramite mascheramento con segnaposto tokenizzati.

Difesa dei prompt

Il Generatore di prompt fornisce salvaguardie aggiuntive per proteggere Jessica e il suo cliente. Queste salvaguardie sono ulteriori istruzioni per l'LLM che indicano come deve comportarsi in determinate situazioni per ridurre le probabilità che il suo output contenga elementi imprevisti o dannosi. Ad esempio, è possibile istruire l'LLM in modo che non affronti contenuti o generi risposte su argomenti per i quali non gli sono state fornite informazioni.

Gli hacker, e talvolta anche i dipendenti, sono sempre alla ricerca di modi di aggirare le restrizioni e tentare di eseguire operazioni o manipolare l'output del modello secondo modalità non previste dalla sua progettazione. Nell'ambito dell'IA generativa, questi attacchi sono noti come Prompt Injection. La difesa dei prompt può contribuire alla protezione da questi attacchi e a ridurre la probabilità di compromissione dei dati.

Il modello per l'assistenza che mostra le istruzioni di difesa fornite all'LLM per la generazione del prompt.

Ora possiamo passare all'esame di cosa succede al prompt quando attraversa il gateway sicuro per passare all'LLM.

Risorse

Condividi il tuo feedback su Trailhead dalla Guida di Salesforce.

Conoscere la tua esperienza su Trailhead è importante per noi. Ora puoi accedere al modulo per l'invio di feedback in qualsiasi momento dal sito della Guida di Salesforce.

Scopri di più Continua a condividere il tuo feedback