Creare IA generativa in modo responsabile
Obiettivi di apprendimento
Al completamento di questa unità, sarai in grado di:
- Elencare i cinque principi dello sviluppo responsabile di IA generativa.
- Identificare le caratteristiche dell'IA generativa affidabile all'interno del prodotto Salesforce.
- Descrivere le best practice per identificare i rischi etici e creare misure di salvaguardia.
IA generativa: un nuovo tipo di intelligenza artificiale
Fino a poco tempo fa, la maggior parte delle persone che parlavano di IA si riferivano all'IA predittiva. Questo tipo di intelligenza artificiale è incentrata sull'analisi di un set di dati esistente e sull'elaborazione di previsioni limitate a ciò che dovrebbe essere vero in base alle informazioni date. Ora c'è un nuovo attore sulla scena: un tipo di IA emergente che è generativa e non predittiva. Qual è la differenza principale? Mentre l'IA predittiva analizza tendenze, l'IA generativa crea nuovi contenuti.
L'IA generativa vanta una straordinaria gamma di capacità: dalle interazioni in tempo reale con bot che simulano in modo efficace conversazioni con agenti dell'assistenza in carne e ossa ad applicazioni per esperti di marketing, programmatori e pionieri della creatività. Inoltre, il fenomeno culturale dell'IA generativa ha fatto sì che un gran numero di utenti si precipitasse a vedere cosa è in grado di fare. Questo significa che la maggior parte di noi probabilmente si imbatterà in questi algoritmi nella vita quotidiana, in cui potrebbero svolgere un ruolo sempre più significativo.
Tutte le tecnologie emergenti comportano delle incognite. Che si tratti di uso intenzionalmente scorretto o bias accidentale, l'IA generativa pone dei rischi che devono essere compresi e affrontati affinché sia possibile sfruttare al meglio questa tecnologia.
Conoscere i rischi
In Salesforce ci impegniamo a progettare, sviluppare e distribuire tecnologie in modo responsabile e affidabile. Per farlo consideriamo in anticipo le potenziali conseguenze previste e non previste di ciò che creiamo.
Esaminiamo alcuni potenziali rischi legati all'IA generativa.
Accuratezza
I modelli di IA generativa sono eccezionali nell'elaborazione di previsioni. Questi modelli creano nuovi contenuti raccogliendo un'enorme quantità di esempi di cose che rientrano nelle stesse categorie. Ma, anche se un modello può essere in grado di creare una nuova frase nello stile di uno scrittore famoso, non c'è modo di stabilire se quella frase è fedele alla realtà. Questo può essere un problema quando gli utenti danno per scontato che le previsioni di un'IA corrispondano a fatti verificabili. Questo aspetto è sia una funzionalità che un bug. Ai modelli sono state date capacità creative che hanno affascinato il pubblico sin dai primissimi tempi, ma è facile scambiare una cosa che sembra corretta per qualcosa che descrive accuratamente il mondo reale.
Bias e tossicità
Poiché le interazioni umane possono comportare un certo grado di tossicità (ossia comportamenti dannosi, come l'uso di insulti o l'adesione a pregiudizi), l'IA replica questa tossicità quando non è tarata per riconoscerla ed eliminarla. In realtà, l'IA può persino amplificare il bias che trova, perché elaborare previsioni spesso implica l'eliminazione di dati atipici, che per un'IA potrebbero includere comunità sottorappresentate.
Privacy e sicurezza
Le caratteristiche più interessanti dell'IA generativa sono la sua capacità di replicare il comportamento umano e la velocità con cui è in grado di farlo su vasta scala. Queste caratteristiche aprono possibilità straordinarie, ma il rovescio della medaglia è che è facile sfruttare la tecnologia per causare danni enormi in tempi molto brevi. I modelli sono caratterizzati da una tendenza a far trapelare i dati di addestramento, esponendo informazioni private che riguardano le persone che vi sono rappresentate. L'IA generativa può persino essere usata per creare email di phishing credibili o replicare una voce umana per aggirare la sicurezza.
Instabilità
A causa della quantità di cose che è in grado di fare, l'IA rappresenta un rischio per la società anche quando funziona correttamente. L'instabilità economica, i cambiamenti nel lavoro e nelle responsabilità e le preoccupazioni relative alla sostenibilità legate all'intensa potenza di calcolo necessaria per far funzionare i modelli hanno tutti un impatto sull'ambiente in cui viviamo.
Fiducia: la linea di base
In Salesforce, la fiducia è il valore numero uno, la stella polare che ci guida nello sviluppo e la distribuzione di applicazioni che utilizzano la tecnologia dell'IA generativa. Per orientare questo lavoro e aiutare gli altri a sfruttare il potenziale di questa tecnologia, evitando al contempo le sue insidie, abbiamo creato una serie di principi per lo sviluppo responsabile di IA generativa.
Accuratezza: l'IA generativa, come altri modelli, elabora previsioni in base ai dati utilizzati per addestrarla. Questo significa che ha bisogno di dati di qualità per produrre risultati accurati. E significa anche che bisogna essere consapevoli della possibilità che l'output di un'IA non sia accurato.
Sicurezza: la valutazione del bias, dell'esplicabilità e dell'affidabilità, insieme a stress test intenzionali volti a individuare risultati negativi, ci aiutano a tenere i clienti al sicuro da pericoli come la tossicità e i dati fuorvianti. Proteggiamo anche la privacy di tutte le informazioni che consentono di identificare le persone (PII, Personally Identifiying Information) che potrebbero essere incluse nei dati utilizzati per l'addestramento. Inoltre, creiamo barriere per impedire danni aggiuntivi, come la pubblicazione di codice su una sandbox piuttosto che direttamente in ambiente produzione.
Onestà: i dati dei nostri clienti non sono il nostro prodotto. Quando raccogliamo dati per addestrare e valutare i nostri modelli, dobbiamo rispettare la loro provenienza e assicurarci di avere il consenso al loro utilizzo (ad esempio, dati open source o forniti dagli utenti). Quando le persone utilizzano o conversano con un'IA, è anche importante avvertirle utilizzando una filigrana o un disclaimer, in modo che non sia possibile confondere un bot ben addestrato con un agente in carne ed ossa.
Valorizzazione: in alcuni casi la completa automazione dei processi è la soluzione migliore. Ma in altri casi l'IA dovrebbe svolgere un ruolo di supporto agli esseri umani, o nei casi in cui è necessario il discernimento umano. Il nostro obiettivo è potenziare le capacità umane sviluppando IA che migliora o semplifica il lavoro delle persone e offre ai clienti strumenti e risorse per comprendere la veridicità dei contenuti creati.
Sostenibilità: quando si parla di modelli di IA, più grande non significa migliore: in alcuni casi, modelli di dimensioni ridotte, ma ben addestrati, mostrano prestazioni migliori di modelli più grandi con un addestramento insufficiente. Trovare il giusto equilibrio tra potenza dell'algoritmo e sostenibilità a lungo termine è un elemento chiave del percorso che porterà l'IA generativa nel nostro futuro comune.
Le linee guida disciplinano l'azione dell'IA
Cosa significa dunque mantenere questi impegni? Ecco alcune iniziative che Salesforce sta adottando.
Einstein Trust Layer: Abbiamo incorporato Einstein Trust Layer nella piattaforma Salesforce per portare la sicurezza dell'IA generativa a un livello più elevato in Salesforce attraverso controlli sui dati e sulla privacy perfettamente integrati nell'esperienza dell'utente finale. Per saperne di più, leggi l'articolo Einstein Trust Layer nella guida.
Decisioni nella progettazione dei prodotti: gli utenti devono poter contare sul fatto che quando utilizzano l'IA ricevono informazioni e assistenza affidabili che li mettono in grado di soddisfare le proprie esigenze senza esporli al rischio di condividere informazioni non accurate o fuorvianti.
Integriamo la responsabilità nei nostri prodotti. Esaminiamo ogni elemento: dal colore dei pulsanti alla limitazione degli output stessi, per assicuraci di fare tutto il possibile per proteggere i clienti dai rischi senza sacrificare le funzionalità su cui fanno affidamento per continuare a essere competitivi.
Attrito riflessivo: gli utenti devono sempre avere accesso alle informazioni di cui hanno bisogno per prendere le decisioni migliori in relazione al loro caso d'uso. Noi li aiutiamo restare all'avanguardia attraverso un attrito discreto e attento. In questo caso, per "attrito" intendiamo l'interruzione del consueto processo di completamento di un'attività volta a incoraggiare la riflessione. Ad esempio, popup di assistenza in app che informano gli utenti sul bias, o segnalano il rilevamento di tossicità e chiedono agli agenti dell'assistenza clienti di rivedere una risposta con attenzione prima di inviarla.
Red teaming: per assicurarci che i nostri prodotti che utilizzano l'IA generativa siano in grado di resistere alle sollecitazioni, utilizziamo il red teaming, un processo che consiste nel cercare intenzionalmente di individuare vulnerabilità in un sistema anticipando e testando il modo in cui gli utenti lo utilizzano o ne abusano. Scopri di più su come Salesforce integra la fiducia nei propri prodotti completando il modulo Einstein Trust Layer in Trailhead.
Uno dei modi in cui testiamo i nostri prodotti è l'esecuzione di "attacchi con inserimento di prompt" a scopo precauzionale, attraverso la creazione di prompt progettati specificamente per fare in modo che un modello di IA ignori istruzioni o limiti stabiliti in precedenza. Anticipare minacce alla sicurezza informatica come queste è essenziale nel processo di perfezionamento del modello, affinché sia in grado di resistere ad attacchi reali.
Politica di utilizzo accettabile: Poiché l'IA riguarda tante applicazioni diverse, abbiamo politiche specifiche per i nostri prodotti che sfruttano questa tecnologia. Questo ci consente di stabilire in modo trasparente linee guida accettabili per l'utilizzo, allo scopo di assicurare la fiducia dei nostri clienti e utenti finali. Questo approccio non è una novità: Salesforce disponeva già di politiche sull'IA volte a proteggere gli utenti, incluso il divieto di utilizzare il riconoscimento facciale e di spacciare bot per esseri umani.
Attualmente stiamo aggiornando le nostre linee guida esistenti sull'IA affinché tengano in considerazione l'IA generativa, in modo che i nostri clienti possano continuare ad aver fiducia nella nostra tecnologia. Grazie all'aggiornamento delle nostre regole, man mano che offriamo prodotti e funzionalità con tecnologia IA ancora più avanzati, chiunque può verificare se il proprio caso d'uso è supportato. Per saperne di più, leggi la nostra Politica di utilizzo accettabile.
Il viaggio verso il futuro
L'IA generativa ha rivoluzionato il modo in cui le persone e le aziende collaborano. Anche se non abbiamo tutte le risposte, possiamo consigliare alcune best practice.
Collaborare
I partenariati interfunzionali tra aziende e tra istituzioni pubbliche ed enti privati sono essenziali per promuovere il progresso responsabile. I nostri team partecipano attivamente a comitati e iniziative esterne, come il Comitato consultivo nazionale sull'intelligenza artificiale (NAIAC, National AI Advisory Commitee) e il Framework di gestione dei rischi del NIST (National Institute of Standards and Technology), per contribuire alla promozione in tutto il settore dello sviluppo di un'IA generativa più affidabile.
Includere prospettive variegate
Durante l'intero ciclo di vita di un prodotto, la diversità delle prospettive offre l'ampiezza di orizzonti necessaria per anticipare i rischi in modo efficace e per sviluppare le soluzioni per affrontarli. Esercizi come l'analisi delle conseguenze contribuiscono a fare in modo che le opinioni più autorevoli riguardo allo stato dell'arte dell'IA generativa e la direzione in cui deve andare siano incorporate nei prodotti.
Anche l'IA più avanzata non è in grado di prevedere in che modo questa tecnologia plasmerà il futuro del lavoro, del commercio e, probabilmente, di tutto il resto. Ma se lavoriamo insieme, possiamo assicurare che i valori centrati sull'essere umano costituiscano una solida piattaforma di fiducia su cui è possibile costruire un futuro più efficiente e scalabile.
Risorse
- Salesforce Blog: Generative AI: 5 Guidelines for Responsible Development (IA generativa: 5 linee guida per lo sviluppo responsabile)
- Trailhead: Progettazione etica
- Sito web Salesforce: AI Acceptable Use Policy (Politica di utilizzo accettabile dell'IA)
- Guida: Einstein Trust Layer
- Trailhead: Einstein Trust Layer
- Trailhead: Nozioni di base sull'IA generativa