Skip to main content

Rimuovere il bias dai dati e dagli algoritmi

Obiettivi di apprendimento

Al completamento di questa unità, sarai in grado di:

  • Identificare i fattori che sono esclusi o sovrarappresentati nel tuo set di dati.
  • Spiegare il vantaggio dell'eseguire analisi pre-mortem per ridurre il bias di interazione.
  • Preparare un piano per assicurare che non siano stati introdotti nuovi bias nei tuoi risultati.

Gestire i rischi dei bias

Abbiamo parlato dei diversi tipi di bias da prendere in esame quando si lavora con l'IA. Ora veniamo al sodo: come prevenire o gestire i rischi che pongono. Non è possibile far sparire magicamente i bias dai dati di addestramento. Rimuovere l'esclusione pone un problema al contempo tecnico e sociale: puoi prendere precauzioni a livello di team quando scegli come pianificare o eseguire il tuo prodotto, oltre a modificare i dati a tua disposizione. 

Condurre analisi pre-mortem

Come abbiamo discusso nella prima unità, per creare un prodotto in modo responsabile bisogna iniziare dallo sviluppo di una cultura etica. Un modo per farlo è integrare analisi pre-mortem nel proprio flusso di lavoro. 

Un'analisi pre-mortem è il contrario di un'analisi post-mortem: è l'opportunità di capire "cosa è andato storto" prima ancora che accada. Spesso, i membri del team possono esitare a comunicare le loro riserve durante la fase di pianificazione di un progetto. In un'area sensibile come l'IA, è di estrema importanza che tu e il tuo team siate aperti in merito a qualsiasi dubbio possiate avere, anche se può creare qualche disagio. Tenere una riunione di questo tipo può servire a frenare l'istinto di buttare all'aria la prudenza, presi dall'entusiasmo iniziale del progetto, e a definire aspettative calibrate e realistiche. 

Identificare i fattori esclusi o sovrarappresentati nel set di dati

Prendi in esame i fattori sociali e culturali profondi che si riflettono nel tuo set di dati. Come abbiamo visto in dettaglio nell'unità precedente, qualsiasi bias a livello di set di dati può influenzare il sistema IA di generazione di consigli e rappresentare troppo, o troppo poco, un gruppo.

Ecco alcuni modi in cui puoi gestire il bias nei tuoi dati, dal punto di vista tecnico. Queste tecniche non sono affatto esaustive.

Che cosa: gli schemi statistici che si applicano alla maggioranza possono non essere validi per un gruppo di minoranza.

Come: valuta la possibilità di creare algoritmi diversi per gruppi diversi invece di usare una soluzione universale.

Che cosa: alcune persone sono escluse dal tuo set di dati, e quell'esclusione influisce sull'utenza. Il contesto e la cultura sono importanti, ma potrebbe essere impossibile vederne gli effetti nei dati.

Come: cerca quelli che i ricercatori chiamano gli unknown unknowns (ciò che non sappiamo di non sapere), ovvero quegli errori che si verificano quando un modello mostra un'elevato grado di sicurezza riguardo a una previsione che di fatto è sbagliata. Gli unknown unknowns si contrappongono ai known unknowns (ciò che sappiamo di non sapere), ovvero le previsioni errate che il modello elabora con un basso grado di sicurezza. Analogamente a quando genera contenuti, un modello può produrre informazioni che non hanno alcuna relazione fattuale con la tua richiesta.

Valutare regolarmente i dati di addestramento

Come abbiamo già detto, lo sviluppo di un sistema di IA inizia dai dati di addestramento. Devi risolvere scrupolosamente i problemi di qualità dei dati nelle primissime fasi del processo. Accertati di rettificare estremi, duplicati, outlier e ridondanze in CRM Analytics o in altri strumenti per la preparazione dei dati.

Prima di rendere disponibili i tuoi modelli, assicurati di eseguire delle prove pre-rilascio affinché il tuo sistema non generi previsioni o giudizi falsati dal bias che impattano sulle persone nel mondo reale. Accertarti che siano stati testati, in modo che non creino danni. Vuoi poter garantire che il tuo prodotto funzioni su diverse comunità per non avere sorprese al momento del rilascio. 

Dopo aver rilasciato un modello, sviluppa un sistema per controllare periodicamente i dati da cui i tuoi algoritmi apprendono e i consigli generati dal sistema. Pensa ai tuoi dati come a qualcosa che si degrada nel tempo: non funzionano per tutti all'infinito. Sul versante tecnico, più dati entrano in un sistema più l'algoritmo impara. Una conseguenza è che il sistema potrebbe arrivare a identificare e trovare corrispondenze in modelli che chi sviluppa il prodotto non aveva previsto o auspicato. 

Sul versante sociale, i valori culturali cambiano nel tempo. I risultati dei tuoi algoritmi potrebbero non essere più in linea con i sistemi di valori delle comunità che servono. Due modi in cui puoi affrontare queste sfide sono i processi di revisione comunitari a pagamento per correggere le sviste e la creazione di meccanismi nel tuo prodotto che consentano a singole persone e utenti di rifiutare o correggere i dati che li riguardano. I processi di revisione comunitari devono includere persone appartenenti alle comunità che potrebbero essere interessate dal sistema algoritmico che stai sviluppando. Dovresti anche organizzare delle sessioni con le persone che implementeranno, gestiranno e utilizzeranno il sistema allo scopo di soddisfare gli obiettivi dell'organizzazione. Vai al modulo Nozioni fondamentali di ricerca sull'esperienza utente per saperne di più sui metodi che puoi utilizzare per condurre processi di revisione comunitari ed eseguire una ricerca sugli utenti per capire in quali contesti sarà utilizzato il tuo strumento.

Conclusione

L'IA può diventare un potente strumento di progresso positivo, con il potenziale di individuare tumori che l'uomo non riesce a diagnosticare, riconoscere la malattia di Alzheimer prima dei familiari o salvare le lingue indigene dalla scomparsa. In questo modulo abbiamo visto la potenza dei sistemi di IA, ma anche la loro opacità. Se vogliamo che l'IA faccia più bene che male alla società, dobbiamo prendere atto dei rischi che pone e agire per assicurare che i sistemi di IA siano progettati, sviluppati e utilizzati in maniera responsabile.

In quanto tecnologi, anche se siamo coscienziosi e attenti nel nostro approccio, dobbiamo aspettarci delle sorprese. Non possiamo sempre prevedere le interazioni tra i set di dati, i modelli e il loro contesto culturale. Spesso i set di dati contengono bias di cui non siamo consapevoli ed è nostra responsabilità esaminare e valutare i dati di addestramento e le previsioni dei nostri modelli per accertarci che non producano risultati dannosi.

Lo sviluppo di sistemi di IA etici è un processo sociotecnologico. Non considerarlo solo in termini di implementazione tecnica, ma anche attraverso il modo in cui viene sviluppato nei team e nei contesti sociali in cui sarà utilizzato: come sono rappresentati genere, razza, etnia ed età? Esiste una connessione tra le persone che creano i prodotti di IA e il bias generato da quei sistemi.

Per realizzare un'intelligenza artificiale sicura con effetti positivi a livello sociale, dobbiamo ricordare che all'origine ci sono gli esseri umani. L'IA è uno strumento e siamo noi a scegliere come utilizzarlo. Indipendentemente dal ruolo di ciascuno, decisioni apparentemente di minore importanza possono avere conseguenze gravi e durature. In Salesforce, siamo fermamente convinti che possiamo far bene e fare del bene. Si può trarre profitto senza nuocere agli altri e anzi, nel mentre, avere un impatto positivo. 

Risorse

Condividi il tuo feedback su Trailhead dalla Guida di Salesforce.

Conoscere la tua esperienza su Trailhead è importante per noi. Ora puoi accedere al modulo per l'invio di feedback in qualsiasi momento dal sito della Guida di Salesforce.

Scopri di più Continua a condividere il tuo feedback