Skip to main content

Comprendere l'ecosistema tecnologico dell'IA generativa

Obiettivi di apprendimento

Al completamento di questa unità, sarai in grado di:

  • Identificare i principali componenti che contribuiscono a velocizzare lo sviluppo dell'IA generativa.
  • Descrivere i tipi di tecnologia che compongono lo stack tecnologico dell'IA generativa.
  • Descrivere le preoccupazioni comuni delle aziende riguardo all'IA generativa.

Potenziare l'addestramento dell'IA generativa

L'intelligenza artificiale generativa ha acquisito molte capacità in un lasso di tempo che sembra davvero molto breve. Il ritmo incredibilmente veloce dei miglioramenti è dovuto in gran parte a tre grandi fattori. Il primo è la disponibilità di enormi quantità di dati di addestramento. Come accennato nell'unità precedente, oltre un miliardo di pagine web presenti su Internet rappresentano una formidabile fonte di esempi di scrittura. Ma i dati sono validi solo se si ha un modo per utilizzarli. È qui che entra in gioco il secondo grande cambiamento: un migliore addestramento.

Come hai visto in Nozioni fondamentali sull'intelligenza artificiale, i ricercatori progettano reti neurali che utilizzano calcoli sofisticati per addestrare i modelli di IA. L'architettura delle reti neurali è un campo di studio in continua evoluzione. Nel 2017, i ricercatori di Google hanno pubblicato un documento rivoluzionario sull'addestramento dei Large Language Model. Hanno proposto una nuova architettura di IA detta Transformer. Come puoi immaginare, i dettagli della ricerca sono piuttosto complicati. Ma per semplificare (molto), la nuova architettura è in grado di identificare relazioni importanti tra le parole, indipendentemente dalla distanza con cui compaiono all'interno di un blocco di testo, e riesce a mantenere questa relazione anche dopo aver elaborato un gran numero di parole.

La nuova architettura Trasformer ci porta al terzo fattore importante per il rapido progresso dell'IA generativa: la potenza di calcolo. È necessaria una grande potenza di elaborazione per eseguire i calcoli alla base dell'addestramento dei modelli di IA. Storicamente, i modelli di IA sono progettati in modo da richiedere una sequenza di calcoli, che vengono eseguiti uno dopo l'altro. L'architettura Trasformer è diversa: si basa su molti calcoli separati e simultanei.

Quindi, un processore del computer può eseguire il primo calcolo mentre un altro processore esegue contemporaneamente il secondo. Questa operazione si chiama calcolo parallelo e riduce notevolmente il tempo necessario per addestrare un Transformer. Inoltre, negli ultimi anni i processori in grado di eseguire il calcolo parallelo sono diventati molto più potenti e diffusi.

Questi tre fattori, dati, architettura ed elaborazione, hanno creato le condizioni giuste per addestrare Large Language Model molto efficienti. Uno dei più grandi LLM è il modello linguistico GPT, (Generative Pre-trained Transformer, Transformer pre-addestrato generativo). In altre parole, un modello già addestrato che può essere usato per generare contenuti correlati al testo.

Ecosistema emergente

In questo momento, su Internet ci sono già centinaia di siti in cui puoi sperimentare direttamente l'IA generativa. Quando visiti uno di questi siti, ti trovi sulla punta di un iceberg tecnologico. E questa tecnologia può provenire da molte fonti diverse. Analizziamo lo stack tecnologico che rende possibile per il pubblico accedere a esperienze di IA generativa eccezionali.

  • Nella parte più profonda dell'iceberg, iniziamo con i provider di hardware di calcolo. L'addestramento di un LLM può richiedere una potenza di calcolo impressionante, anche se si tratta di un Transformer. È necessaria potenza di calcolo anche per elaborare le richieste di utilizzo effettivo del modello successive all'addestramento. Tecnicamente è possibile addestrare modelli di IA su qualsiasi hardware di calcolo, ma i processori che assicurano i migliori risultati nel calcolo parallelo sono l'ideale. Oggi il nome più importante nel settore dell'elaborazione IA è Nvidia.
  • Poi ci sono le piattaforme cloud che permettono agli sviluppatori di attingere all'hardware di calcolo in un modello di distribuzione cloud. Gli sviluppatori possono noleggiare l'hardware per la quantità di tempo appropriata per un progetto specifico e le piattaforme possono distribuire in modo efficiente le richieste di tempo di calcolo in un sistema connesso. Google, Amazon, Microsoft e Oracle sono i principali fornitori di tecnologia in questo ambito.
  • I modelli di IA, inclusi gli LLM, sono il livello successivo. Questi modelli sono stati accuratamente realizzati usando tecniche di ricerca e addestrati usando una combinazione di dati pubblici e privati. Gli sviluppatori possono collegarsi agli LLM attraverso un'API (Application Programming Interface), in modo da poter sfruttare tutta la potenza dell'elaborazione del linguaggio naturale (NLP, Natural Language Processing) nelle proprie applicazioni. Il modello di intelligenza artificiale addestrato e accessibile viene comunemente definito modello di base. Poiché a questi modelli si accede tramite un'API, gli sviluppatori possono facilmente passare da un modello di base a un altro, a seconda delle necessità. Alcuni esempi di modelli di base sono GPT4, Claude, Stable Diffusion e LLaMA.
  • Il livello successivo è quello dell'ottimizzazione dell'infrastruttura, che consiste nel fornire strumenti e servizi che rendono più efficiente l'addestramento dei modelli e ne migliorano la qualità. Ad esempio, un servizio potrebbe offrire set di dati perfettamente selezionati su cui basare l'addestramento. Un altro potrebbe fornire strumenti analitici per testare la precisione del contenuto generato. È anche a questo punto che i modelli di base possono essere perfezionati usando dati specializzati di proprietà esclusiva per soddisfare meglio le esigenze di una particolare azienda. Si tratta di uno spazio molto frequentato nell'ecosistema dell'IA, con molte aziende che offrono un'ampia gamma di servizi di ottimizzazione.
  • Infine, siamo di nuovo alla punta dell'iceberg: le applicazioni. Gli sviluppatori di tutti i tipi possono attingere ai servizi di ottimizzazione e ai modelli di base per le loro applicazioni. Si vedono già strumenti autonomi basati su LLM, oltre a plug-in per le applicazioni mainstream.

Diagramma dello stack tecnologico dell'IA

Questo fiorente ecosistema di aziende tecnologiche è cresciuto a un ritmo incredibile negli ultimi anni. Alcune aziende si specializzeranno in un segmento particolare. Ad esempio, un'azienda del settore dei modelli di base potrebbe volersi concentrare sull'addestramento di modelli nuovi e più performanti per differenziarsi. Altre aziende creeranno soluzioni che abbracciano più livelli dello stack tecnologico, creando il proprio LLM esclusivo da usare per la propria applicazione.

Molte aziende stanno appena iniziando a capire cosa può fare l'IA per loro. La domanda senza precedenti di tecnologia IA rappresenta per le aziende un'eccezionale opportunità per lasciare il segno a diversi livelli dello stack tecnologico dell'IA.

Preoccupazioni comuni riguardo all'IA generativa

L'intelligenza artificiale generativa porterà a molti cambiamenti nel modo in cui interagiamo con i computer. È importante comprendere i limiti di qualsiasi tecnologia rivoluzionaria con cui ci si confronta, oltre alle cause di preoccupazione che questa pone. Ecco alcune delle principali preoccupazioni legate all'IA generativa.

Allucinazioni: ricorda che l'IA generativa è in realtà un'altra forma di previsione e che a volte le previsioni sono sbagliate. Le previsioni dell'IA generativa che si discostano da una risposta prevista, basata sui fatti, sono note come allucinazioni. Possono verificarsi per diversi motivi, ad esempio se i dati di addestramento erano incompleti o distorti oppure se il modello non era stato progettato bene. Pertanto, per qualsiasi testo generato dall'IA, è necessario verificare che il contenuto sia corretto dal punto di vista dei fatti.

Sicurezza dei dati: le aziende possono condividere i dati di loro proprietà in due momenti del ciclo di vita dell'IA generativa. Il primo momento è durante la messa a punto di un modello di base. Il secondo è quando utilizzano effettivamente il modello per elaborare una richiesta che contiene dati sensibili. Le aziende che offrono servizi di IA devono dimostrare che la fiducia è fondamentale e che i dati saranno sempre protetti.

Plagio: gli LLM e i modelli di IA per la generazione di immagini vengono in genere addestrati utilizzando dati disponibili pubblicamente. È possibile che il modello apprenda uno stile e lo replichi. Le aziende che sviluppano modelli di base devono adottare misure adeguate per aggiungere variazioni al contenuto generale. Inoltre, possono aver bisogno di selezionare i dati di addestramento rimuovendo i campioni se gli autori dei contenuti lo richiedono.

Spoofing di utenti: è più facile che mai creare un profilo online credibile, completo di immagine generata dall'intelligenza artificiale. Utenti falsi di questo tipo possono interagire con utenti reali (e altri utenti falsi) in modo molto realistico. Questo rende difficile per le aziende identificare le reti di bot che promuovono i propri contenuti di bot.

Sostenibilità: la potenza di calcolo necessaria per addestrare i modelli di IA è immensa e i processori che eseguono i calcoli richiedono una grande quantità di energia per funzionare. Con l'aumentare delle dimensioni dei modelli, aumentano anche le relative emissioni di CO2. Fortunatamente, dopo che il modello è stato addestrato, l'energia necessaria per elaborare le richieste è piuttosto bassa. Inoltre, l'energia rinnovabile si sta espandendo quasi alla stessa velocità dell'adozione dell'IA.

Riepilogo

L'IA generativa è in grado di assistere aziende e privati in tutti i tipi di attività basate sul linguaggio. La convergenza di una grande quantità di dati, di un'architettura intelligente dell'IA e di un'enorme potenza di calcolo ha dato un forte impulso allo sviluppo dell'IA generativa e alla crescita dell'ecosistema dell'IA.

Risorse

Condividi il tuo feedback su Trailhead dalla Guida di Salesforce.

Conoscere la tua esperienza su Trailhead è importante per noi. Ora puoi accedere al modulo per l'invio di feedback in qualsiasi momento dal sito della Guida di Salesforce.

Scopri di più Continua a condividere il tuo feedback