Skip to main content
Dreamforce is streaming for free on Salesforce+. Watch now.

Minacce e difese associate all'IA

Obiettivi di apprendimento

Al completamento di questa unità, sarai in grado di:

  • Identificare i rischi associati all'IA e strategie difensive per le applicazioni di tutti i giorni.
  • Descrivere il ruolo dei responsabili della difesa informatica nella protezione dei sistemi, degli utenti e delle aziende.

Man mano che ci addentriamo nel mondo dell'intelligenza artificiale (IA) la comprensione delle sue implicazioni etiche e dei suoi protocolli di sicurezza diventa sempre più importante. Ricorda che l'IA non offre soltanto vantaggi rivoluzionari, ma introduce anche rischi potenziali.

Soffermiamoci brevemente su queste due dimensioni prima di passare a un argomento vitale: gli attacchi informatici tramite IA e i metodi per difendersi.

Attacchi informatici che sfruttano l'IA e metodi di difesa

Il ruolo dell'IA nella vita di ogni giorno è in continua espansione, ad esempio per facilitare la scelta di un film da guardare, tenere sotto controllo la sicurezza della propria casa o persino aiutare i ragazzi a fare i compiti. È quindi importante sapere che queste funzionalità comportano una serie di rischi. I progressi di questa tecnologia sono accompagnati da progressi nelle tattiche di chi ha l'obiettivo di sfruttarla.

Comprendere i rischi che comporta l'utilizzo quotidiano dell'IA

Innanzitutto, gli attacchi vengono lanciati contro i sistemi di IA stessi.

  • Inquinamento dell'algoritmo: alimentare l'IA con informazioni errate in modo che restituisca risposte sbagliate. Pensa se al navigatore satellitare della tua auto fossero state fornite indicazioni errate, facendoti arrivare nel luogo sbagliato.
  • Manomissione dei dati: equivale alla modifica degli ingredienti di una ricetta che la tua cucina intelligente deve seguire che provoca la preparazione di un pasto che non ti aspettavi o che non volevi.
  • Accesso non autorizzato: immagina se qualcuno potesse sussurrare dei comandi segreti al tuo assistente domotico e controllarlo senza il tuo permesso.

Due diagrammi di flusso affiancati. In quello sulla sinistra sono elencate le fasi del modello di apprendimento di un'IA, dal set di dati all'algoritmo di apprendimento fino al modello di machine learning. Nel diagramma di flusso sulla destra sono elencate le stesse fasi, ma in questo caso è presente un attacco di tipo Poisoning nel set di dati, che "inquina" l'ultima fase.

In secondo luogo, esistono rischi che interessano direttamente gli utenti.

  • Impersonazione digitale: hai probabilmente sentito parlare dei deepfake, ossia delle tecniche che consentono di ricreare le sembianze e la voce delle persone con incredibile accuratezza. Queste tecniche possono essere utilizzate per falsificare un messaggio di un amico fidato o di un familiare.
  • Truffe perpetrate tramite IA: hai mai ricevuto un'email o un SMS che non destava particolari sospetti, ma era un po' strano? L'IA può generare messaggi truffaldini molto convincenti progettati per indurre a rivelare informazioni sensibili.
  • Smart malware: si tratta di virus o di software dannosi che possono adattarsi e imparare dal tuo comportamento. Ad esempio, se fai spesso acquisti online, il malware potrebbe prendere di mira le tue informazioni di pagamento.

Infine, ci sono i rischi che potrebbero interessare il tuo luogo di lavoro o la comunità più ampia.

  • Manomissione dei dati aziendali: se un'azienda si affida all'IA per le proprie funzioni operative, interferire con quell'IA potrebbe comportare azioni contrarie agli interessi aziendali.
  • Danni alla reputazione: la compromissione di un sistema di IA può provocare la perdita della fiducia nelle aziende che lo utilizzano per interagire con i clienti.

Gli utenti svolgono un ruolo significativo per il mantenimento di un'IA etica e sicura. Mentre alcuni controlli non sono accessibili agli utenti finali, ci sono azioni che sono alla tua portata che possono assicurarti un'esperienza con l'IA sicura ed eticamente corretta sia a casa che al lavoro. Ecco cosa puoi fare. 

  • Informati: leggi l'informativa sulla privacy e le condizioni di servizio di tutte le applicazioni o servizi basati sull'IA che usi. Accertati di sapere quali dati vengono raccolti e come vengono utilizzati.
  • Esegui regolarmente gli aggiornamenti: tieni le applicazioni e il software aggiornati. In questo modo riceverai non solo le patch di sicurezza più recenti, ma anche patch che rispondono a considerazioni etiche all'interno del sistema di IA.
  • Abilita le impostazioni di sicurezza: usa tutte le opzioni di sicurezza a tua disposizione, come l'autenticazione a due fattori, in particolare quando utilizzi servizi basati sull'IA che possono accedere ai tuoi dati personali.
  • Esamina e controlla: esamina periodicamente i dati che hai condiviso con sistemi di IA. Elimina le informazioni superflue e modifica le impostazioni in modo da limitare l'esposizione dei dati.
  • Esercita il dubbio: se un messaggio o un video ti sembra strano, probabilmente lo è. Presta attenzione e verifica le informazioni prima di condividerle o agire su di esse.
  • Informa gli altri: condividi con amici e familiari le tue conoscenze e le tue considerazioni sugli aspetti relativi all'etica e alla sicurezza associati all'utilizzo dell'IA.
  • Segnala i problemi: se riscontri comportamenti eticamente scorretti o che rivelano pregiudizi, segnalali. La segnalazione di problemi dipende dal contesto in cui rilevi i comportamenti problematici dell'IA.
    • Fornitore di servizi: il primo punto di contatto è l'azienda o l'organizzazione che fornisce il servizio di IA. La maggior parte delle piattaforme mettono a disposizione degli utenti un meccanismo per la segnalazione di problemi relativi alla sicurezza o all'etica.
    • Enti normativi: nei casi più gravi, specialmente quelli che riguardano la privacy o la discriminazione, potresti dover segnalare il problema agli enti normativi o governativi competenti, come la Federal Trade Commission (FTC) o la Equal Employment Opportunity Commission (EEOC) negli Stati Uniti o enti simili competenti in altri paesi.
    • Canali interni: se il sistema di IA è fornito dalla tua azienda per l'utilizzo sul luogo di lavoro, segnala il problema al reparto IT o a un comitato etico designato, se ne esiste uno.
    • Gruppi di sviluppatori: se si tratta di software open-source, di solito è possibile segnalare i problemi direttamente agli sviluppatori attraverso repository come GitHub.

Attraverso queste misure puoi contribuire a creare una cultura di sicurezza e di responsabilità etica nel mondo dell'IA. Non si tratta soltanto di godere dei vantaggi di una tecnologia intelligente. Si tratta di utilizzarla con saggezza.

Man mano che ci addentriamo in un mondo incentrato sull'IA, riconoscere e mitigare questi rischi specifici diventa fondamentale per la salvaguardia del nostro futuro digitale. 

L'IA e le difese informatiche

Insieme alle sfide che comporta, l'IA promette anche soluzioni rivoluzionarie nell'ambito della sicurezza informatica. Grazie all'IA, i tecnici che si occupano di difesa informatica possono utilizzare una serie di tecniche e tecnologie per predisporre protezioni attive contro gli attacchi che sfruttano l'IA. Approfondiamo l'argomento esaminando i modi in cui l'IA può contribuire a mettere in campo prassi utili per la difesa informatica.

Il ruolo della sicurezza informatica 

Tecniche e tecnologie per la difesa e la protezione 

Proteggere il sistema di IA

  • Analisi comportamentali: l'IA può cercare schemi insoliti all'interno di casi d'uso generali, segnalando deviazioni che potrebbero essere sintomo di potenziali minacce o attacchi.
  • Consolidamento attraverso l'addestramento: i modelli di IA sono addestrati per resistere ad attacchi attraverso l'esposizione a input dannosi, potenziando in questo modo la resilienza del sistema.
  • Monitoraggio del modello: Il monitoraggio continuo dei modelli per verificare la presenza di discrepanze tra il comportamento durante l'addestramento e quello nel mondo reale può aiutare a individuare attacchi di tipo backdoor o eventuali anomalie che derivano da data poisoning.
  • Convalida dei dati: l'IA può convalidare in tempo reale l'integrità dei dati di addestramento, individuando ed eliminando dati dannosi oppure oggetto di data poisoning prima che abbiano un impatto sul modello.

Salvaguardare le persone

  • Rilevamento di deepfake: è possibile addestrare algoritmi di IA avanzati per individuare deepfake rilevando sottili incoerenze in video, audio o immagini che potrebbero sfuggire agli esseri umani.
  • Rilevamento in tempo reale di phishing: l'IA può analizzare rapidamente email e altre forme di comunicazione per rilevare segnali di phishing. Attraverso l'analisi di enormi quantità di dati di phishing, l'IA è in grado di riconoscere anche nuove sofisticate tattiche di phishing.
  • Analisi adattiva delle minacce: utilizzando l'IA, i sistemi di sicurezza informatica possono adattarsi alle tattiche mutevoli dei malware basati su IA. Questo risultato si ottiene grazie all'apprendimento e all'evoluzione continui attuati attraverso il riconoscimento di nuovi schemi.
  • Analisi del comportamento degli utenti finali (EUBA, End-User Behavior Analytics): analizzando i normali profili degli utenti, l'IA può rilevare attività insolite in tempo reale. In questo modo è possibile proteggersi dalle potenziali minacce poste dai sistemi di IA compromessi.

Difendere la mission aziendale

  • Analisi predittiva: l'IA è in grado di prevedere minacce future alla sicurezza analizzando i pattern identificabili nei dati storici. Questo approccio proattivo consente alle aziende di contrastare le minacce prima che si materializzino, assicurando la coerenza con la propria mission.
  • Sistemi di risposta automatica: non appena rileva una minaccia, l'IA può automatizzare le risposte che l'azienda può esaminare per decidere qual è l'azione appropriata: l'isolamento di un sistema, l'avvio di un backup o l'invio di avvisi. La velocità è spesso fondamentale e l'automazione è spesso in grado di rispondere più velocemente degli esseri umani.
  • Analisi integrata delle minacce: per gestire una data minaccia in modo efficace, l'IA può integrare varie fonti di informazioni relative alle minacce provenienti da sistemi diversi, insieme a consigli pratici, basati sulla massima probabilità di efficacia, incorporati nella guida.
  • Analisi semantica: l'IA è in grado di individuare segnali impercettibili di attacchi di tipo Prompt Injection o di altri tentativi di manipolare i processi decisionali basati sull'IA attraverso la comprensione del contesto e della semantica delle comunicazioni.

Sfruttando le capacità dell'IA, la sicurezza informatica può contrastare in modo attivo ed efficace la miriade di minacce poste dagli attacchi lanciati contro e attraverso l'IA. Anche se la sfida è in continua evoluzione, l'integrazione dell'IA nella sicurezza informatica può produrre un meccanismo di difesa dinamico, adattivo e solido progettato per la moderna era digitale.

Una persona utilizza l'IA per monitorare una rete.

Tracciare una strada per il futuro

L'intersezione tra intelligenza artificiale e sicurezza informatica rappresenta un cambiamento di paradigma carico di significato per ogni professionista della sicurezza. La complessità e il potenziale dell'IA non solo ridisegnano il panorama tecnologico, ma tracciano nuovi percorsi per il potenziamento delle competenze, l'acquisizione di conoscenze e l'impatto sul rendimento.

Al centro di questa transizione c'è la consapevolezza che le capacità dell'IA sono pari soltanto alle sue vulnerabilità. Per i professionisti della sicurezza informatica, questo si traduce in opportunità di crescita, come le seguenti:

  1. Educazione e formazione: man mano che i modelli di IA diventano più complessi, aumenta anche la necessità di approfondire le nostre conoscenze. Corsi e certificazioni su misura focalizzati sulla sicurezza informatica imperniata sull'IA diventeranno presto non solo auspicabili, ma essenziali.
  2. Potenziamento delle competenze: gli strumenti e le tecniche che erano sufficienti fino a ieri potrebbero non essere più in grado di contrastare le minacce basate sull'IA di domani. Lo sviluppo costante delle competenze relative al rilevamento e all'analisi delle minacce, alle strategie di risposta automatica agli eventi e alle considerazioni etiche associate alla distribuzione dell'IA è fondamentale.
  3. Impatto più esteso: Con l'integrazione dell'IA in molteplici settori, il ruolo della sicurezza informatica si estende dalla protezione dei sistemi alla definizione delle traiettorie aziendali. Un modello di IA protetto in modo adeguato può favorire la crescita di un'azienda, accrescere la fiducia degli utenti e assicurare l'adesione a principi etici.

Con il progresso legato all'IA, il futuro richiede adattabilità e innovazione. Abbracciando l'apprendimento continuo, il perfezionamento delle competenze e la ricerca di contributi di maggiore portata, i professionisti della sicurezza informatica non saranno semplicemente in grado di orientarsi nel panorama dell'IA: contribuiranno a definirlo.

Conclusioni

In questo modulo hai acquisito familiarità con gli effetti dell'IA sulla nostra vita professionale e personale e con le sue implicazioni etiche e relative alla sicurezza. Hai anche imparato a conoscere gli attacchi informatici basati sull'IA e i metodi che possiamo usare per difenderci. Grazie a queste conoscenze, ora sei in grado sia di promuovere le innovazioni dell'IA che di rafforzarne le difese.

Se ti interessa saperne di più sulle opportunità di lavoro nell'ambito della sicurezza informatica e conoscere il punto di vista di professionisti in questo campo, dai uno sguardo al percorso di carriera nel campo della sicurezza informatica su Trailhead. 

Risorse

Condividi il tuo feedback su Trailhead dalla Guida di Salesforce.

Conoscere la tua esperienza su Trailhead è importante per noi. Ora puoi accedere al modulo per l'invio di feedback in qualsiasi momento dal sito della Guida di Salesforce.

Scopri di più Continua a condividere il tuo feedback