Skip to main content

Menaces et défenses dans le contexte de l’IA

Objectifs de formation

Une fois cette unité terminée, vous pourrez :

  • Identifier les risques liés à l’IA et ses stratégies de défense pour ses utilisations quotidiennes
  • Décrire le rôle des spécialistes de la cyberdéfense dans la protection des systèmes, des utilisateurs et des entreprises

À mesure que nous explorons le domaine de l’intelligence artificielle, il devient de plus en plus important de comprendre les considérations éthiques et les protocoles de sécurité qui s’y rapportent. Pour rappel, si l’IA présente des avantages révolutionnaires, elle comporte aussi des risques.

Abordons brièvement ces deux dimensions avant de passer à un sujet essentiel : les cyberattaques et les défenses de l’IA.

Cyberattaques et défenses de l’IA

Alors que l’IA est de plus en plus présente dans votre quotidien, par exemple en vous aidant à choisir quel film regarder, en veillant à la sécurité de votre domicile ou encore en aidant vos enfants à faire leurs devoirs, il est important d’être conscient que son assistance s’accompagne d’un certain nombre de risques. Tout comme nous avons vu la technologie évoluer, les tactiques de ceux qui cherchent à l’exploiter ont également évolué.

Compréhension des risques liés à l’utilisation quotidienne de l’IA

Tout d’abord, il y a les attaques contre les systèmes d’IA eux-mêmes.

  • Empoisonnement de l’algorithme : il s’agit de donner à l’IA de mauvaises informations pour qu’elle génère de mauvaises réponses. Imaginez que le GPS de votre voiture soit délibérément mal orienté et vous envoie au mauvais endroit.
  • Altération des données : cela reviendrait à modifier les ingrédients d’une recette suivie par votre robot intelligent, ce qui pourrait donner lieu à un repas ne correspondant pas à ce que vous attendiez ou souhaitiez.
  • Accès non autorisé : imaginez que quelqu’un puisse murmurer des commandes secrètes à l’assistant vocal de votre maison, contrôlant ainsi cette dernière sans votre permission.

Deux organigrammes côte à côte. L’organigramme du haut répertorie les étapes d’un modèle d’apprentissage d’IA : le jeu de données, l’algorithme d’apprentissage et le modèle d’apprentissage automatique. L’organigramme du bas répertorie les mêmes étapes, mais inclut une attaque par empoisonnement dans l’étape du jeu de données qui « empoisonne » la dernière étape.

Ensuite, nous retrouvons les risques qui vous touchent directement.

  • Usurpation d’identité numérique : vous avez probablement entendu parler des deepfakes, qui permettent de recréer l’image et la voix d’une personne avec une précision effrayante. Ceux-ci pourraient être utilisés pour simuler un message provenant d’un ami ou d’un membre de la famille en qui l’on a confiance.
  • Escroqueries générées par l’IA : avez-vous déjà reçu un e-mail ou un SMS à la fois convaincant, mais étrange ? L’IA peut générer des messages frauduleux extrêmement convaincants conçus pour vous inciter à révéler des informations sensibles.
  • Logiciels malveillants intelligents : il s’agit de virus ou de logiciels malveillants qui peuvent s’adapter et apprendre de votre comportement. Par exemple, si vous effectuez fréquemment des achats en ligne, le logiciel malveillant peut cibler vos informations de paiement.

Enfin, nous retrouvons les risques pouvant affecter votre lieu de travail ou votre communauté au sens large.

  • Altération des données d’entreprise : si une entreprise s’appuie sur l’IA pour ses opérations, l’altération de cette IA pourrait entraîner des actions contraires aux intérêts de l’entreprise.
  • Atteinte à la réputation : pour les entreprises qui utilisent l’IA afin d’interagir avec leurs clients, la compromission du système d’IA pourrait entraîner une perte de confiance.

Les utilisateurs ont un rôle important à jouer pour assurer la sécurité et l’aspect éthique de l’IA. Bien que certains contrôles soient hors de portée de l’utilisateur final, il existe des mesures applicables dans votre sphère d’influence pour que votre expérience de l’IA soit à la fois sécurisée et conforme à l’éthique, à la maison comme au travail. Voici ce que vous pouvez faire. 

  • Veille : lisez la politique de confidentialité et les conditions d’utilisation de tout service ou application alimenté par l’IA que vous utilisez. Sachez exactement quelles données sont collectées et comment elles sont utilisées.
  • Mise à jour régulière : veillez à ce que vos applications et logiciels soient à jour. En faisant cela, vous bénéficierez non seulement des derniers correctifs de sécurité, mais également des correctifs qui répondent aux considérations éthiques au sein du système d’IA.
  • Activation des paramètres de sécurité : utilisez toutes les options de sécurité disponibles comme l’authentification à deux facteurs, en particulier pour les services alimentés par l’IA qui ont accès à vos données personnelles.
  • Examen et audit : examinez régulièrement les données que vous avez partagées avec les systèmes d’IA. Supprimez les informations inutiles et ajustez les paramètres pour limiter l’exposition des données.
  • Vigilance : si un message ou une vidéo semble faux, c’est probablement le cas. Soyez prudent et vérifiez les informations avant de partager ou d’utiliser quoi que ce soit.
  • Sensibilisation : partagez avec vos amis et votre famille vos connaissances et votre point de vue sur les aspects éthiques et de sécurité de l’utilisation de l’IA.
  • Signalement des problèmes : si vous êtes confronté à un comportement biaisé ou contraire à l’éthique, signalez-le. Le signalement des problèmes dépend du contexte dans lequel vous rencontrez le comportement problématique de l’IA.
    • Fournisseur de services : le premier point de contact doit être l’entreprise ou l’organisation qui fournit le service d’IA. La plupart des plates-formes disposent d’un outil permettant de signaler les problèmes relatifs à la sécurité ou à l’éthique.
    • Organismes de réglementation : pour les cas plus graves, notamment ceux qui concernent la vie privée ou la discrimination, il peut être nécessaire de signaler le problème auprès des organismes gouvernementaux ou réglementaires compétents, tels que la Federal Trade Commission (FTC) ou la Equal Employment Opportunity Commission (EEOC) des États-Unis, ou auprès des entités similaires dans les juridictions internationales.
    • Canaux internes : si le système d’IA est fourni par votre employeur pour une utilisation sur le lieu de travail, signalez le problème au service informatique ou à un comité d’éthique désigné, le cas échéant.
    • Groupes de développeurs : s’il s’agit d’un logiciel open source, vous pouvez généralement signaler les problèmes directement aux développeurs via des référentiels comme GitHub.

En suivant ces mesures, vous contribuez à la sécurité et à la responsabilité éthique de l’IA. Il ne s’agit pas seulement de profiter des avantages de la technologie intelligente, mais aussi de l’utiliser à bon escient.

À mesure que nous nous enfonçons dans un monde centré sur l’IA, il devient primordial de reconnaître et d’atténuer ces menaces spécifiques pour préserver notre avenir numérique. 

IA et cyberdéfense

Malgré tous les défis qu’elle pose, l’IA promet également des solutions révolutionnaires en matière de cybersécurité. Grâce à l’IA, les spécialistes de la cyberdéfense peuvent nous défendre activement contre les attaques basées sur l’IA en tirant parti d’une multitude de techniques et de technologies. Approfondissons la question et examinons comment l’IA peut contribuer aux pratiques de cyberdéfense.

Rôle de la cybersécurité 

Techniques et technologies pour protéger et défendre 

Protection du système d’IA

  • Analyses du comportement : l’IA recherche des situations inhabituelles dans les cas d’utilisation générale, en signalant les anomalies qui pourraient indiquer des menaces ou des attaques potentielles.
  • Entraînement à la résistance : les modèles d’IA sont entraînés pour résister aux attaques en les exposant à des entrées malveillantes, améliorant ainsi la résilience du système.
  • Surveillance des modèles : la surveillance continue des modèles pour vérifier les différences entre leur comportement lors de l’entraînement et le comportement réel peut aider à détecter les attaques par porte dérobée ou toute anomalie résultant de l’empoisonnement des données.
  • Validation des données : l’IA peut valider l’intégrité des données d’entraînement en temps réel, en repérant et en filtrant les données malveillantes ou empoisonnées avant qu’elles n’aient un impact sur le modèle.

Protection des personnes

  • Détection des deepfakes : les algorithmes d’IA avancés peuvent être entraînés à repérer les deepfakes en détectant des incohérences subtiles dans des vidéos, des fichiers audio ou des images que les humains pourraient ne pas voir.
  • Détection de l’hameçonnage en temps réel : l’IA peut analyser rapidement les e-mails et autres formes de communication pour y déceler des signes d’hameçonnage. En analysant de grandes quantités de données d’hameçonnage, l’IA peut reconnaître les toutes dernières tactiques d’hameçonnage sophistiquées.
  • Veille adaptative relative aux menaces : grâce à l’IA, les systèmes de cybersécurité peuvent s’adapter aux tactiques changeantes des logiciels malveillants assistés par l’IA. Pour ce faire, ils apprennent et évoluent en permanence en reconnaissant de nouveaux modèles.
  • Analyse du comportement des utilisateurs finaux (EUBA) : en analysant les profils d’utilisateur standard, l’IA peut détecter les activités inhabituelles en temps réel. Cela permet de se prémunir contre les menaces créées par des systèmes d’IA compromis.

Défense de la mission

  • Analyse prédictive : l’IA peut prédire les futures menaces de sécurité en analysant les tendances dans les données historiques. Cette approche proactive aide les entreprises à contrer les menaces avant même qu’elles ne se matérialisent, ce qui leur permet de s’aligner sur leur mission.
  • Systèmes de réponse automatisée : dès la détection d’une menace, l’IA peut automatiser les réponses pour que l’entreprise les examine et décide des mesures à prendre, qu’il s’agisse d’isoler un système, de lancer une sauvegarde ou d’envoyer des alertes. La rapidité est souvent cruciale, et l’automatisation peut souvent répondre plus rapidement que les humains.
  • Renseignements intégrés sur les menaces : l’IA peut intégrer diverses sources de renseignements sur les menaces provenant de différents systèmes ainsi que des recommandations exploitables (basées sur la plus grande probabilité d’efficacité) dans les conseils à suivre pour faire face efficacement à une menace identifiée.
  • Analyse sémantique : en comprenant le contexte et la sémantique des communications, l’IA peut détecter des signes subtils d’injections de requêtes ou d’autres tentatives de manipulation des processus décisionnels pilotés par l’IA.

En exploitant les capacités de l’IA, les spécialistes cybersécurité peuvent nous défendre activement et efficacement contre la myriade de menaces que représentent les attaques malveillantes contre et par l’IA. Bien que l’enjeu soit en perpétuelle évolution, l’intégration de l’IA dans la cybersécurité peut produire un mécanisme de défense dynamique, adaptatif et robuste, adapté à l’ère numérique moderne.

Une personne utilisant l’IA pour surveiller un réseau.

La voie vers l’avenir

Le croisement de l’intelligence artificielle et de la cybersécurité constitue un changement de paradigme qui trouve un écho profond chez tous les professionnels de la cybersécurité. Les complexités et le potentiel de l’IA redéfinissent non seulement le paysage technologique, mais ouvrent également de nouvelles perspectives pour l’amélioration des compétences, l’acquisition de connaissances et l’impact sur les performances.

Au cœur de cette transition se trouve la prise de conscience que les capacités de l’IA n’ont d’égal que ses vulnérabilités. Pour les professionnels de la cybersécurité, cela se traduit par de vastes opportunités. En voici quelques-unes.

  1. Éducation et formation : les modèles d’IA devenant de plus en plus complexes, il est nécessaire d’en approfondir notre compréhension. Des cours et des certifications sur mesure portant sur la cybersécurité centrée sur l’IA deviendront bientôt non seulement souhaitables, mais essentiels.
  2. Renforcement des compétences : les outils et techniques qui fonctionnaient hier pourraient ne plus suffire pour faire face aux menaces pilotées par l’IA de demain. Le développement continu des compétences en matière de détection et d’analyse des menaces, de stratégies de réponse automatisée aux incidents et de considérations éthiques lors du déploiement de l’IA est primordial.
  3. Amplification de l’impact : avec l’intégration de l’IA dans les industries, le rôle de la cybersécurité s’étend de la protection des systèmes à l’élaboration des trajectoires commerciales. Un modèle d’IA bien sécurisé peut stimuler la croissance de l’entreprise, renforcer la confiance des utilisateurs et garantir le respect de l’éthique.

L’avenir, avec ses avancées technologiques fondées sur l’IA, exige adaptation et innovation. En adoptant l’apprentissage continu, en affinant leurs compétences et en cherchant à avoir un impact plus important, les spécialistes cybersécurité ne se contenteront pas d’être spectateurs de l’évolution de l’IA, ils la définiront.

Conclusion

Dans ce module, vous avez été initié à l’IA dans le cadre professionnel et personnel, ainsi qu’aux implications en matière d’éthique et de sécurité de l’IA. Vous avez également découvert les cyberattaques liées à l’IA et les moyens de s’en protéger. Fort de ces connaissances, vous êtes désormais en mesure de promouvoir les innovations de l’IA et de renforcer ses défenses !

Vous souhaitez en savoir plus sur les métiers de la cybersécurité et lire des témoignages de professionnels de la sécurité ? Consultez le plan de carrière du spécialiste cybersécurité sur Trailhead. 

Ressources

Partagez vos commentaires sur Trailhead dans l'aide Salesforce.

Nous aimerions connaître votre expérience avec Trailhead. Vous pouvez désormais accéder au nouveau formulaire de commentaires à tout moment depuis le site d'aide Salesforce.

En savoir plus Continuer à partager vos commentaires