Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Présentation de l’écosystème technologique de l’IA générative

Objectifs de formation

Une fois cette unité terminée, vous pourrez :

  • Identifier les facteurs clés contribuant au développement rapide de l’IA générative
  • Décrire les types de technologies qui composent la pile technologique de l’IA générative
  • Décrire les préoccupations courantes des entreprises au sujet de l’IA générative

Optimisation de l’entraînement de l’IA générative

L’IA générative a acquis de nombreuses capacités en un laps de temps qui semble très court. Le rythme incroyablement rapide de ces améliorations est en grande partie dû à trois grands facteurs. Le premier est la disponibilité d’énormes quantités de données d’entraînement. Comme mentionné dans l’unité précédente, les plus d’un milliard de pages Web existantes sont une excellente source d’échantillons de textes. Cependant, les données ne sont utiles que si vous avez un moyen de les utiliser. C’est là qu’intervient le deuxième grand changement : l’apparition de méthodes d’entraînement plus efficaces.

Comme vous l’apprenez dans le module Principes fondamentaux de l’intelligence artificielle, les chercheurs conçoivent des réseaux neuronaux qui ont recours à des calculs sophistiqués pour entraîner des modèles d’IA. L’architecture des réseaux neuronaux est un domaine d’étude en constante évolution. En 2017, des chercheurs de Google ont publié un article révolutionnaire sur l’entraînement des grands modèles de langage. Ils ont proposé une nouvelle architecture d’IA appelée transformeur. Comme vous pouvez l’imaginer, leurs travaux de recherche sont assez complexes. Pour faire (très) simple, la nouvelle architecture était capable d’identifier des relations importantes entre certains mots, quelle que soit la distance entre eux au sein d’un bloc de texte. Elle pouvait garder en mémoire cette relation même après avoir traité une grande quantité de mots.

La nouvelle architecture de type Transformeur nous amène au troisième facteur majeur expliquant les progrès rapides de l’IA générative : la puissance de calcul. Une grande puissance de calcul est en effet nécessaire pour mener à bien l’entraînement des modèles d’IA. À l’origine, les modèles d’IA sont conçus d’une manière qui nécessite l’exécution d’une suite de calculs les uns après les autres. L’architecture de type Transformeur est différente : elle repose sur la réalisation simultanée de nombreux calculs distincts.

Ainsi, l’un des processeurs d’un ordinateur peut effectuer de son côté le premier calcul, tandis qu’un autre processeur effectue le deuxième en même temps. C’est ce que l’on appelle le parallélisme : ce processus réduit considérablement le temps nécessaire pour entraîner un transformeur. En plus de cela, les processeurs capables d’exécuter des calculs de manière parallèle ont gagné en puissance et en nombre au cours de ces dernières années.

Ces trois facteurs (abondance de données, apparition d’une architecture adaptée et gain de puissance de calcul) ont convergé d’une façon telle que cela a créé les conditions idéales pour entraîner de grands modèles de langage très performants. L’un des plus grands LLM est le modèle de langage GPT, qui signifie « Generative Pre-trained Transformer », c’est-à-dire transformeur génératif pré-entraîné. En d’autres termes, il s’agit d’un modèle déjà entraîné qui peut être utilisé pour générer du contenu textuel.

Un écosystème émergent

À l’heure actuelle, il existe déjà des centaines de sites sur Internet grâce auxquels vous pouvez vous familiariser avec l’IA générative. Lorsque vous vous rendez sur l’un de ces sites, vous ne voyez qu’un aperçu des technologies en la matière. Par ailleurs, celles-ci peuvent provenir de nombreuses sources différentes. Examinons la pile technologique qui permet d’offrir des expériences d’IA générative époustouflantes au plus grand nombre.

  • À la base de cette pile, nous trouvons les fournisseurs de matériel informatique. L’entraînement d’un LLM peut nécessiter une puissance de calcul colossale, et ce, même si vous entraînez un transformeur. De la puissance de calcul est également nécessaire pour traiter les demandes d’utilisation du modèle après son entraînement. Techniquement, vous pouvez entraîner des modèles d’IA en employant n’importe quel matériel informatique, mais l’idéal est d’utiliser des processeurs performants en matière de parallélisme. Aujourd’hui, la référence en calcul IA est Nvidia.
  • Viennent ensuite les plates-formes Cloud, qui permettent aux développeurs d’utiliser leur matériel de calcul dans un modèle de déploiement Cloud. Les développeurs peuvent louer des capacités de calcul pendant le temps nécessaire à la mise en œuvre d’un projet spécifique, et les plates-formes peuvent répartir efficacement les demandes de temps de calcul sur l’ensemble d’un système connecté. Google, Amazon, Microsoft et Oracle sont les principaux fournisseurs de technologies dans ce domaine.
  • Les modèles d’IA, notamment les LLM, constituent la couche suivante. Ces modèles sont soigneusement élaborés à l’aide de techniques issues de la recherche et entraînés à l’aide d’un assortiment de données publiques et privées. Les développeurs peuvent établir une connexion avec les LLM par le biais d’une interface de programmation d’application (API), afin d’exploiter la pleine puissance du TLN dans leurs propres applications. Le modèle d’IA entraîné et accessible est communément appelé modèle de fondation. Étant donné que l’on accède à ces modèles par le biais d’une API, les développeurs peuvent facilement passer d’un modèle de fondation à un autre selon leurs besoins. GPT4, Claude, Stable Diffusion et LLaMA sont des exemples de modèles de fondation.
  • Vient ensuite l’optimisation des infrastructures, qui consiste à fournir des outils et des services permettant de garantir un entraînement plus efficace et de meilleure qualité pour les modèles. Par exemple, un service peut proposer des jeux de données parfaitement organisés pouvant être utilisés à des fins d’entraînement. Un autre pourrait quant à lui proposer des analyses permettant de tester l’exactitude du contenu généré. C’est également grâce à ces solutions que les modèles de fondation peuvent être ajustés avec des données exclusives spécialisées pour mieux répondre aux besoins d’une entreprise spécifique. Il s’agit d’un domaine foisonnant de l’écosystème de l’IA, dans lequel de nombreuses entreprises proposent toute une gamme de services d’optimisation.
  • Enfin, nous arrivons au bout de la pile technologique : les applications. Les développeurs de toutes sortes peuvent avoir recours à des services d’optimisation et des modèles de fondation pour leurs applications. Il peut s’agir d’outils autonomes pilotés par des LLM, ou de plug-ins destinés à des applications grand public.

Diagramme représentant la pile technologique de l’IA

Cet écosystème florissant d’entreprises technologiques s’est développé à une vitesse fulgurante au cours des dernières années. Certaines entreprises se spécialiseront dans un segment particulier. Par exemple, une entreprise axée sur les modèles de fondation pourrait se concentrer sur l’entraînement de nouveaux modèles plus performants pour se différencier. D’autres entreprises créeront des solutions associées à plusieurs couches de la pile technologique, en élaborant leur propre LLM exclusif pour leur application.

De nombreuses entreprises commencent tout juste à se faire une idée de l’utilité de l’IA pour leur activité. Compte tenu de la demande sans précédent en matière de technologies d’IA, les entreprises ont de nombreuses possibilités de se démarquer à plusieurs niveaux de cette pile technologique.

Préoccupations courantes au sujet de l’IA générative

L’IA générative va provoquer de nombreux changements dans la façon dont nous interagissons avec les ordinateurs. Comme avec toute technologie révolutionnaire, il est important de comprendre ses limites et les préoccupations qui lui sont associées. Voici quelques-unes des principales préoccupations concernant l’IA générative.

Hallucinations : n’oubliez pas que l’IA générative constitue en réalité une autre forme d’outil de prédiction, et qu’il arrive que les prédictions soient fausses. Les prédictions de l’IA générative qui divergent d’une réponse attendue tout en s’appuyant sur des faits concrets sont appelées hallucinations. Elles apparaissent pour plusieurs raisons, par exemple si les données d’entraînement étaient incomplètes ou biaisées, ou si le modèle employé n’était pas bien conçu. Ainsi, prenez toujours le temps de vérifier que le contenu d’un texte généré par une IA est exact.

Sécurité des données : les entreprises sont susceptibles de partager des données exclusives à deux occasions au cours du cycle de vie de l’IA générative. Cela peut tout d’abord se produire lors de l’ajustement d’un modèle de fondation. Un tel cas de figure peut également se présenter lors de l’utilisation du modèle pour traiter une demande comportant des données confidentielles. Les entreprises qui proposent des services d’IA doivent démontrer que la confiance est pour elles primordiale et que les données seront toujours protégées.

Plagiat : les LLM et les modèles d’IA employés dans le cadre de la génération d’images sont généralement entraînés avec des données accessibles au public. Il est possible que le modèle apprenne un certain style et reproduise celui-ci. Les entreprises qui développent des modèles de fondation doivent faire en sorte d’ajouter des variations au contenu généré. En outre, elles peuvent être amenées à procéder à un tri des données d’entraînement pour en supprimer certains échantillons à la demande de créateurs de contenu.

Fausses identités : il est plus facile que jamais de créer un profil en ligne crédible arborant une photo générée par l’IA. De tels utilisateurs factices peuvent interagir avec de vrais utilisateurs (et d’autres utilisateurs factices) de manière très réaliste. Il est donc difficile pour les entreprises d’identifier les réseaux de robots qui font la promotion de contenus qu’ils ont eux-mêmes généré.

Durabilité : la puissance de calcul requise pour entraîner des modèles d’IA est immense, et les processeurs effectuant les calculs ont besoin de beaucoup d’énergie pour fonctionner. Au fur et à mesure que les modèles se développent, leur empreinte carbone augmente également. Heureusement, une fois qu’un modèle est entraîné, il lui faut relativement peu d’énergie pour traiter des demandes. De plus, les énergies renouvelables se développent presque aussi vite que l’adoption de l’IA !

Récapitulatif

L’IA générative est capable d’aider les entreprises et les particuliers à réaliser toutes sortes de tâches de nature linguistique. La convergence de facteurs spécifiques (abondance de données, apparition d’une architecture d’IA intelligente et gains massifs en matière de puissance de calcul) a fortement amplifié le développement de l’IA générative et la croissance de l’écosystème de l’IA.

Ressources

Partagez vos commentaires sur Trailhead dans l'aide Salesforce.

Nous aimerions connaître votre expérience avec Trailhead. Vous pouvez désormais accéder au nouveau formulaire de commentaires à tout moment depuis le site d'aide Salesforce.

En savoir plus Continuer à partager vos commentaires