Entender o ecossistema de tecnologia da IA generativa
Objetivos de aprendizagem
Após concluir esta unidade, você estará apto a:
- Identificar os principais componentes que contribuem para o desenvolvimento rápido da IA generativa.
- Descrever os tipos de tecnologia que compõem a pilha tecnológica da IA generativa.
- Descrever preocupações comuns que as empresas têm em relação à IA generativa.
Como turbinar o treino da IA generativa
A IA generativa ganhou muitos recursos em aparentemente pouco tempo. O ritmo frenético de desenvolvimento se dá principalmente por três grandes fatores. O primeiro é a disponibilidade de grandes quantidades de dados de treinamento. Como mencionado na unidade anterior, as mais de um bilhão de páginas na internet são uma ótima fonte de amostras de texto. Mas os dados só servem se você tem uma maneira de usá-los. É aqui que entra a segunda grande mudança: melhores treinamentos.
Como você aprenderá em Noções básicas de inteligência artificial, os pesquisadores criam redes neurais que usam matemática sofisticada para treinar modelos de IA. A arquitetura das redes neurais é um campo de estudo que está sempre avançando. Em 2017, os pesquisadores da Google publicaram um artigo inovador sobre o treinamento de grandes modelos de linguagem. Eles propuseram uma nova arquitetura de IA chamada transformador. Como pode imaginar, os detalhes da pesquisa são bem complexos. Mas, simplificando (muito), a nova arquitetura era capaz de identificar relacionamentos importantes entre palavras independentemente do quão distantes elas estivessem em um bloco de texto. Ela podia reter essa conexão mesmo depois de processar várias palavras.
A nova arquitetura do transformador nos traz o terceiro maior fator no rápido avanço da IA generativa: o poder de computação. A matemática por trás do treinamento dos modelos de IA exige muito poder de processamento. Historicamente, os modelos de IA são projetados de forma a exigir uma sequência de cálculos, feitos um após o outro. A arquitetura do transformador é diferente: ela depende de vários cálculos separados e simultâneos.
Ou seja, um processador de computação pode fazer o primeiro cálculo enquanto outro processador faz o segundo ao mesmo tempo. Isso se chama computação paralela e reduz bastante o tempo que leva para treinar um transformador. Além disso, nos últimos anos, os processadores que podem fazer computação paralela se tornaram muito mais potentes e abundantes.
Esses três fatores de dados, arquitetura e computação convergiram nas condições certas para treinar grandes modelos de linguagem extremamente capazes. Um dos maiores LLMs é o modelo de linguagem GPT, que significa transformador pré-treinado generativo (Generative Pre-Trained Transformer). Em outras palavras: um modelo que já foi treinado e pode ser usado para gerar conteúdo de texto.
Ecossistema emergente
Agora já existem centenas de sites na internet onde você pode ir para experimentar a IA generativa. Ao visitar um desses sites, você está na ponta de um iceberg tecnológico. E essa tecnologia pode vir de várias fontes diferentes. Vamos investigar a pilha tecnológica que possibilita levar experiências de IA generativa incríveis para as massas.
- Na base do iceberg estão os provedores de hardware de computação. O treinamento de um LLM pode usar um poder de computação extremo, mesmo que seja o treinamento de um transformador. Também é necessário poder de computação para processar solicitações e efetivamente usar o modelo depois do treinamento. Tecnicamente, você pode treinar modelos de IA em qualquer hardware de computação, mas os processadores que são excelentes em computação paralela são ideais. Atualmente, o maior nome na computação de IA é a Nvidia.
- A seguir temos as plataformas de nuvem que permitem aos desenvolvedores usar o hardware de computação em um modelo de implantação em nuvem. Os desenvolvedores podem alugar pelo tempo adequado para um projeto e as plataformas podem distribuir eficientemente as solicitações de tempo de computação em um sistema conectado. Google, Amazon, Microsoft e Oracle são os principais provedores de tecnologia nessa faixa.
- Modelos de IA, incluindo LLMs, são a camada seguinte. Esses modelos são criados minuciosamente com técnicas de pesquisa e treinados com uma combinação de dados públicos e selecionados privadamente. Os desenvolvedores podem se conectar a LLMs por meio de uma interface de programação de aplicativo (API) para poderem usar todo o poder do PLN em seus próprios aplicativos. O modelo de IA treinado e acessível costuma ser chamado de modelo fundacional. Como esses modelos são acessados por meio de uma API, os desenvolvedores podem trocar de um modelo fundacional para outro facilmente conforme a necessidade. Alguns exemplos de modelos fundacionais são GPT4, Claude, Stable Diffusion e LLaMA.
- A camada seguinte é a otimização de infraestrutura, que se trata de fornecer ferramentas e serviços que geram treinamentos de modelo mais eficientes e de alta qualidade. Por exemplo, um serviço pode oferecer conjuntos de dados perfeitamente selecionados para treinamento. Outro pode fornecer análise para testar a precisão do conteúdo gerado. Também é aqui que os modelos fundacionais podem ser ajustados com dados proprietários e especializados a fim de atender melhor às necessidades de determinada empresa. Esse é um espaço agitado no ecossistema de IA, com várias empresas oferecendo vários serviços de otimização.
- Por fim, voltamos à ponta do iceberg: os aplicativos. Os desenvolvedores de todos os tipos podem usar serviços de otimização e modelos fundacionais em seus aplicativos. Já vemos ferramentas autônomas alimentadas por LLM, além de plug-ins para aplicativos populares.
Esse ecossistema de empresas de tecnologia tem prosperado a uma velocidade incrível nos últimos anos. Algumas empresas se especializam em determinado segmento. Por exemplo, uma na faixa de modelos fundacionais pode querer se concentrar em treinar modelos novos e com melhor desempenho para se diferenciar. Outras empresas criarão soluções que penetram várias camadas da pilha tecnológica, criando seu próprio LLM proprietário para uso em seu aplicativo.
Muitas empresas estão apenas começando a vislumbrar o que a IA pode fazer por elas. Considerando a demanda sem precedentes por tecnologia de IA, existem muitas oportunidades para empresas acharem seu lugar em vários níveis da pilha tecnológica de IA.
Preocupações comuns sobre IA generativa
A IA generativa trará muitas mudanças em como interagimos com os computadores. Assim como em qualquer tecnologia disruptiva, é importante entender suas limitações e motivos de preocupação. Veja algumas das principais questões relativas a IA generativa.
Alucinações: lembre-se de que a IA generativa é apenas outra forma de previsão, e às vezes as previsões estão erradas. As previsões de IA generativa que divergem da resposta esperada, com base em fatos, são chamadas de alucinações. Elas ocorrem por alguns motivos, por exemplo, se os dados de treinamento estavam incompletos ou tinham viés, ou se o modelo não foi bem projetado. Ou seja, assim como em qualquer texto gerado por IA, reserve um tempo para verificar a veracidade do conteúdo.
Segurança de dados: as empresas podem compartilhar dados proprietários em dois momentos do ciclo de vida da IA generativa. Primeiro, na hora de ajustar um modelo fundacional. Segundo, na hora de efetivamente usar o modelo para processar uma solicitação com dados confidenciais. As empresas que oferecem serviços de IA precisam demonstrar que a confiança é essencial e que os dados estarão sempre protegidos.
Plágio: os LLMs e modelos de IA para geração de imagens costumam ser treinados com dados disponíveis publicamente. Existe a possibilidade de o modelo aprender um estilo e replicar esse estilo. As empresas que desenvolvem modelos fundacionais precisam tomar medidas para adicionar variedade ao conteúdo gerado. Além disso, elas precisam selecionar os dados de treinamento para remover amostras mediante a solicitação dos criadores de conteúdo.
Personificação de usuário: está mais fácil do que nunca criar um perfil online credível completo e até com imagem gerada por IA. Os usuários falsos podem interagir com usuários reais (e outros usuários falsos) de maneira muito realista. Isso dificulta que as empresas identifiquem redes de bots que promovem seu próprio conteúdo de bot.
Sustentabilidade: o poder de computação exigido para treinar modelos de IA é gigantesco e os processadores que fazem os cálculos exigem muita potência para funcionar. À medida que os modelos vão crescendo, suas pegadas de carbono também. Felizmente, depois que um modelo é treinado, ele exige pouca energia para processar solicitações. E a energia renovável está se expandindo quase na mesma velocidade da adoção de IA!
Em resumo
A IA generativa é capaz de auxiliar pessoas e empresas em todos os tipos de tarefas linguísticas. A convergência de muitos dados, arquitetura de IA inteligente e grande quantidade de poder de computação turbinou o desenvolvimento da IA generativa e o crescimento do ecossistema de IA.
Recursos
-
Trailhead: Einstein e IA generativa: início rápido
-
Trailhead: Criação responsável de inteligência artificial
-
Ajuda: IA generativa do Einstein