Entender el ecosistema tecnológico de la IA generativa
Objetivos de aprendizaje
Después de completar esta unidad, podrá:
- Identificar los componentes clave que contribuyen al rápido desarrollo de la IA generativa.
- Describir los tipos de tecnología que componen la pila tecnológica de la IA generativa.
- Describir las inquietudes comunes que tienen las compañías sobre la IA generativa.
Potenciar el entrenamiento de la IA generativa
La IA generativa ha adquirido muchas capacidades en lo que parece muy poco tiempo. El ritmo increíblemente rápido de mejora se debe en gran medida a tres grandes factores. El primero es la disponibilidad de enormes cantidades de datos de entrenamiento. Como se mencionó en la unidad anterior, los más de mil millones de páginas web que hay en Internet son una gran fuente de ejemplos de redacción. Ahora bien, los datos solo sirven si se sabe cómo utilizarlos. Ahí es donde entra en juego el segundo gran cambio: un mejor entrenamiento.
Como aprendimos en Nociones básicas de la inteligencia artificial, los investigadores diseñan redes neuronales que utilizan una matemática sofisticada para entrenar modelos de IA. La arquitectura de las redes neuronales es un campo de estudio que progresa constantemente. En 2017, investigadores de Google publicaron un artículo revolucionario sobre el entrenamiento de grandes modelos lingüísticos. Propusieron una nueva arquitectura de IA que se conoce como transformador. Como podemos imaginar, los detalles de la investigación son bastante complicados. Para simplificarlo (mucho): la nueva arquitectura fue capaz de identificar relaciones importantes entre las palabras, sin importar lo lejos que aparecieran dentro de un bloque de texto. Podía mantener esa conexión incluso después de procesar muchas palabras.
La nueva arquitectura de transformadores nos lleva al tercer factor importante en el rápido avance de la IA generativa: la potencia de computación. Se necesita mucha potencia de procesamiento para realizar las operaciones matemáticas que subyacen al entrenamiento de modelos de IA. Históricamente, los modelos de IA se han diseñado de forma que requieren una secuencia de cálculos, ejecutados uno tras otro. La arquitectura de transformadores es distinta: se basa en muchos cálculos separados y simultáneos.
De este modo, un procesador puede realizar el primer cálculo mientras otro procesador realiza el segundo al mismo tiempo. Esto se conoce como computación paralela y reduce significativamente el tiempo que lleva entrenar a un transformador. Además, en los últimos años, los procesadores con capacidad de computación paralela se han vuelto mucho más eficaces y abundantes.
Estos tres factores —datos, arquitectura y computación— han convergido en las condiciones idóneas para entrenar grandes modelos lingüísticos muy capaces. Uno de los modelos de lenguaje grande (LLM) más populares es el GPT, sigla en inglés que significa “transformador generativo preentrenado”. En otras palabras, se trata de un modelo ya entrenado que puede utilizarse para generar contenido relacionado con texto.
Ecosistema emergente
Ahora mismo, ya hay cientos de sitios en Internet a los que puede acudir para ponerse manos a la obra con la IA generativa. Cuando visita uno de esos sitios, está en la punta de un iceberg tecnológico. Y esa tecnología puede provenir de muchas fuentes distintas. Investiguemos la pila tecnológica que hace posible llevar al público masivo increíbles experiencias de IA generativa.
- En la base del iceberg, empezamos con los proveedores de hardware informático. Entrenar a un LLM puede requerir una cantidad asombrosa de potencia computacional, incluso si se entrena a un transformador. También se necesita potencia computacional para procesar las solicitudes de uso real del modelo una vez entrenado. Técnicamente, se pueden entrenar modelos de IA en cualquier hardware informático, pero lo ideal son los procesadores que se destacan por su capacidad de computación paralela. En la actualidad, Nvidia es el nombre líder en el ámbito de la computación de IA.
- Le siguen las plataformas de nube que permiten que los desarrolladores aprovechen el hardware informático en un modelo de implementación en la nube. Los desarrolladores pueden reservar la cantidad de tiempo adecuada para un proyecto específico, y las plataformas pueden distribuir de forma eficaz las solicitudes de tiempo de computación a través de un sistema conectado. Google, Amazon, Microsoft y Oracle son los principales proveedores de tecnología en esta área.
- Los modelos de IA, incluidos los LLM, constituyen la capa siguiente. Estos modelos se elaboran cuidadosamente mediante técnicas de investigación y se entrenan combinando datos depurados públicos y privados. Los desarrolladores pueden conectarse a los LLM a través de una interfaz de programación de aplicaciones (API), de modo que puedan aprovechar toda la potencia del procesamiento de lenguaje natural (PLN) en sus propias aplicaciones. El modelo de IA entrenado y accesible suele denominarse modelo fundacional. Dado que se accede a estos modelos a través de una API, los desarrolladores pueden cambiar fácilmente de un modelo fundacional a otro según sea necesario. Algunos de los modelos fundacionales son GPT4, Claude, Stable Diffusion y LLaMA.
- La siguiente capa es la optimización de la infraestructura, que consiste en proporcionar herramientas y servicios que permitan un entrenamiento de modelos más eficaz y de mayor calidad. Por ejemplo, un servicio puede ofrecer conjuntos de datos perfectamente depurados para entrenar. Otro podría proporcionar análisis para comprobar la exactitud del contenido generado. También es en este punto donde los modelos fundacionales pueden refinarse con datos especializados y propios de una compañía concreta para satisfacer mejor sus necesidades. Se trata de un espacio muy concurrido en el ecosistema de la IA, ya que muchas empresas ofrecen diversos servicios de optimización.
- Finalmente, nos encontramos de nuevo en la punta del iceberg: las aplicaciones. Desarrolladores de todo tipo pueden aprovechar los servicios de optimización y los modelos fundacionales para sus aplicaciones. Ya existen herramientas independientes basadas en LLM, así como complementos para aplicaciones convencionales.
Este próspero ecosistema de compañías tecnológicas ha crecido a un ritmo increíble en los últimos años. Algunas compañías se especializarán en un segmento en particular. Por ejemplo, puede que una empresa que se encuentra en el ámbito de los modelos fundacionales quiera centrarse en entrenar modelos nuevos y de mejor rendimiento para diferenciarse. Otras compañías crearán soluciones que abarquen múltiples capas de la pila tecnológica y crearán su propio LLM para utilizarlo en su aplicación.
Muchas empresas están empezando a comprender lo que la IA puede hacer por ellas. Dada la demanda sin precedentes de tecnología de IA, las empresas tienen muchas oportunidades de dejar su huella en varios niveles de la pila tecnológica de IA.
Inquietudes comunes acerca de la IA generativa
La IA generativa va a provocar muchos cambios en nuestra forma de interactuar con las computadoras. Con cualquier tecnología disruptiva, es importante comprender sus limitaciones y los motivos de preocupación. A continuación se presentan algunos de los principales problemas de la IA generativa.
Alucinaciones: recuerde que la IA generativa es en realidad otra forma de predicción, y a veces las predicciones son erróneas. Las predicciones de la IA generativa que divergen de una respuesta esperada, basada en hechos, se conocen como “alucinaciones”. Ocurren por varias razones. Puede ser porque los datos usados para el entrenamiento eran incompletos o estaban sesgados, o porque el modelo no se diseñó bien. Por lo tanto, con cualquier texto generado por IA, tómese su tiempo para verificar que el contenido sea correcto.
Seguridad de datos: las empresas pueden compartir datos propios en dos puntos del ciclo de vida de la IA generativa. Primero, cuando ajustan un modelo fundacional. Segundo, cuando verdaderamente usan el modelo para procesar una solicitud con datos confidenciales. Las compañías que ofrecen servicios de IA deben demostrar que la confianza es primordial y que los datos estarán siempre protegidos.
Plagio: los LLM y los modelos de IA para generación de imágenes suelen entrenarse con datos disponibles públicamente. Existe la posibilidad de que el modelo aprenda un estilo y lo reproduzca. Las empresas que desarrollan modelos fundacionales deben tomar medidas para agregar variación al contenido generado. Además, es posible que tengan que depurar los datos de entrenamiento para eliminar muestras a petición de los creadores de contenido.
Suplantación de identidad del usuario: Ahora es más fácil que nunca crear un perfil en línea creíble, con una foto generada por inteligencia artificial. Los usuarios falsos de este tipo pueden interactuar con usuarios reales (y con otros usuarios falsos) de una forma muy realista. Esto dificulta que las empresas identifiquen las redes de bot que promocionan su propio contenido de bot.
Sostenibilidad: la potencia de computación necesaria para entrenar modelos de IA es inmensa, y los procesadores que realizan los cálculos requieren mucha energía real para funcionar. A medida que los modelos crecen, también aumenta su huella de carbono. Por fortuna, una vez entrenado un modelo, se necesita relativamente poca energía para procesar las solicitudes. Además, las energías renovables se expanden casi tan rápido como la adopción de la IA.
En resumen
La IA generativa es capaz de ayudar a empresas y personas en todo tipo de tareas lingüísticas. La convergencia de una gran cantidad de datos, una arquitectura de IA inteligente y enormes cantidades de potencia de computación han impulsado el desarrollo de la IA generativa y el crecimiento del ecosistema de la IA.
Recursos
-
Trailhead: Einstein y la IA generativa: Vistazo rápido
-
Trailhead: Creación responsable de inteligencia artificial
-
Ayuda: IA generativa de Einstein