Comprender el ecosistema de tecnología de la IA generativa
Objetivos de aprendizaje
Después de completar esta unidad, podrá:
- Identificar los componentes principales que contribuyen al desarrollo rápido de la IA generativa.
- Describir los tipos de tecnología que componen la pila tecnológica de la IA generativa.
- Describir las preocupaciones comunes que tienen las empresas sobre la IA generativa.
Potenciar el entrenamiento de IA generativa
La IA generativa ha aumentado sus las capacidades en lo que parece ser un corto periodo de tiempo. Este rápido ritmo de mejora se debe principalmente a tres grandes factores. El primero es la disponibilidad de grandes cantidades de datos de entrenamiento. Tal y como se mencionó en la unidad anterior, más de mil millones de páginas web de internet son una excelente fuente de escritura. Sin embargo, los datos solo son buenos si se cuenta con un modo de utilizarlos. Aquí es donde entra en juego el segundo gran cambio: un entrenamiento mejor.
Como ya vio en Aspectos fundamentales de la inteligencia artificial, los investigadores diseñan redes neurológicas que utilizan cálculos complejos para entrenar modelos de IA. La arquitectura de las redes neuronales es un campo de estudio en constante progreso. En 2017, los investigadores de Google publicaron un artículo sobre el entrenamiento de los modelos de lenguaje grandes que cambió las reglas del juego. Propusieron una nueva arquitectura de IA llamada transformer (transformador). Como podrá imaginar, los detalles de la investigación son bastante complicados. Pero, para hacerlo más sencillo, la nueva arquitectura era capaz de identificar relaciones importantes entre palabras, sin importar lo lejos que aparecieran la una de la otra en un texto. Podía retener esa conexión incluso después de procesar muchas palabras.
La nueva arquitectura "transformer" nos lleva al tercer factor principal en el rápido avance de la IA generativa: la potencia computacional. Los cálculos que se llevan a cabo en el modelo de entrenamiento de la IA requieren mucha potencia. Históricamente, los modelos de IA se han diseñado de manera que requieran una secuencia de cálculos, que se ejecutan uno detrás del otro. La arquitectura "transformer" es diferente, porque se basa en la realización de muchos cálculos simultáneos e individuales.
Así, un procesador de ordenador puede realizar el primer cálculo mientras que otro procesador realiza el segundo al mismo tiempo. A esto se le llama computación en paralelo, y reduce enormemente el tiempo que se tarda en entrenar un tipo de arquitectura transformer. Además, en los últimos años los procesadores que pueden realizar computación en paralelo han adquirido más potencia y son más abundantes.
Estos tres factores de datos, arquitectura y computación se han combinado con las condiciones adecuadas para entrenar modelos de lenguaje grandes muy eficaces. Uno de los mayores modelos de lenguaje es el modelo de lenguaje GPT, que significa transformador generativo preentrenado. En otras palabras, un modelo que ya se ha entrenado y puede utilizarse para generar contenido relacionado con texto.
Ecosistema emergente
Actualmente, ya existen cientos de sitios en internet en los que puede obtener experiencia con la IA generativa. Al visitar uno de esos sitios, estará en la punta de un iceberg tecnológico. Esa tecnología puede proceder de muchas fuentes diferentes. Veamos la pila de tecnología que hace que posible que las masas experimenten la IA generativa.
- En la parte inferior del iceberg se encuentran los proveedores de hardware informático. El entrenamiento de un gran modelo de lenguaje puede implicar una potencia computacional cada vez mayor, incluso si está entrenando un modelo de transformer. La potencia computacional también es necesaria para procesar solicitudes con las que utilizar el modelo una vez entrenado. Técnicamente puede entrenar modelos de IA en cualquier hardware informático, pero lo ideal es hacerlo en los procesadores que destacan en la computación en paralelo. Hoy en día, el nombre más sonado en computación de IA es Nvidia.
- Luego están las plataformas en la nube, que permiten que los desarrolladores saquen provecho de los hardware informáticos en un modelo de implementación en la nube. Los desarrolladores pueden contratar la cantidad de tiempo que necesiten para un proyecto específico, y las plataformas pueden distribuir las solicitudes de tiempo de computación en un sistema conectado de manera eficaz. Google, Amazon, Microsoft y Oracle son los principales proveedores de tecnología en este espacio.
- Los modelos de IA, entre los que se incluyen los modelos de lenguaje grandes, se encuentran en el siguiente nivel. Estos modelos están elaborados cuidadosamente utilizando técnicas de investigación y se entrenan utilizando una combinación de datos organizados públicos y privados. Los desarrolladores pueden conectar una interfaz de programación de aplicaciones (API) a los modelos de lenguaje grandes, de manera que puedan emplear la potencia total del procesamiento de lenguaje natural en sus propias aplicaciones. Al modelo de IA entrenado y accesible se le conoce comúnmente como modelo fundamental. Como a estos modelos se accede mediante una API, los desarrolladores pueden cambiar de uno a otro con facilidad según sea necesario. Algunos ejemplos de modelos fundamentales son GPT4, Claude, Stable Diffusion y LLaMA.
- En el siguiente nivel se encuentra la optimización de la infraestructura, que consiste en proporcionar herramientas y servicios que permiten que el modelo de entrenamiento sea más eficiente y de mejor calidad. Por ejemplo, es posible que un servicio ofrezca conjuntos de datos perfectamente organizados para entrenarlos. Otro servicio podría ofrecer análisis para probar la precisión del contenido generado. En este punto, los modelos fundamentales también pueden ajustarse con datos especializados y propios con el fin de cumplir mejor con las necesidades de una empresa en concreto. Este es un espacio bastante concurrido del ecosistema de la IA, ya que hay muchas empresas que ofrecen una gran variedad de servicios de optimización.
- Por último, en la punta del iceberg encontramos las aplicaciones. Desarrolladores de todo tipo pueden sacar provecho de los servicios de optimización y de los modelos fundamentales para sus aplicaciones. Ya vemos herramientas independientes con tecnología de LLM, al igual que complementos para aplicaciones populares.
Este próspero ecosistema de empresas de tecnología ha crecido a una velocidad increíble en los últimos años. Algunas empresas se especializarán en un segmento en concreto. Por ejemplo, es posible que alguna empresa centrada en el espacio de modelos fundamentales quiera centrarse en el entrenamiento de modelos nuevo y de mejor rendimiento para diferenciarse de las demás. Otras empresas optarán por crear soluciones que abarcan varias capas de la pila tecnológica, creando su propio LLM con el fin de utilizarlo con su aplicación.
Muchos negocios están empezando a hacer de una idea en lo que la IA puede hacer por ellos. Dada la demanda sin precedentes de la tecnología de IA, hay una gran cantidad de oportunidades para que los negocios se hagan un hueco en varios niveles de la pila tecnológica de la IA.
Preocupaciones comunes sobre la IA generativa
La IA generativa conducirá a varios cambios en la manera en la que interactuamos con los ordenadores. Es importante comprender las limitaciones y causas de preocupación de cualquier tecnología revolucionaria. A continuación se enumeran algunas de las principales preocupaciones en cuanto a la IA generativa.
Alucinaciones: Recuerde que la IA generativa es otra forma de predicción y, a veces, las predicciones fallan. Las predicciones de la IA generativa que difieren de una respuesta esperada y basada en hechos se conoce como alucinaciones. Pueden deberse a varias razones, por ejemplo, que los datos de entrenamiento no estén completos o estén sesgados, o que el modelo no se haya diseñado correctamente. Por ello, tómese tiempo en comprobar si el contenido de los textos generados mediante IA es fácticamente correcto.
Seguridad de datos: Los negocios pueden compartir datos propios en dos puntos del ciclo de vida de la IA generativa. En primer lugar, a la hora de ajustar un modelo fundamental. En segundo lugar, al utilizar el modelo para procesar una solicitud con datos confidenciales. Las empresas que ofrecen servicios de IA deben demostrar que la confianza es primordial y que los datos estarán siempre protegidos.
Plagio: Los modelos de LLM e IA para la generación de imágenes se entrenan normalmente con datos públicos. Existe la posibilidad de que el modelo aprenda un estilo y lo reproduzca. Los negocios que desarrollan modelos fundamentales deben adoptar medidas para incluir variaciones en el contenido generado. Además, es posible que necesiten organizar los datos de entrenamiento para eliminar muestras por petición de los creadores de contenido.
Suplantación de identidad de los usuarios: Resulta más fácil que nunca crear un perfil creíble en línea y completo con una imagen generada por la IA. Los usuarios falsos pueden interactuar con usuarios reales (y con otros usuarios falsos) de un modo muy realista. Esto hace que a los negocios les resulte complicado identificar redes de bots que promuevan su contenido para bot.
Sostenibilidad: La potencia computacional requerida para entrenar modelos de IA es inmensa y los procesadores que realizan los cálculos requieren mucha potencia para ejecutarse. A medida que crecen los modelos, también lo hacen sus huellas de carbono. Por suerte, una vez que el modelo está entrenado, consume poca potencia para procesar solicitudes. Además, la energía renovable se está expandiendo casi tan rápido como la adopción de la IA.
Resumen
La IA generativa es capaz de asistir a los negocios y a las personas con todo tipo de tareas basadas en lenguaje. La convergencia de una gran cantidad datos, una arquitectura inteligente de IA y una inyección de potencia computacional ha potenciado al máximo el desarrollo de la IA generativa y el crecimiento del ecosistema de IA.
Recursos
-
Trailhead: Einstein e IA generativa un vistazo rápido
-
Trailhead: Creación responsable de inteligencia artificial
-
Ayuda: IA generativa de Einstein