Skip to main content

Crear IA generativa responsable

Objetivos de aprendizaje

Después de completar esta unidad, podrá:

  • Enumerar los cinco principios para el desarrollo responsable de a IA generativa.
  • Identificar las funciones de la IA generativa de confianza en el producto de Salesforce.
  • Describir las prácticas recomendadas para identificar riesgos éticos y crear protecciones.

IA generativa, un nuevo tipo de inteligencia artificial

Hasta hace poco, la mayoría de las personas que hablaban sobre IA hablaban en realidad sobre IA predictiva. Este tipo de inteligencia artificial se centra en observar un conjunto de datos existente y realizar predicciones limitadas sobre lo que debería ser verdad teniendo en cuenta la información con la que se cuenta. Ahora, hay un nuevo jugador en el terreno; un tipo de IA emergente: la generativa, no la predictiva. ¿Cuál es la principal diferencia? Mientras que la IA predictiva analiza tendencias, la IA generativa crea contenido nuevo.

La IA generativa presume de una variedad increíble de funciones, desde conversaciones en tiempo real con bots que simulan diálogos de manera eficaz como si fuesen un agente de asistencia en directo hasta aplicaciones para los expertos en marketing, programadores y creadores precursores. Además, el momento cultural de la IA generativa provoca que los usuarios vayan en manada a ver lo que esta puede hacer. Esto significa que es posible que la mayoría de nosotros encontremos estos algoritmos en nuestra vida diaria, donde pueden jugar un papel cada vez más importante.

Toda tecnología emergente viene con lo desconocido. Ya sea un abuso intencionado o un sesgo accidental, la IA generativa implica riesgos que deben comprenderse y abordarse para sacar el máximo partido de esta tecnología.

Conocer los riesgos

En Salesforce, nos centramos en el diseño, desarrollo y distribución de las tecnologías de manera responsable y leal. Para ello, nos anticipamos a las consecuencias intencionadas y no intencionadas de lo que creamos.

Veamos algunos posibles riesgos de la IA generativa.

Precisión

Los modelos de IA generativa son muy buenos haciendo predicciones. Los modelos de IA generativa crean nuevo contenido recopilando toneladas de ejemplos de cosas que encajan en las mismas categorías. Pero, mientras que un modelo es capaz de crear una nueva oración en el estilo de un famoso escritor, no hay manera de saber si esa misma oración es cierta. Esto puede ser un problema cuando los usuarios asumen que las predicciones de la IA son hechos verificados. Esto es tanto una función como un fallo. Proporciona a los modelos las funciones creativas que capturaba la imaginación en sus inicios. Pero resulta sencillo confundir algo que parece correcto con algo que sea certero en el mundo real. 

Sesgo y toxicidad

Dado que las interacciones humanas pueden suponer un grado de toxicidad (comportamiento perjudicial, como el uso de insultos o prejuicios), la IA replica esa toxicidad cuando no se ha ajustado para que la reconozca y la filtre. De hecho, incluso puede amplificar el sesgo que encuentra, ya que la realización de predicciones normalmente implica descartar datos menos relevantes. Para una IA, esto puede incluir comunidades no representadas. 

Privacidad y seguridad

Las dos funciones más convincentes de la IA generativa so la capacidad de replicar el comportamiento humano y la velocidad para hacerlo a una enorme escala. Estas funciones ofrecen posibilidades increíbles. Pero hay un inconveniente: Es fácil abusar de la tecnología para ejercer una gran cantidad de daño muy rápidamente. Los modelos tienen una tendencia para "perder" sus datos de entrenamiento, haciendo que la información privada de las personas quede expuesta. La IA generativa puede incluso utilizarse para crear correos electrónicos de phishing increíbles o para copiar una voz a fin de burlar la seguridad. 

Interrupción

Debido a todo lo que puede hacer la IA, esta supone un riesgo para la sociedad, incluso cuando funciona según lo previsto. La inestabilidad económica, los cambios de trabajo y responsabilidad, y la preocupación por la sostenibilidad que surgen a partir del uso extensivo de la computación que necesitan estos modelos tienen implicaciones en los espacios que compartimos. 

Confianza: Conclusión

La confianza es el valor principal en Salesforce y es la base para crear e implementar aplicaciones con IA generativa. Para guiar este trabajo, hemos creado un conjunto de  principios para desarrollar IA generativa de manera responsable y ayudar a otras personas a utilizar el potencial tecnológico para evitar los obstáculos que puedan presentarse.

Precisión: La IA generativa, al igual que otros modelos, realiza predicciones basadas en los datos con los que se ha entrenado. Esto implica la necesidad de datos fidedignos a fin de proporcionar resultados precisos. Además, también implica que las personas sean conscientes de la probabilidad de incertidumbre e imprecisión en los resultados de una IA.

Seguridad: Las evaluaciones del sesgo, de la capacidad de explicación y de la solidez del sistema, junto con pruebas de uso intensivo deliberado para los resultados negativos, nos ayudan a mantener la seguridad de los clientes en cuanto a los daños provocados por la toxicidad y los datos erróneos. También protegemos la privacidad de cualquier tipo de información de identificación personal (PII) que esté presente en los datos utilizados para la formación. Además, creamos protecciones para evitar daños adicionales (como la publicación de código en un sandbox en lugar de distribuirlo al entorno de producción automáticamente).

Honestidad: Sus datos no son nuestro producto. Al recopilar datos para entrenar y evaluar nuestros modelos, debemos respetar la procedencia de dichos datos y asegurarnos de que tenemos permiso para utilizarlos (por ejemplo, que sean de código abierto o proporcionados por el usuario). También es importante notificar a las personas si están utilizando una IA o están interactuando con ella, con una marca de agua o un aviso legal, a fin de que no confundan un bot de chat bien ajustado con un agente humano.

Empoderamiento: Existen algunos casos donde resulta mejor automatizar los procesos por completo. Sin embargo, hay otros casos donde la IA debería jugar un papel secundario con respecto a los humanos, o donde se requiere el criterio humano. Queremos potenciar lo que los humanos pueden hacer desarrollando IA que mejore o simplifique su trabajo y proporcione a los clientes herramientas y recursos para comprender la veracidad del contenido que crean. 

Sostenibilidad: Cuando se trata de modelos de IA, que sean más grandes no significa que sean mejores: Algunas veces, los modelos más pequeños y mejor entrenados consiguen mejores resultados que los modelos más grandes y con entrenamiento escaso. Encontrar el equilibrio adecuado entre el poder de los algoritmos y la sostenibilidad a largo plazo es una parte fundamental del proceso de introducir IA generativa en nuestro futuro.

Las directrices rigen la actuación de la IA

¿Cómo se trabaja teniendo en cuenta estos compromisos? Estas son algunas acciones que Salesforce está llevando a cabo.

Capa de confianza de Einsteinhemos integrado La Capa de confianza de Einstein en Salesforce Platform para ayudar a elevar la seguridad de la IA generativa mediante controles de datos y de privacidad que están integrados en la experiencia del usuario final. Para obtener más información, consulte Capa de confianza de Einstein en la Ayuda.

Decisiones de diseño de productos: Los usuarios deberían poder confiar en el hecho de que cuando utilizan IA, consiguen conclusiones y asistencia fiables que les permiten cumplir sus necesidades sin exponerse al riesgo de compartir algo impreciso o incorrecto. 

Incorporamos responsabilidad en nuestros productos. Lo examinamos completamente todo, desde el color de los botones hasta las limitaciones de los resultados, a fin de garantizar que hacemos todo lo posible por proteger a los clientes del riesgo sin sacrificar las funciones en las que confían para mantener su competitividad. 

Fricción consciente: Los usuarios deberían disponer de la información que necesitan a fin de tomar mejores decisiones para sus casos de uso. Ayudamos a los usuarios a que se adelanten a los acontecimientos, pero siempre dejando que sean conscientes de las fricciones que pueden surgir. En este caso, "fricción" significa interrupción del proceso habitual de completar una tarea para estimular una reflexión. Por ejemplo, ventanas emergentes de directrices en aplicación para instruir a los usuarios sobre el sesgo, o marcar la toxicidad detectada y pedir a los agentes del servicio de atención al cliente que revisen la respuesta detalladamente antes de enviarla.

Evaluar las vulnerabilidades: Evaluamos las vulnerabilidades, un proceso que implica intentar, de manera intencionada, encontrar las vulnerabilidades en un sistema anticipándose y probando la manera en la que los usuarios lo utilizan, o hacen un mal uso de él, para asegurarse de que nuestros productos de IA generativa sobreviven a la presión. Obtenga más información sobre cómo Salesforce genera confianza en nuestros productos en La Capa de confianza de Einstein en Trailhead.

Una manera de probar nuestros productos es realizar "ataques de inyección de solicitudes" preventivos, creando solicitudes diseñadas específicamente para que un modelo de IA ignore las instrucciones o los límites establecidos previamente. Anticiparse a las amenazas de ciberseguridad reales como estas es fundamental para ajustar el modelo a fin de que pueda resistir ataques reales.

Política de uso apropiado: Debido a que la IA está presente en diferentes aplicaciones, tenemos políticas específicas para nuestros modelos de IA. Esto nos permite establecer con transparencia directrices de uso apropiado a fin de asegurar la confianza para nuestros clientes y usuarios finales. Este enfoque no es algo nuevo: Salesforce ya tenía políticas de IA diseñadas para proteger a los usuarios, incluida una prohibición de reconocimiento facial y bots que se hacen pasar por humanos. 

Estamos actualizando nuestras directrices de IA para que se tenga en cuenta la IA generativa, de manera que los clientes puedan seguir confiando en nuestra tecnología. Con nuestras reglas actualizadas, cualquier persona puede ver si su caso de uso es compatible, ya que ofrecemos productos y funciones con IA más avanzada. Puede obtener más información consultando nuestra política de uso apropiado

La IA generativa cambia la manera en la que las personas y las empresas pueden trabajar juntos. No tenemos todas las respuestas, pero podemos sugerir un par de prácticas recomendadas.

Colaborar

Las asociaciones interfuncionales (dentro de las empresas y entre las instituciones públicas y privadas) son fundamentales para impulsar el progreso responsable. Nuestros equipos participan de manera activa en comités externos y en iniciativas como el National AI Advisory Committee (NAIAC) y el  marco de gestión de riesgos de NIST para contribuir al impulso de todo el sector a fin de crear IA generativa de confianza.

Incluir perspectivas diversas

Durante el ciclo de vida del producto, diversas perspectivas proporcionan un amplio abanico de datos necesarios para anticiparse a los riesgos de manera eficaz y desarrollar soluciones. Ejercicios como el análisis de consecuencias puede ayudarle a asegurarse de que sus productos incorporan voces fundamentales en la conversación sobre dónde se encuentra la IA generativa actualmente y dónde estará el día de mañana.

Ni siquiera la IA más avanzada puede predecir la manera en la que esta tecnología dará forma al futuro del trabajo, el comercio y, aparentemente, a todo lo demás. Si trabajamos juntos, podemos asegurar que los valores centrados en el ser humano crean una base de confianza desde la que podemos construir un futuro más eficiente y escalable.

Recursos

Comparta sus comentarios sobre Trailhead en la Ayuda de Salesforce.

Nos encantaría conocer su experiencia con Trailhead. Ahora puede acceder al nuevo formulario de comentarios cuando quiera desde el sitio de la Ayuda de Salesforce.

Más información Continuar para compartir comentarios