Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Retirar el sesgo de sus datos y algoritmos

Objetivos de aprendizaje

Después de completar esta unidad, podrá:

  • Identificar los factores que están excluidos o sobrerrepresentados en su conjunto de datos.
  • Explicar el beneficios de realizar estudios pre mortem para reducir el sesgo de interacción.
  • Establecer un plan para garantizar que no se ingresó nuevo sesgo en sus resultados.

Gestionar los riesgos del sesgo

Tratamos los diversos tipos de sesgo a tener en cuenta mientras trabajamos con la IA. Ahora viene lo difícil: cómo evitar o gestionar los riesgos que esos sesgos crean. No puede retirar el sesgo de sus datos de entrenamiento por arte de magia. Retirar la exclusión es un problema social como técnico: Puede tomar precauciones como equipo sobre cómo planificar y ejecutar su producto, además de modificar sus datos. 

Realizar estudios pre mortem

Como tratamos en la primera unidad, crear un producto de manera responsable empieza con la construcción de una cultura ética. Una forma de hacer esto es incorporando estudios pre mortem a su flujo de trabajo. 

Un estudio pre mortem es lo opuesto a uno post mortem: es una oportunidad de cazar “lo que falló” antes de que ocurra. A menudo, los miembros de equipos pueden ser reacios a compartir reservas en la fase de planificación de un proyecto. En un área delicada como la IA, es de capital importancia que usted y su equipo estén abiertos sobre cualquier recelo que pudieran tener y no estar cómodos. Tener dicha reunión puede atemperar el deseo de abandonar la prudencia en el entusiasmo inicial sobre un proyecto estableciendo expectativas medidas y realistas. 

Identificar factores excluidos o sobrerrepresentados en su conjunto de datos

Tenga en cuenta los profundos factores sociales y culturales que se reflejan en su conjunto de datos. Como detallamos en la unidad anterior, cualquier sesgo al nivel de su conjunto de datos puede afectar a su sistema de recomendación de IA, y puede dar como resultado en la sobre o infrarrepresentación de un grupo.

Desde una perspectiva técnica, existen un par de formas con las que puede solucionar el sesgo en sus datos. Estas técnicas no son de ningún modo exhaustivas.

Qué: Los patrones estadísticos que se aplican a la mayoría podrían no ser válidos dentro de un grupo minoritario.

Cómo: Considere crear algoritmos diferentes para grupos diferentes en vez de tener uno para todos.

Qué: Las personas se excluyen de su conjunto de datos, y esa exclusión tiene una repercusión sobre sus usuarios. El contexto y la cultura son relevantes, pero podría ser imposible ver los efectos en los datos.

Cómo: Busque lo que investigadores llaman incógnitas desconocidas, errores que ocurren cuando un modelo tiene una alta confianza sobre una predicción que en realidad es errónea. Las incógnitas desconocidas están en contraste con lo conocido desconocido, predicciones incorrectas que el modelo realiza con baja confianza. Al igual que un modelo que genera contenido, puede generar información que no tenga nada que ver con su solicitud.

Evaluar regularmente sus datos de entrenamiento

Como dijimos antes, desarrollar un sistema de IA comienza en el nivel de sus datos de entrenamiento. Debería ser escrupuloso sobre solucionar los problemas de calidad de los datos lo antes posible en el proceso. Asegúrese de solucionar los extremos, los duplicados, los valores atípicos y la redundancia en CRM Analytics u otras herramientas de preparación de datos.

Antes de liberar sus modelos, asegúrese de ejecutar pruebas previas al lanzamiento de modo que su sistema no realice predicciones o juicios sesgados que afecten a las personas del mundo real. Asegúrese de que se hayan probado de modo que no causen daño. Querrá poder justificar que su producto funciona en comunidades diferentes con el fin de no tener sorpresas en el lanzamiento. 

Después de lanzar un modelo, desarrolle un sistema para comprobar periódicamente los datos desde los que sus algoritmos están aprendiendo y las recomendaciones que está realizando su sistema. Piense en sus datos como si tuviesen una vida media: no funcionarán para todos de manera indefinida. En el lado técnico, cuando más datos ingresen en un sistema, más aprende un algoritmo. Esto puede llevar al sistema a identificar y hacer coincidir patrones que aquellos que desarrollan el producto no previeron o desearon. 

En el lado social, los valores culturales cambian con el paso del tiempo. El resultado de sus algoritmos podría dejar de ajustarse a los sistemas de valores de las comunidades a las que sirve. Las dos maneras de solucionar estos retos incluyen procesos de revisión de comunidades pagados para corregir los descuidos y crear mecanismos en su producto para que los individuos y los usuarios cancelen sus suscripciones o corrijan sus propios datos. Los procesos de revisión de comunidades deben incluir personas de las personas que podrán verse afectadas por el sistema algorítmico que está desarrollando. También podría celebrar sesiones con las personas que implementarán, gestionarán y utilizarán el sistema para cumplir los objetivos de sus organizaciones. Diríjase a nuestros Fundamentos de investigación UX para aprender más sobre los métodos que puede utilizar para realizar procesos de revisión de comunidades, así como para realizar investigaciones de usuarios para comprender los contextos en los que se utilizará su herramienta.

Conclusión

La IA puede ser una fuerza positiva, detectando tumores que las personas no pueden detectar y el Alzheimer antes de que se de cuenta la familia o preservando los idiomas indígenas. A lo largo de este módulo le mostramos el poder de los sistemas de IA, pero también su opacidad. Si queremos que la IA beneficie la sociedad más que dañarla, tenemos que reconocer los riesgos y realizar acciones para garantizar que los sistemas de IA son diseñados, desarrollados y utilizados de manera responsable.

Como tecnólogos, incluso cuando somos rigurosos y conscientes de nuestro enfoque, habrá sorpresas en el camino. No podemos predecir siempre las interacciones entre conjuntos de datos, modelos y sus contextos culturales. Los conjuntos de datos a menudo contienen sesgos de los que no nos percatamos, y es nuestra responsabilidad evaluar y analizar los datos de entrenamiento y las predicciones de nuestros modelos para garantizar que no arrojan resultados dañinos.

El desarrollo de sistemas de IA éticos es un proceso sociotécnico. Contémplelo no solo en lo referente a su implementación técnica, sino también del modo en que está desarrollado entre equipos y los contextos sociales en los que se utilizará. Y lo que es más, evalúe quién está involucrado en el proceso: ¿cómo está representado el género, la raza, el origen étnico y la edad? Las personas que construyen productos de IA y el sesgo engendrado por estos sistemas están interconectados.

Para realizar una IA segura y socialmente beneficiosa tenemos que recordar que los humanos estamos en su corazón. IA es una herramienta y nosotros elegimos cómo utilizarla. Independientemente de la función de una persona, sus decisiones menores pueden tener consecuencias serias y duraderas. En Salesforce creemos firmemente que podemos hacerlo bien y hacer el bien. Puede obtener beneficios sin dañar a otros y, de hecho, tener una repercusión positiva en el proceso. 

Recursos

Comparta sus comentarios de Trailhead en la Ayuda de Salesforce.

Nos encantaría saber más sobre su experiencia con Trailhead. Ahora puede acceder al nuevo formulario de comentarios en cualquier momento en el sitio de Ayuda de Salesforce.

Más información Continuar a Compartir comentarios