Skip to main content

Retirar el sesgo de sus datos y algoritmos

Objetivos de aprendizaje

Después de completar esta unidad, podrá:

  • Identificar los factores que están excluidos o sobrerrepresentados en su conjunto de datos.
  • Explicar el beneficio de realizar estudios pre mortem para reducir el sesgo de interacción.
  • Establecer un plan para garantizar que no se ha introducido un nuevo sesgo en sus resultados.

Gestionar los riesgos del sesgo

Tratamos los diversos tipos de sesgo a tener en cuenta mientras trabajamos con la IA. Ahora viene lo difícil: cómo evitar o gestionar los riesgos que esos sesgos crean. No puede retirar el sesgo de sus datos de entrenamiento por arte de magia. Retirar la exclusión es un problema tanto social como técnico: Puede tomar precauciones como equipo sobre cómo planificar y ejecutar su producto, además de modificar sus datos. 

Realizar estudios pre mortem

Como tratamos en la primera unidad, crear un producto de manera responsable empieza con la construcción de una cultura ética. Una forma de hacer esto es incorporando estudios pre mortem a su flujo de trabajo. 

Un estudio pre mortem es lo opuesto a uno post mortem: es una oportunidad de descubrir “lo que falló” antes de que ocurra. A menudo, los miembros de equipos pueden mostrarse reacios a compartir reservas en la fase de planificación de un proyecto. En un área delicada como la IA, es de capital importancia que usted y su equipo comuniquen sobre cualquier recelo que pudieran tener y les provoque incomodidad. Tener dicha reunión puede atemperar el deseo de abandonar la prudencia en el entusiasmo inicial sobre un proyecto estableciendo expectativas medidas y realistas. 

Identificar factores excluidos o sobrerrepresentados en su conjunto de datos

Tenga en cuenta los profundos factores sociales y culturales que se reflejan en su conjunto de datos. Como detallamos en la unidad anterior, cualquier sesgo al nivel de su conjunto de datos puede afectar a su sistema de recomendación de IA, y puede dar como resultado en la sobre o infrarrepresentación de un grupo.

Desde una perspectiva técnica, existen un par de formas con las que puede solucionar el sesgo en sus datos. Estas técnicas no son exhaustivas en absoluto.

Qué: Los patrones estadísticos que se aplican a la mayoría podrían no ser válidos dentro de un grupo minoritario.

Cómo: Considere crear algoritmos diferentes para grupos diferentes en vez de tener uno para todos.

Qué: Las personas se excluyen de su conjunto de datos, y esa exclusión tiene una repercusión en sus usuarios. El contexto y la cultura son relevantes, pero podría ser imposible ver los efectos en los datos.

Cómo: Busque lo que los investigadores llaman incógnitas desconocidas, errores que ocurren cuando un modelo tiene una alta confianza sobre una predicción que en realidad es errónea. Las incógnitas desconocidas están en contraste con lo conocido desconocido, predicciones incorrectas que el modelo realiza con baja confianza. De manera similar a cuando el modelo genera contenido, puede producir información irreal en relación con su solicitud.

Evaluar regularmente sus datos de entrenamiento

Como mencionamos anteriormente, desarrollar un sistema de IA comienza en el nivel de sus datos de entrenamiento. Debería ser meticuloso a la hora de abordar los problemas de calidad de los datos lo antes posible en el proceso. Asegúrese de solucionar los extremos, los duplicados, los valores atípicos y la redundancia en CRM Analytics u otras herramientas de preparación de datos. Consulte este artículo de la Ayuda de Salesforce para aprender cómo optimizar los datos para análisis predictivos.

Antes de liberar sus modelos, asegúrese de ejecutar pruebas previas al lanzamiento, de manera que su sistema no realice predicciones o juicios sesgados que afecten a las personas del mundo real. Asegúrese de que se hayan probado con el fin de que no causen daño. Querrá poder justificar que su producto funciona en comunidades diferentes, de manera que no se encuentre con sorpresas en el lanzamiento. 

Después de lanzar un modelo, desarrolle un sistema para comprobar periódicamente los datos desde los que sus algoritmos están aprendiendo y las recomendaciones que está realizando su sistema. Piense en sus datos como si tuviesen una vida media: no funcionarán para todos de manera indefinida. En el lado técnico, cuando más datos se introduzcan en un sistema, más aprende un algoritmo. Esto puede llevar al sistema a identificar y hacer coincidir patrones que aquellos que desarrollan el producto no previeron o desearon. 

En el lado social, los valores culturales cambian con el paso del tiempo. El resultado de sus algoritmos podría dejar de ajustarse a los sistemas de valores de las comunidades a las que sirve. Las dos maneras de abordar estos retos incluyen procesos pagados de revisión en comunidad para corregir los descuidos y crear mecanismos en su producto para que los individuos y los usuarios cancelen sus suscripciones o corrijan sus propios datos. Los procesos de revisión de comunidades deben incluir personas de las comunidades que podrán verse afectadas por el sistema algorítmico que está desarrollando. También podría celebrar sesiones con las personas que implementarán, gestionarán y utilizarán el sistema para cumplir los objetivos de sus organizaciones. Diríjase a nuestros Fundamentos de investigación UX para aprender más sobre los métodos que puede utilizar para realizar procesos de revisión de comunidades, así como para realizar investigaciones de usuarios con el fin de comprender los contextos en los que se utilizará su herramienta.

Conclusión

La IA puede ser una fuerza positiva, detectando tumores que las personas no pueden detectar y el Alzheimer antes de que se dé cuenta la familia, o preservando los idiomas indígenas. A lo largo de este módulo le mostramos el poder de los sistemas de IA, pero también su opacidad. Si queremos que la IA beneficie a la sociedad más que dañarla, tenemos que reconocer los riesgos y tomar medidas para garantizar que los sistemas de IA se diseñan, desarrollan y utilizan de manera responsable.

Como tecnólogos, incluso cuando somos rigurosos y conscientes de nuestro enfoque, habrá sorpresas en el camino. No podemos predecir siempre las interacciones entre conjuntos de datos, modelos y sus contextos culturales. Los conjuntos de datos a menudo contienen sesgos de los que no nos percatamos, y es nuestra responsabilidad evaluar y analizar los datos de entrenamiento y las predicciones de nuestros modelos para garantizar que no producen resultados dañinos.

El desarrollo de sistemas de IA éticos es un proceso sociotécnico. Contémplelo no solo en lo referente a su implementación técnica, sino también del modo en que está desarrollado entre equipos y los contextos sociales en los que se utilizará. Además, evalúe quién está involucrado en el proceso: ¿cómo están representados el género, la raza, el origen étnico y la edad? Las personas que construyen productos de IA están interconectadas con el sesgo generado por estos sistemas.

Para alcanzar una IA segura y socialmente beneficiosa tenemos que recordar que los humanos estamos en el centro de todo. La IA es una herramienta y nosotros elegimos cómo utilizarla. Independientemente de la función de una persona, sus decisiones menores pueden tener consecuencias serias y duraderas. En Salesforce creemos firmemente que podemos hacerlo bien y hacer el bien. Puede obtener beneficios sin dañar a otros y, de hecho, tener una repercusión positiva en el proceso. 

Recursos

¡Siga aprendiendo gratis!
Regístrese para obtener una cuenta y continuar.
¿Qué hay para usted?
  • Consiga recomendaciones personalizadas para sus objetivos profesionales
  • Practique sus habilidades con retos prácticos y pruebas
  • Siga y comparta su progreso con empleadores
  • Póngase en contacto para recibir asesoramiento y oportunidades laborales