Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Remover o enviesamento de seus dados e algoritmos

Objetivos de aprendizagem

Após concluir esta unidade, você estará apto a:

  • Identificar fatores que são excluídos ou excessivamente representados no seu conjunto de dados.
  • Explicar o benefício de realizar pré-mortem para reduzir o viés de interação.
  • Estabelecer um plano para garantir que novos vieses não sejam introduzidos nos seus resultados.

Gerenciar riscos de enviesamento

Nós discutimos os diferentes tipos de enviesamento a serem considerados ao trabalhar com IA. Agora a parte difícil: como prevenir ou gerenciar os riscos que esses vieses criam. Não podemos magicamente “desenviesar” os dados de treinamento. A eliminação da exclusão é um problema social e técnico: você pode se precaver como uma equipe ao planejar e executar o produto, além de modificar seus dados. 

Conduzir pré-mortems

Como discutimos na primeira unidade, a criação de um produto de forma responsável começa com a construção de uma cultura ética. Uma forma de fazer isso é incorporar pré-mortems no seu fluxo de trabalho. 

Um pré-mortem é o oposto de uma autópsia: é uma oportunidade de entender o "que deu errado" antes de acontecer. Muitas vezes, os membros da equipe podem hesitar em compartilhar dúvidas na fase de planejamento de um projeto. Em uma área sensível como a IA, é fundamental que você e sua equipe estejam abertos sobre quaisquer dúvidas que possam ter e estejam dispostos a ficar desconfortáveis. Realizar tal reunião pode moderar o desejo de jogar a precaução pela janela no entusiasmo inicial sobre um projeto, estabelecendo expectativas realistas e mensuráveis. 

Identificar fatores excluídos ou excessivamente representados no conjunto de dados

Considere os profundos fatores sociais e culturais que estão refletidos em seu conjunto de dados. Conforme detalhado na unidade anterior, qualquer enviesamento no nível do seu conjunto de dados pode afetar o sistema de recomendação da sua IA, podendo ainda resultar na representação excessiva ou sub-representação de um grupo.

De uma perspectiva técnica, aqui estão algumas maneiras de como abordar o enviesamento em seus dados. Estas técnicas não são de modo algum exaustivas.

O quê: Os padrões estatísticos que se aplicam à maioria podem ser inválidos dentro de um grupo minoritário.

Como: Considere criar algoritmos diferentes para grupos diferentes em vez de um que sirva para todos.

O quê: As pessoas são excluídas do seu conjunto de dados, e essa exclusão tem um impacto nos seus usuários. O contexto e a cultura importam, mas pode ser impossível ver os efeitos nos dados.

Como: Procure o que os pesquisadores chamam de erros desconhecidos desconhecidos, que acontecem quando um modelo é altamente confiante sobre uma previsão que está realmente errada. Desconhecidos desconhecidos contrastam com desconhecidos conhecidos, previsões incorretas que o modelo faz com baixa confiança. Assim como um modelo que gera conteúdo, eles podem produzir informações completamente irrelevantes para sua solicitação.

Avaliar regularmente os dados de treinamento

Como já dissemos antes, desenvolver um sistema de IA começa no nível de seus dados de treinamento. É preciso ser muito cuidadoso ao abordar questões de qualidade de dados o mais cedo possível no processo. Certifique-se de tratar itens extremos, duplicados, discrepantes e redundantes no CRM Analytics ou em outras ferramentas de preparação de dados.

Antes de lançar seus modelos, certifique-se de executar testes de pré-lançamento para que seu sistema não faça previsões ou julgamentos enviesados e impacte as pessoas no mundo real. Certifique-se de que foram testados para que não causem danos. Afinal, queremos poder garantir que nosso produto funcione em diferentes comunidades para não ter surpresas no lançamento. 

Após liberar um modelo, desenvolva um sistema para verificar periodicamente os dados com os quais os algoritmos estão aprendendo e as recomendações que o sistema está fazendo. Pense nos seus dados como tendo uma meia-vida, eles não funcionarão para todos indefinidamente. No lado técnico, quanto mais dados entram em um sistema, mais um algoritmo aprende. Isso pode levar o sistema a identificar e combinar padrões que aqueles que desenvolveram o produto não previam ou queriam. 

No lado social, os valores culturais mudam ao longo do tempo. A saída dos algoritmos pode não se adequar mais aos sistemas de valores das comunidades às quais eles servem. Duas formas de abordar esses desafios incluem processos pagos de revisão da comunidade para corrigir os lapsos, e a criação de mecanismos no seu produto para que indivíduos e usuários possam optar por não participar mais ou possam corrigir dados sobre si mesmos. Os processos de revisão da comunidade devem incluir pessoas das comunidades que podem ser afetadas pelo sistema algorítmico que você está desenvolvendo. Você também deve realizar sessões com as pessoas que irão implementar, gerenciar e usar o sistema para atender os objetivos de sua organização. Acesse as Noções básicas de pesquisa de UX para aprender mais sobre os métodos que você pode usar para conduzir processos de revisão da comunidade, bem como conduzir pesquisas de usuários para entender os contextos em que sua ferramenta será usada.

Conclusão

A IA pode ser uma força para o bem, potencialmente detectando tumores que os humanos não conseguem detectar e Alzheimer antes que a família consiga saber, ou até preservando as línguas indígenas. Ao longo deste módulo, mostramos o poder dos sistemas de IA, mas também a sua opacidade. Se queremos que a IA beneficie mais a sociedade do que a prejudica, precisamos reconhecer os riscos e tomar medidas para garantir que os sistemas de IA sejam concebidos, desenvolvidos e utilizados de forma responsável.

Como tecnólogos, mesmo quando somos conscientes e deliberados em nossa abordagem, haverá surpresas ao longo do caminho. Nem sempre podemos prever as interações entre conjuntos de dados, modelos e seu contexto cultural. Os conjuntos de dados geralmente contêm enviesamentos dos quais não estamos cientes, e é nossa responsabilidade avaliar e analisar os dados de treinamento e as previsões dos nossos modelos para garantir que eles não produzam resultados prejudiciais.

O desenvolvimento de sistemas éticos de IA é um processo sociotécnico. Olhe para ele não só em termos de sua implementação técnica, mas também através da forma como é desenvolvido entre as equipes e os contextos sociais em que será usado. Além disso, avalie quem está envolvido no processo, e como estão representados o gênero, a raça, a etnia e a idade. As pessoas que constroem produtos de IA e o enviesamento gerado por esses sistemas estão interligados.

Para realizar uma IA segura e socialmente benéfica, precisamos lembrar que os humanos estão no coração dela. A IA é uma ferramenta e nós escolhemos como usá-la. Independentemente do papel de alguém, as suas decisões menos importantes podem ter consequências graves e duradouras. Na Salesforce, acreditamos firmemente que podemos fazer bem e fazer o bem. Você pode ter lucro sem prejudicar os outros e, na verdade, ter um impacto positivo no processo. 

Recursos

Compartilhe seu feedback do Trailhead usando a Ajuda do Salesforce.

Queremos saber sobre sua experiência com o Trailhead. Agora você pode acessar o novo formulário de feedback, a qualquer momento, no site Ajuda do Salesforce.

Saiba mais Continue compartilhando feedback