Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Criar uma IA generativa responsável

Objetivos de aprendizagem

Após concluir esta unidade, você estará apto a:

  • Listar os cinco princípios para o desenvolvimento responsável da IA generativa.
  • Identificar recursos confiáveis de IA generativa em produtos da Salesforce.
  • Descrever as melhores práticas para identificar riscos éticos e criar proteções.

IA generativa: um novo tipo de inteligência artificial

Há pouco tempo atrás, a maioria das pessoas que discutia sobre IA falava sobre IA preditiva. Este tipo de inteligência artificial concentra-se em observar um conjunto de dados existente e fazer previsões limitadas sobre o que deveria ser verdade, dependendo das informações disponíveis. Porém, algo novo surgiu: um tipo emergente de IA que é generativo, não preditivo. A principal diferença? Enquanto a IA preditiva analisa tendências, a IA generativa cria novos conteúdos.

A IA generativa (IA gen) conta com uma gama impressionante de recursos, de conversas em tempo real com bots que simulam efetivamente uma conversa com um agente de suporte ao vivo a aplicativos para profissionais de marketing, programadores e pioneiros criativos. Além disso, o momento cultural da IA generativa faz com que os usuários se juntem para ver o que ela pode fazer. Ou seja, a maioria de nós provavelmente encontrará esses algoritmos em nossas vidas diárias onde eles irão desempenhar um papel cada vez mais significativo.

Toda tecnologia emergente trás o desconhecido. Seja por abuso intencional, seja viés acidental, a IA generativa apresenta riscos que devem ser compreendidos e abordados para que essa tecnologia seja bem aproveitada.

Conheça os riscos

Na Salesforce, nos concentramos em projetar, desenvolver e distribuir tecnologias de forma responsável e confiável. Para fazer isso, antecipamos as consequências intencionais e não intencionais daquilo que criamos.

Vamos analisar alguns riscos potenciais da IA generativa.

Precisão

Os modelos de IA generativa são ótimos para fazer previsões. Os modelos de IA generativa criam conteúdo novo reunindo vários exemplos de coisas que se enquadram nas mesmas categorias. Porém, embora um modelo possa criar uma nova frase usando o estilo de um escritor famoso, não há como saber se a mesma frase é realmente verdadeira. Isso pode tornar-se um problema quando os usuários presumem que as previsões de uma IA são fatos verificados. É um recurso, mas, também, um bug. Isso oferece aos modelos os recursos criativos que capturaram a imaginação logo no início. No entanto, é fácil confundir algo que parece correto com algo que é preciso no mundo real. 

Preconceitos e toxicidade

Como as interações humanas podem envolver um certo grau de toxicidade, ou seja, um comportamento prejudicial, como usar insultos ou defender a intolerância, a IA replica essa toxicidade quando não está ajustada para reconhecê-la e filtrá-la. Na verdade, pode até aumentar o preconceito encontrado já que, muitas vezes, fazer previsões envolve descartar dados atípicos. Para uma IA, isso pode incluir comunidades sub-representadas. 

Privacidade e segurança

Os dois recursos mais interessantes da IA generativa são a capacidade de replicar o comportamento humano e a velocidade para fazê-lo em grande escala. Esses recursos oferecem possibilidades incríveis. Porém, há uma desvantagem: É fácil explorar a tecnologia para causar danos enormes com muita rapidez. Os modelos tendem a “vazar” seus dados de treinamento, expondo informações privadas sobre as pessoas neles representadas. Além disso, a IA generativa pode até ser usada para criar emails de phishing confiáveis ou replicar uma voz para contornar a segurança. 

Alteração

Devido à sua capacidade de ação, a IA representa um risco para a sociedade, mesmo quando funciona da forma pretendida. As alterações econômicas, as mudanças de emprego e de responsabilidade, e as preocupações com a sustentabilidade decorrentes da intensa capacidade de computação necessária para o funcionamento dos modelos traz implicações para os espaços que compartilhamos. 

Confiança: Resumindo

A confiança é o principal valor na Salesforce e é ela que nos orienta à medida que criamos e implantamos aplicativos de IA generativa. Para orientar este trabalho, criamos um conjunto de princípios para o desenvolvimento responsável da IA generativa e ajudamos as pessoas a explorar todo o potencial da tecnologia e a evitar os riscos associados a ela.

Precisão: A IA generativa, como outros modelos, faz previsões com base nos dados para os quais foi treinada. Ou seja, são necessários bons dados para obter resultados precisos. E isso significa que as pessoas precisam estar cientes da possibilidade de imprecisões ou incertezas nos resultados de IA.

Segurança: As avaliações de preconceitos, explicação e resistência, juntamente com testes de esforço deliberados para resultados negativos, ajudam-nos a manter os clientes a salvo de perigos como a toxicidade e dados incorretos. Também protegemos a privacidade de quaisquer Informações pessoalmente identificáveis (PII) presentes nos dados utilizados no treinamento. E criamos barreiras para evitar outros danos (como publicar código em uma sandbox em vez de enviá-lo automaticamente para a produção).

Honestidade: Seus dados não são nosso produto. Ao coletar dados para treinar e avaliar nossos modelos, precisamos respeitar a proveniência dos dados e garantir que temos consentimento para usá-los (por exemplo, dados de código aberto, dados fornecidos pelo usuário). Também é importante notificar as pessoas quando elas estiverem usando ou conversando com uma IA, com uma marca d’água ou isenção de responsabilidade, para que não confundam um chatbot bem definido com um agente humano.

Capacitação: Existem alguns casos em que é melhor automatizar totalmente os processos. Porém, há outros casos em que a IA deveria desempenhar um papel de apoio ao ser humano, ou em que o julgamento humano seja necessário. Pretendemos potencializar aquilo que os humanos podem fazer desenvolvendo uma IA que melhore ou simplifique seu trabalho e forneça aos clientes ferramentas e recursos para compreender a veracidade do conteúdo que eles criam. 

Sustentabilidade: Quando se trata de modelos de IA, maior nem sempre significa melhor: Em alguns casos, modelos menores e melhor treinados superam modelos maiores e menos treinados. Encontrar o equilíbrio certo entre o poder algorítmico e a sustentabilidade a longo prazo é uma parte fundamental para trazer a IA generativa para nosso futuro compartilhado.

Diretrizes regem a ação de IA

Portanto, como é cumprir esses compromissos? Veja algumas ações que a Salesforce tem tomado.

O Einstein Trust Layerintegramos o Einstein Trust Layer à Salesforce Platform para elevar a segurança da IA generativa no Salesforce por meio de controles de dados e privacidade que são perfeitamente integrados na experiência do usuário final. Você pode aprender mais conferindo Einstein Trust Layer na Ajuda.

Decisões de design de produtos: Os usuários precisam de garantir que, quando utilizam a IA, têm acesso a informações e ajuda de confiança que permitem atender às suas necessidades, sem se exporem ao risco de compartilhar algo impreciso ou equivocado. 

Integramos a responsabilidade em nossos produtos. Examinamos tudo, da cor dos botões às limitações dos próprios resultados para garantir que estamos fazendo todo o possível para proteger os clientes contra riscos, sem sacrificar os recursos dos quais eles dependem para permanecerem competitivos. 

Atrito consciente: Os usuários devem sempre ter as informações necessárias para tomar a melhor decisão para seu caso de uso. Ajudamos nossos usuários a se manterem na vanguarda com um atrito não intrusivo, mas conscientemente aplicado. Nesse caso, “atrito” significa interromper o processo habitual de conclusão de uma tarefa para estimular a reflexão. Por exemplo, os pop-ups de orientação no aplicativo para informar os usuários sobre preconceitos ou sinalizar uma toxicidade detectada e pedir aos agentes de atendimento ao cliente para analisar a resposta cuidadosamente antes do envio.

Equipe vermelha: Utilizamos o método "equipe vermelha", um processo que envolve a tentativa intencional de encontrar vulnerabilidades em um sistema, antecipando e testando como os usuários podem usá-lo de maneira adequada ou inadequada para garantir que nossos produtos de IA generativa funcionem mesmo sob pressão. Saiba mais sobre como o Salesforce reforça a confiança em nossos produtos com O Einstein Trust Layer no Trailhead.

Uma forma de testar nossos produtos é realizando “ataques de injeção imediata” de precaução, elaborando avisos projetados especificamente para fazer um modelo de IA ignorar instruções ou limites previamente estabelecidos. Antecipar ameaças reais à segurança cibernética como essas é essencial para refinar o modelo para resistir a ataques reais.

Política de uso aceitável: Como a IA abrange vários aplicativos, temos políticas específicas para nossos produtos de IA. Isso nos permite definir de forma transparente diretrizes de uso aceitáveis que garantem a confiança de nossos clientes e usuários finais. A abordagem não é nenhuma novidade: A Salesforce já tinha políticas de IA projetadas para proteger os usuários, incluindo a proibição de reconhecimento facial e bots que se passam por humanos. 

No momento, estamos atualizando nossas diretrizes de IA existentes para incluir a IA generativa e, assim, manter a confiança dos clientes em nossa tecnologia. Com as regras atualizadas, qualquer pessoa pode verificar se seu caso de uso é compatível, pois oferecemos produtos e recursos de IA ainda mais avançados. Para saber mais, consulte nossa Política de uso aceitável

A IA generativa altera a forma como as pessoas e os negócios trabalham em conjunto. Embora não tenhamos todas as respostas, sugerimos algumas melhores práticas.

Colaborar

As parcerias entre departamentos, nas empresas e entre instituições públicas e privadas, são essenciais para impulsionar o progresso responsável. Nossas equipes participam ativamente de comitês e iniciativas externas como o National AI Advisory Committee (NAIAC) e a estrutura de gerenciamento de riscos NIST para contribuir com a iniciativa de criar uma IA generativa mais confiável que engloba todo o setor.

Incluir diversas perspectivas

Ao longo do ciclo de vida do produto, as diversas perspectivas fornecem os conhecimentos gerais necessários para antecipar eficazmente os riscos e desenvolver soluções para os mesmos. Exercícios como a verificação de consequências ajudam você a garantir que seus produtos incluam opiniões importantes na conversa sobre o que a IA generativa representa atualmente e para onde irá no futuro.

Mesmo a IA mais avançada não consegue prever como essa tecnologia moldará o futuro do trabalho, do comércio e, aparentemente, de tudo. Porém, se trabalharmos em conjunto, podemos garantir que os valores centrados no ser humano serão um alicerce de confiança em prol de um futuro mais eficiente e escalável.

Recursos

Compartilhe seu feedback do Trailhead usando a Ajuda do Salesforce.

Queremos saber sobre sua experiência com o Trailhead. Agora você pode acessar o novo formulário de feedback, a qualquer momento, no site Ajuda do Salesforce.

Saiba mais Continue compartilhando feedback