Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Planejar sua estratégia de confiança

Objetivos de aprendizagem

Após concluir esta unidade, você estará apto a:

  • Criar um perfil de risco, avaliando os riscos de IA para seu projeto.
  • Implementar proteções com base no perfil de risco.

Começar por criar uma estratégia de confiança

A IA traz certos riscos. Então, como você sabe que sua solução de IA é ética, segura e responsável? Criando uma estratégia de confiança.

A estratégia de confiança do seu projeto é o seu plano para reduzir os riscos à confiança como, por exemplo, manter os dados confidenciais seguros, atender aos requisitos regulatórios e proteger a reputação da sua empresa.

A primeira etapa para definir sua estratégia de confiança é criar um perfil de risco para seu projeto. Um perfil de risco indica como você gerencia e prioriza os riscos de um projeto. Abrange o tipo e o nível de riscos, a probabilidade de efeitos negativos e o nível de problemas ou custos para cada tipo de risco. Um perfil de risco eficaz indica quais riscos devem ser priorizados.

Áreas de risco

Responda a perguntas em três áreas principais de risco para criar seu perfil de risco: vazamentos de dados, requisitos regulatórios e danos à reputação. Como exemplo, veja como Becca responde a essas perguntas para seu projeto.

Área de risco

Descrição

Perguntas a se fazer

Resposta de Becca

Vazamentos de dados

Os vazamentos de dados ocorrem quando informações seguras são expostas acidentalmente. Isso pode acontecer devido a ataques cibernéticos, acesso não autorizado e exposição de dados confidenciais a modelos de IA externos. Para evitar vazamentos de dados, armazene seus dados com segurança e certifique-se de que somente usuários autorizados podem acessá-los. Essa área de risco também inclui proteção de dados confidenciais como, por exemplo, informações de identificação pessoal (PII).

  • Quais são as oportunidades de vazamento de dados em seu projeto?
  • Que dados confidenciais você está usando?

Becca sabe que a Coral Cloud tem um sistema seguro de armazenamento de dados. No entanto, seu projeto inclui um conceito “human-in-the-loop”, ou uma interação humana, em que alguém aciona o processo de check-in dizendo ao Einstein para fazer o check-in de um hóspede.

Becca percebe que há uma chance de vazamento de dados aqui, porque o usuário executivo pode descobrir onde o hóspede está hospedado e em quais datas. Essas informações são perigosas se forem vazadas para uma pessoa não autorizada.

O projeto de Becca inclui dados confidenciais como, por exemplo, nomes completos, informações de contato e informações de cartão de crédito.

Requisitos regulatórios

O seu projeto deve atender aos requisitos legais da jurisdição e do setor em que está operando. Se não atender a todos os regulamentos, você poderá ter que pagar multas, sofrer danos à reputação e outras repercussões jurídicas. A equipe jurídica que você identificou na primeira unidade pode ajudá-lo a identificar e atender a todos os regulamentos.

  • Quais regulamentos seu projeto precisa atender?

Como a Coral Cloud opera na UE, o projeto de Becca precisa seguir o Regulamento Geral de Proteção de Dados (RGPD). Becca entra em contato com a equipe jurídica para pedir que pesquisem quais outros regulamentos ela precisa seguir.

Danos à reputação

Como seu projeto de IA está interagindo com seus clientes, ele representa a voz da empresa. Às vezes, a IA pode gerar respostas prejudiciais ou falsas devido à toxicidade do conjunto de dados ou a ataques técnicos.

  • Se seu projeto tiver um desempenho ruim, qual será o impacto em sua reputação?

Se os e-mails de boas-vindas gerados por IA incluírem linguagem ofensiva, a Coral Cloud será vista como insultuosa e antipática. Ela perderá clientes atuais e possíveis clientes importantes. No setor de hotelaria, Becca sabe que a perda de reputação é um problema sério.

Criar um perfil de risco

Com base em sua avaliação das diferentes áreas de risco, Becca cria um perfil de risco para seu projeto. 1 representa um índice de risco muito baixo, 5 representa um índice de risco muito alto.

Tipo de risco

Nível de efeitos negativos

Probabilidade de efeitos negativos

Problemas ou custos

Vazamentos de dados

4: se houver vazamento de dados, a segurança e a privacidade dos hóspedes serão prejudicadas.

3: os dados da Coral Cloud são armazenados de forma segura, mas outros controles devem ser implementados para lidar melhor com esse risco.

4: perda da confiança dos clientes

Requisitos regulatórios

5: a Coral Cloud enfrenta multas, outras consequências legais e a perda da confiança dos clientes.

5: Se o projeto de Becca não atender aos regulamentos, é muito provável que a Coral Cloud sofra consequências negativas.

5: consequências legais, multas e perda da confiança dos clientes

Danos à reputação

5: se a reputação da Coral Cloud for prejudicada, ela perderá possíveis clientes e lucros.

4: Becca precisa melhorar seu prompt e implementar outras maneiras de se proteger contra danos à reputação.

4: perda da confiança dos clientes

Com base no perfil de risco, Becca decide priorizar primeiro os requisitos regulatórios, depois os danos à reputação e, por fim, os vazamentos de dados. Ela começa a planejar como gerenciar cada risco.

Tipos de proteções

Agora que você conhece seus riscos, implemente proteções de IA. Proteções de IA são mecanismos para garantir que seu projeto de IA esteja operando de forma legal e ética. Você precisa de proteções para evitar que a IA cause danos por meio de decisões tendenciosas, linguagem tóxica e dados expostos. Elas são necessárias para proteger seu projeto de ataques técnicos.

Existem três tipos de proteções de IA: proteções de segurança, proteções técnicas e proteções éticas.

Proteções de segurança

Essas proteções garantem que o projeto esteja em conformidade com as leis e os regulamentos e que os dados privados e os direitos humanos sejam protegidos. As ferramentas comuns, neste caso, incluem recuperação segura de dados, mascaramento de dados e retenção zero de dados.

Recuperação segura de dados significa que seu projeto só acessa os dados que o usuário executivo está autorizado a acessar. Por exemplo, se uma pessoa sem acesso a registros financeiros gerar uma resposta do modelo de IA, o modelo não deve recuperar dados relacionados a registros financeiros. Mascaramento de dados significa substituir dados confidenciais por dados de espaço reservado antes de expô-los a modelos externos. Desse modo, os dados confidenciais não correm o risco de serem vazados. Os provedores de modelos aplicam políticas de retenção zero de dados, o que significa que os dados não são armazenados além das necessidades imediatas da tarefa. Portanto, depois que uma resposta é gerada, os dados usados desaparecem.

Proteções técnicas

Elas protegem o projeto contra ataques técnicos de hackers como, por exemplo, injeção ao prompt e jailbreaking, ou outros métodos para forçar o modelo a revelar informações confidenciais. Os ataques cibernéticos podem fazer com que seu projeto gere respostas falsas ou prejudiciais.

Proteções éticas

Elas mantêm seu projeto alinhado com os valores humanos. Isso inclui verificação de toxicidade e de viés.

Toxicidade é quando um modelo de IA gera conteúdo que incita ao ódio, abusivo e profano ou obsceno. Viés é quando a IA reflete estereótipos prejudiciais como, por exemplo, estereótipos raciais ou de gênero. Como você pode imaginar, é um desastre! Como a IA aprende suas respostas, a toxicidade e o viés podem ser um sinal de que seus dados estão introduzindo linguagem e ideias indesejadas em seu modelo. A detecção de toxicidade identifica respostas que podem ter linguagem tóxica, para que você possa revisá-las manualmente e fazer ajustes para reduzir a toxicidade.

Agora você já sabe o que são proteções e como elas protegem seu projeto contra riscos. A seguir, veja como Becca implementa proteções em sua estratégia de confiança.

Estratégia de confiança da Coral Cloud

A implementação de sua estratégia de confiança é diferente dependendo do sistema que você está usando. Como Becca está usando o Salesforce, sua estratégia de confiança é baseada na camada de confiança do Einstein. A camada de confiança é uma conjunto de recursos, processos e políticas projetados para proteger a privacidade dos dados, aprimorar a precisão da IA e promover o uso responsável da IA em todo o ecossistema do Salesforce. Quando você cria um projeto com os recursos de IA generativa do Einstein, como o Criador de prompts no projeto de Becca, ele passa automaticamente pela camada de confiança.

Becca define uma estratégia de confiança que aborda cada área de risco, usando recursos na camada de confiança. Ela também visualiza o resultado desejado. Veja aqui um trecho de sua estratégia de confiança.

Este diagrama mostra como a camada de confiança do Einstein processa prompts e gera respostas com segurança.

Área de risco

Estratégia de segurança de Becca

Recursos na camada de confiança

Resultado

Vazamentos de dados

  • Impedir que usuários não autorizados acessem informações protegidas.
  • Proteger nomes de hóspedes, informações de contato e informações de cartão de crédito usando mascaramento de dados.
  • Recuperação e aterramento de dados seguros
  • Mascaramento de dados
  • Os usuários sem acesso aos detalhes da reserva não podem usar o prompt para acessar os detalhes da reserva.
  • Informações confidenciais nunca entram em LLMs de terceiros.

Danos à reputação

  • Usar as políticas do sistema para indicar à solução de IA como se comportar com prompts inesperados. Essa estratégia protege a solução contra ataques técnicos que a incentivam a gerar respostas incorretas ou prejudiciais.
  • Defesa de prompts
  • Os ataques técnicos não funcionam devido às políticas de defesa de prompts. Por exemplo, se uma pessoa que não está no sistema da Coral Cloud tentar fazer o check-in, a solução de IA não gerará uma resposta.

Antes de finalizar sua estratégia de confiança, Becca se reúne com sua equipe jurídica e de segurança para garantir que não haja lacunas.

Próximas etapas

Após finalizar sua estratégia de confiança, Becca terminou de planejar seu projeto! Ela está pronta para iniciar o estágio de criação, no qual implementará seu projeto no Salesforce. Continue acompanhando o projeto de Becca em Conectar o Data Cloud ao Copilot e ao Criador de prompts.

Ao criar seu projeto, lembre-se de que o risco não é uma tarefa de resolução imediata. Após implementar seu projeto, deve continuar monitorando e auditando os riscos regularmente. O monitoramento ajuda a identificar tendências problemáticas com antecedência e a fazer ajustes. Analise os índices de toxicidade e o feedback para identificar onde sua solução deu errado, e faça ajustes para eliminar os fatores de risco.

Resumo

Este módulo explica as etapas essenciais para a preparação de seu projeto de IA. Agora você sabe como identificar as partes interessadas no projeto, definir metas e escolher uma solução técnica. Você sabe como preparar dados de alta qualidade e atender aos requisitos do seu projeto. E você sabe como uma estratégia de confiança reduz os riscos do seu projeto e por que é importante monitorar os riscos.

Com seus novos conhecimentos, você está no caminho certo para lançar um projeto de IA bem-sucedido! Antes de iniciar a implantação, conclua Gerenciamento de alterações na implementação de IA.

Recursos

Compartilhe seu feedback do Trailhead usando a Ajuda do Salesforce.

Queremos saber sobre sua experiência com o Trailhead. Agora você pode acessar o novo formulário de feedback, a qualquer momento, no site Ajuda do Salesforce.

Saiba mais Continue compartilhando feedback