Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Conheça o Einstein Trust Layer

Objetivos de aprendizagem

Após concluir esta unidade, você estará apto a:

  • Debater sobre o valor número 1 da Salesforce, a Confiança.
  • Descrever preocupações relacionadas à confiança e à IA generativa.
  • Explicar por que a Salesforce criou o Einstein Trust Layer.
Nota

Este módulo aborda algumas futuras funcionalidades do Einstein Trust Layer. Todos os serviços ou recursos indisponíveis mencionados aqui, não estão disponíveis atualmente e podem não ser fornecidos dentro do prazo desejado, ou podem nem ser fornecidos. Os clientes devem tomar decisões de compra com base nos recursos que estão disponíveis no momento.

Antes de começar

Sabemos que você está animado para saber como a Salesforce protege os dados da sua empresa e dos clientes enquanto lançamos novas ferramentas de inteligência artificial (IA) generativa. Mas, antes de começar, obtenha esses emblemas: Noções básicas de IA generativa, Noções básicas de prompt e Large Language Models, para estar familiarizado com termos como LLMs, prompts, fundamentação, alucinações, linguagem tóxica e outros. Você pode encontrar links para cada um deles na seção Recursos, junto com um glossário de termos de IA usados na Salesforce.

IA generativa, Salesforce e confiança

Todos estão animados com a IA generativa porque ela libera a criatividade de maneiras totalmente novas. Trabalhar com IA generativa pode ser muito divertido, por exemplo: usar o Midjourney para criar imagens de seus animais de estimação como super-heróis ou usar o ChatGPT para criar um poema escrito por um pirata. As empresas estão animadas com a IA generativa devido aos ganhos de produtividade. De acordo com pesquisa da Salesforce, os funcionários estimam que a IA generativa gerará uma economia de tempo de, em média, 5 horas por semana. Para funcionários em tempo integral, isso equivale a um mês inteiro por ano!

Mas apesar de toda essa empolgação, você provavelmente terá dúvidas, como por exemplo:

  • Como posso aproveitar as vantagens das ferramentas de IA generativa e manter meus dados e os dados dos meus clientes seguros?
  • Como posso saber quais dados os diversos provedores de IA generativa estão coletando e como eles serão usados?
  • Como posso ter certeza de que não estou entregando acidentalmente dados pessoais ou da empresa para treinar modelos de IA?
  • Como posso verificar se as respostas geradas pela IA são precisas, imparciais e confiáveis?

Salesforce e confiança

Na Salesforce, temos feito as mesmas perguntas sobre inteligência artificial e segurança. Na verdade, temos apostado tudo na IA desde há quase uma década. Em 2016, lançamos a plataforma Einstein, trazendo IA preditiva para nossas nuvens. Pouco tempo depois, em 2018, começamos a investir nos grandes modelos de linguagem.

Temos trabalhado arduamente para criar soluções de IA generativa, para ajudar os clientes a usar seus dados com mais eficiência e ajudar a tornar empresas, funcionários e clientes mais produtivos e eficientes. E como a confiança é o nosso valor número 1, acreditamos que não basta fornecer apenas as capacidades tecnológicas da IA generativa. Acreditamos que temos o dever de sermos competentes, responsáveis, transparentes, capacitadores e inclusivos. É por isso que a Salesforce cria ferramentas de IA generativa, carregando nosso valor de Confiança conosco.

Entre no Einstein Trust Layer. Criamos o Trust Layer para ajudar você e seus colegas a usar IA generativa em sua organização com segurança. Vamos ver o que a Salesforce está fazendo para tornar sua IA generativa a mais segura do setor.

O que é o Einstein Trust Layer?

O Einstein Trust Layer eleva a segurança da IA generativa por meio de controles de dados e privacidade que são perfeitamente integrados na experiência do usuário final. Esses controles permitem que o Einstein forneça IA com base segura nos dados dos clientes e da empresa, sem criar potenciais riscos de segurança. Na sua forma mais simples, o Trust Layer é uma sequência de gateways e mecanismos de recuperação que, juntos, permitem uma IA generativa aberta e confiável.

O processo do Einstein Trust Layer.

O Einstein Trust Layer permite que os clientes obtenham os benefícios da IA generativa sem comprometer a segurança dos dados e os controles de privacidade. Ele inclui uma caixa de ferramentas de recursos que protegem seus dados, como recuperação segura de dados, fundamentação dinâmica, mascaramento de dados e zero retenção de dados, para que você não precise se preocupar sobre o destino final dos dados. A detecção de linguagem tóxica verifica os prompts e as respostas quanto à precisão, e garante que tudo está adequado. E para maior responsabilidade, uma trilha de auditoria rastreia o prompt em cada etapa da jornada. Ficará a saber mais sobre esses princípios nas próximas unidades.

Projetamos nosso ecossistema de modelo aberto para que você tenha acesso seguro a muitos grandes modelos de linguagem, tanto dentro quanto fora do Salesforce. O Trust Layer fica entre um LLM e seus funcionários e clientes para manter seus dados seguros enquanto você usa IA generativa para todos os seus casos de uso comerciais, incluindo e-mails de vendas, resumos de trabalho e respostas de atendimento na central de contato.

Nas próximas unidades, mergulhe nas jornadas do prompt e da resposta para saber como o Einstein Trust Layer protege seus dados.

Recursos

Compartilhe seu feedback do Trailhead usando a Ajuda do Salesforce.

Queremos saber sobre sua experiência com o Trailhead. Agora você pode acessar o novo formulário de feedback, a qualquer momento, no site Ajuda do Salesforce.

Saiba mais Continue compartilhando feedback