Conheça o Einstein Trust Layer
Objetivos de aprendizagem
Após concluir esta unidade, você estará apto a:
- Debater sobre o valor número 1 da Salesforce, a Confiança.
- Descrever preocupações relacionadas à confiança e à IA generativa.
- Explicar por que a Salesforce criou o Einstein Trust Layer.
Antes de começar
Sabemos que você está animado para saber como a Salesforce protege os dados da sua empresa e dos clientes enquanto lançamos novas ferramentas de inteligência artificial (IA) generativa. Mas, antes de começar, obtenha esses emblemas: Noções básicas de IA generativa, Noções básicas de prompt e Large Language Models, para estar familiarizado com termos como LLMs, prompts, fundamentação, alucinações, linguagem tóxica e outros. Você pode encontrar links para cada um deles na seção Recursos, junto com um glossário de termos de IA usados na Salesforce.
IA generativa, Salesforce e confiança
Todos estão animados com a IA generativa porque ela libera a criatividade de maneiras totalmente novas. Trabalhar com IA generativa pode ser muito divertido, por exemplo: usar o Midjourney para criar imagens de seus animais de estimação como super-heróis ou usar o ChatGPT para criar um poema escrito por um pirata. As empresas estão animadas com a IA generativa devido aos ganhos de produtividade. De acordo com pesquisa da Salesforce, os funcionários estimam que a IA generativa gerará uma economia de tempo de, em média, 5 horas por semana. Para funcionários em tempo integral, isso equivale a um mês inteiro por ano!
Mas apesar de toda essa empolgação, você provavelmente terá dúvidas, como por exemplo:
- Como posso aproveitar as vantagens das ferramentas de IA generativa e manter meus dados e os dados dos meus clientes seguros?
- Como posso saber quais dados os diversos provedores de IA generativa estão coletando e como eles serão usados?
- Como posso ter certeza de que não estou entregando acidentalmente dados pessoais ou da empresa para treinar modelos de IA?
- Como posso verificar se as respostas geradas pela IA são precisas, imparciais e confiáveis?
Salesforce e confiança
Na Salesforce, temos feito as mesmas perguntas sobre inteligência artificial e segurança. Na verdade, temos apostado tudo na IA desde há quase uma década. Em 2016, lançamos a plataforma Einstein, trazendo IA preditiva para nossas nuvens. Pouco tempo depois, em 2018, começamos a investir nos grandes modelos de linguagem.
Temos trabalhado arduamente para criar soluções de IA generativa, para ajudar os clientes a usar seus dados com mais eficiência e ajudar a tornar empresas, funcionários e clientes mais produtivos e eficientes. E como a confiança é o nosso valor número 1, acreditamos que não basta fornecer apenas as capacidades tecnológicas da IA generativa. Acreditamos que temos o dever de sermos competentes, responsáveis, transparentes, capacitadores e inclusivos. É por isso que a Salesforce cria ferramentas de IA generativa, carregando nosso valor de Confiança conosco.
Entre no Einstein Trust Layer. Criamos o Trust Layer para ajudar você e seus colegas a usar IA generativa em sua organização com segurança. Vamos ver o que a Salesforce está fazendo para tornar sua IA generativa a mais segura do setor.
O que é o Einstein Trust Layer?
O Einstein Trust Layer eleva a segurança da IA generativa por meio de controles de dados e privacidade que são perfeitamente integrados na experiência do usuário final. Esses controles permitem que o Einstein forneça IA com base segura nos dados dos clientes e da empresa, sem criar potenciais riscos de segurança. Na sua forma mais simples, o Trust Layer é uma sequência de gateways e mecanismos de recuperação que, juntos, permitem uma IA generativa aberta e confiável.
O Einstein Trust Layer permite que os clientes obtenham os benefícios da IA generativa sem comprometer a segurança dos dados e os controles de privacidade. Ele inclui uma caixa de ferramentas de recursos que protegem seus dados, como recuperação segura de dados, fundamentação dinâmica, mascaramento de dados e zero retenção de dados, para que você não precise se preocupar sobre o destino final dos dados. A detecção de linguagem tóxica verifica os prompts e as respostas quanto à precisão, e garante que tudo está adequado. E para maior responsabilidade, uma trilha de auditoria rastreia o prompt em cada etapa da jornada. Ficará a saber mais sobre esses princípios nas próximas unidades.
Projetamos nosso ecossistema de modelo aberto para que você tenha acesso seguro a muitos grandes modelos de linguagem, tanto dentro quanto fora do Salesforce. O Trust Layer fica entre um LLM e seus funcionários e clientes para manter seus dados seguros enquanto você usa IA generativa para todos os seus casos de uso comerciais, incluindo e-mails de vendas, resumos de trabalho e respostas de atendimento na central de contato.
Nas próximas unidades, mergulhe nas jornadas do prompt e da resposta para saber como o Einstein Trust Layer protege seus dados.
Recursos
-
Documentação: Glossário de termos do Einstein GPT
-
Blog: Conheça os princípios de IA confiável da Salesforce
-
Blog: IA generativa: 5 diretrizes para um desenvolvimento responsável
-
Trailhead: Criação responsável de inteligência artificial
-
Trailhead: Grandes modelos de linguagem
-
Trailhead: Noções básicas de prompt