Saiba como a Salesforce usa os grandes modelos de linguagem
Objetivos de aprendizagem
Após concluir esta unidade, você estará apto a:
- Explicar como o Salesforce confere confiança aos LLMs
- Escolher a opção correta de LLM para seu negócio.
- Descrever as limitações das opções de LLM disponíveis.
Trailcast
Se você deseja escutar uma gravação de áudio deste módulo, use o reprodutor abaixo. Quando terminar de escutar essa gravação, lembre-se de voltar a cada unidade, consultar os recursos e completar as avaliações associadas.
Liderar com confiança
Confiança é o valor mais importante para a Salesforce. Portanto, faz sentido que o Salesforce use grandes modelos de linguagem (LLMs) de forma segura e confiável. A chave para manter essa confiança é usando a Camada de confiança do Einstein. A Camada de confiança do Einstein garante que a IA generativa seja segura por meio de controles de dados e privacidade que são perfeitamente integrados na experiência do usuário final do Salesforce. Esses controles permitem que o Einstein forneça IA que usa com segurança a geração aumentada por recuperação (RAG) para fundamentar respostas com os dados de seus clientes e empresas, sem criar possíveis riscos de segurança. Na sua forma mais simples, a Camada de confiança do Einstein é uma sequência de gateways e mecanismos de recuperação que trabalham juntos para permitir uma IA generativa aberta e confiável.
Agentes do Salesforce confiáveis
Os agentes do Agentforce usam os principais LLMs, por meio da Camada de confiança do Einstein, usando a RAG para criar prompts seguros com dados do Salesforce e do Data Cloud. Desse modo, criam um ambiente dinâmico e seguro para usar agentes de IA capazes de oferecer suporte a funcionários e clientes. Esses agentes não oferecem apenas sugestões, eles podem concluir tarefas de forma independente. Por exemplo, eles podem tratar de consultas de clientes, solucionar problemas e até mesmo fazer recomendações de vendas sem intervenção humana. Eles fazem tudo isso usando a Camada de confiança para proteger os dados e fornecer respostas confiáveis.
Escolher o melhor grande modelo de linguagem
Todas as chamadas do mecanismo de raciocínio do Agentforce usam o OpenAI GPT-4o e, em alguns casos, o Azure OpenAI GPT-4o, como modelo padrão. No entanto, você pode escolher entre outros modelos que atendam às suas necessidades comerciais. É importante observar que garantir que você tenha o modelo certo para a tarefa certa ajudará você a começar a usar a IA generativa mais rapidamente e a alcançar os resultados esperados. A Salesforce oferece recursos de implantação para diversos LLMs, além de ajudar as empresas a manter a privacidade, a segurança, a residência e os objetivos de conformidade de seus dados.
Sua empresa pode optar por usar mais de um LLM para lidar com diferentes tipos de casos de uso, como codificação, análise de sentimento ou geração de conteúdo. Ao escolher um modelo para um caso de uso, leve em consideração os recursos, o custo, a qualidade da resposta e a velocidade do modelo. Você também pode escolher modelos com reconhecimento geográfico. Esses modelos encaminham automaticamente as solicitações de LLM para um centro de dados próximo, com base no local onde o Data Cloud está provisionado para sua organização. Isso confere maior controle sobre a residência dos dados e reduz a latência.
Usar LLMs gerenciados pela Salesforce
Os LLMs gerenciados pela Salesforce são uma ótima maneira de acessar LLMs na Internet e começar a usar a IA generativa rapidamente. Você pode personalizar sua implementação de IA com diferentes modelos gerenciados pela Salesforce usando a API de modelos ou o Criador de prompts. A Salesforce oferece uma variedade de modelos habilitados por padrão para ajudar a acelerar o processo de configuração.
Para obter uma lista dos modelos atuais gerenciados pela Salesforce, consulte a documentação de ajuda Suporte a grandes modelos de linguagem.
Usar LLMs de terceiros hospedados no Salesforce
Você também pode hospedar modelos dentro do Salesforce. Como parte do compromisso da Salesforce com um ecossistema aberto, o Einstein foi criado para hospedar LLMs da Amazon, da Anthropic, da Cohere e outros, tudo totalmente dentro da infraestrutura da Salesforce. O Einstein ajudará a manter os prompts do cliente e as respostas na infraestrutura da Salesforce. Além disso, a Salesforce e a OpenAI estabeleceram uma parceria de confiança compartilhada para entregar conteúdo com segurança por meio da Camada de confiança do Einstein.
Traga seu próprio LLM (BYOLLM)
Se você já está investindo em seu próprio LLM, pode conectá-lo ao Salesforce para usar em modelos personalizados do Criador de prompts. Você poderá se beneficiar do Einstein mesmo se tiver treinado seus próprios modelos específicos de domínio fora do Salesforce com dados em sua própria infraestrutura. Quando você executa um prompt por meio de um LLM externo ao qual você se conectou, ele funciona da mesma forma que um LLM conectado internamente e encaminha a solicitação pelo LLM Gateway e pela Camada de confiança do Einstein antes de compartilhar o conteúdo com seus usuários.
As opções de BYOLLM estão mudando e rapidamente! Fique de olho nos recursos para ver as novas atualizações.
Recursos
-
Trailhead : A Camada de confiança do Einstein -
Trailhead : Mascaramento de dados em grandes modelos de linguagem na Camada de confiança do Einstein -
Ajuda do Salesforce : Camada de confiança do Einstein: Criada para ser confiável -
Ajuda do Salesforce : Traga seu próprio modelo -
Trailhead : Preparar seus dados para a IA -
Salesforce : O que são LLMs (Grandes modelos de linguagem)? -
News and Insights : Salesforce lança BYOM para que empresas possam usar dados proprietários mais facilmente na criação e na implantação de modelos de IA -
Developers’ Blog : Traga seus próprios modelos de IA para o Data Cloud