Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Seguir el recorrido de una respuesta

Objetivos de aprendizaje

Después de completar esta unidad, podrá:

  • Describir el recorrido de la respuesta.
  • Explicar la cero retención de datos.
  • Hablar sobre la importancia de la detección del lenguaje tóxico.
Nota

Esta unidad aborda algunas funciones futuras de la Capa de confianza de Einstein. Cualquier servicio que no se haya lanzado o cualquier función a la que se haga referencia aquí no está disponible todavía y es posible que no se proporcione a tiempo o no llegue a hacerlo nunca. Los clientes deberían tomar sus decisiones de compras basándose en las funciones que están disponibles actualmente.

Revisión rápida del recorrido de una solicitud

Ya puede ver los pasos que sigue Salesforce con la Capa de confianza de Einstein para proteger los datos del cliente de Jessica y los datos de su empresa. Antes de continuar, hagamos una revisión rápida del recorrido de una solicitud.

  1. Se introdujo una plantilla de solicitud desde Service Replies (Respuestas de servicio) para ayudar a Jessica con el caso de servicio se su cliente.
  2. Los campos de combinación de la plantilla de solicitud se rellenaron con datos de confianza y seguros de la organización de Jessica.
  3. Se recuperaron artículos de Knowledge y detalles relevantes de otros objetos y se incluyeron para agregar más contexto a la solicitud.
  4. Se enmascaró la información de identificación personal (PII).
  5. Se aplicaron protecciones de seguridad adicionales a la solicitud para protegerla más.
  6. Ahora, la solicitud ya está lista para atravesar la pasarela de seguridad hasta el LLM externo.

Proceso de la Capa de confianza de Einstein con cada paso del recorrido de la solicitud enumerado del 1 al 6 para describir el orden en el que se lleva a cabo.

Pasarela de seguridad de LLM

Una vez que la solicitud se ha completado con los datos correspondientes y se han implantado medidas de protección, ya puede abandonar el límite de confianza de Salesforce atravesando la pasarela de seguridad de LLM hasta los LLM conectados. En este caso, el LLM al que está conectada la organización de Jessica es OpenAI. OpenAI utiliza esta solicitud para generar una respuesta correspondiente de alta calidad a fin de que Jessica la utilice en su conversación con el cliente.

Nota

Es posible que la solicitud interactúe con la Capa de confianza de una manera diferente a cuando interactuaba con los LLM que residen dentro del límite de confianza de Salesforce, como los LLM de Salesforce desarrollados internamente.

Cero retención de datos

Si Jessica estuviese utilizando una herramienta de LLM dirigida al cliente, como un bot de chat de IA generativa, sin una capa de confianza sólida, el LLM podría almacenar su solicitud, incluyendo todos los datos del cliente, e incluso la respuesta del LLM, para entrenar al modelo. Pero cuando Salesforce se asocia con un LLM externo basado en API, es necesario un acuerdo para que toda la interacción permanezca segura; esto se denomina cero retención de datos. Nuestra política de cero retención de datos implica que los datos de los clientes, incluidos el texto de la solicitud y las respuestas generadas, no se almacenen fuera de Salesforce.

Un primer plano del proceso que lleva a cabo una solicitud a través de la pasarela de seguridad hasta el LLM muestra que el LLM no retiene datos.

Así es como funciona: La solicitud de Jessica se envía a un LLM (recuerde que esa solicitud es una instrucción). El LLM toma esa solicitud y, siguiendo sus instrucciones mientras respeta las protecciones, genera una o más respuestas.

Normalmente, OpenAI retiene solicitudes y respuestas de solicitudes durante un tiempo para supervisar el abuso. El increíblemente potente LLM de OpenAI comprueba que no ocurra nada fuera de lo normal en los modelos (como los ataques de inyección de solicitudes sobre los que aprendió en la unidad anterior). Sin embargo, nuestra política de cero retención de datos evita que los socios de LLM retengan datos de la interacción. Llegamos a un acuerdo en el que nosotros gestionamos esa moderación.

No permitimos que OpenAI almacene nada. Por ello, cuando se envía una solicitud a OpenAI, el modelo olvida la solicitud y las respuestas tan pronto como la respuesta se envía a Salesforce. Esto es importante porque permite que Salesforce gestione su propio contenido y la moderación del abuso. Además, los usuarios como Jessica no tienen que preocuparse por que los proveedores de LLM retengan y utilicen los datos de sus clientes.

El recorrido de una respuesta

Cuando presentamos a Jessica, mencionamos que estaba un poco preocupada por que las respuestas generadas por la IA no coincidan con su nivel de meticulosidad. No está segura de qué esperar, pero no debe preocuparse, ya que la Capa de confianza de Einstein lo tiene todo bajo control. Contiene varias funciones que ayudan a mantener una conversación personalizada y profesional.

La Capa de confianza de Einstein con el recorrido de la respuesta resaltado.

Hasta ahora, hemos visto que la plantilla de la solicitud de la conversación de Jessica con su cliente se ha rellenado con la información correspondiente del cliente y con contexto útil relacionado con el caso. Ahora, el LLM ha ingerido esos detalles y ha generado una respuesta en el límite de confianza de Salesforce. Pero todavía no está lista para que Jessica la vea. A pesar de que se utiliza un tono amigable y el contenido es preciso, la Capa de confianza debe comprobar que no se produzca ningún resultado involuntario. La respuesta también contiene bloques de datos enmascarados, por lo que Jessica podría pensar que eso es demasiado impersonal como para compartirlo con el cliente. La Capa de confianza aún tiene que realizar algunas acciones importantes antes de compartir la respuesta con ella.

Una respuesta del servicio de atención al cliente que muestra información personal enmascarada y un vínculo a un artículo de Knowledge relevante.

Detección de lenguaje tóxico y desenmascaramiento de datos

Ocurren dos cosas importantes a medida que la respuesta de la conversación de Jessica atraviesa el límite de confianza de Salesforce desde el LLM. Lo primero: se comprueba que no haya toxicidad. La herramienta de evaluación de Salesforce, que está creada con un conjunto de modelos de aprendizaje profundo, examina la respuesta en busca de que toxicidad. Y usted se preguntará: ¿qué es eso? La detección de lenguaje tóxico protege a Jessica y a sus clientes de respuestas tóxicas, llenas de odio, violentas, de carácter sexual, identificables, físicas y soeces. Esta herramienta puntúa la respuesta inicial con estas categorías y envía la respuesta a la aplicación que la pidió, en este caso, Respuestas de servicio.

A continuación, antes de compartir la solicitud con Jessica, la Capa de confianza debe desvelar los datos enmascarados sobre los que hablamos antes, de manera que la respuesta sea personal y se corresponda con el cliente de Jessica. La Capa de confianza utiliza los mismos datos convertidos en tokens que guardamos cuando enmascaramos los datos al principio para desenmascararlos. Una vez que se hayan desenmascarado los datos, la respuesta se comparte con Jessica.

Además, observe que hay un vínculo de origen en la parte inferior de la respuesta. La creación de artículos de Knowledge (piloto) otorga credibilidad a las respuestas incluyendo vínculos a artículos de origen que resultan de ayuda.

Recomendación de respuesta del servicio desenmascarada que incluye un vínculo a un artículo de Knowledge.

Marco de comentarios (aún no está disponible de forma general).

Ahora, viendo la respuesta por primera vez, Jessica sonríe. Está impresionada con la calidad y el nivel de detalles de la respuesta que ha recibido del LLM. También está satisfecha con lo bien que se adapta a su estilo personal de gestión de casos. A medida que Jessica revisa la respuesta antes de enviársela al cliente, ve que puede aceptarla tal y como está, modificarla antes de enviarla o ignorarla.

Además, también puede (1) realizar comentarios cualitativos mostrando su acuerdo o desacuerdo y, si la respuesta no ha sido de ayuda, (2) especificar el motivo. Estos comentarios se recopilan y, más adelante, se pueden utilizar para mejorar la calidad de las solicitudes.

Marco de comentarios de Einstein.

Seguimiento de auditoría

Todavía hay algo más que mostrar de la Capa de confianza. ¿Recuerda la política de cero retención de datos sobre la que hablamos al principio de esta unidad? Como la Capa de confianza se ocupa de gestionar la puntuación del lenguaje tóxico y la moderación de manera interna, realizamos un seguimiento de cada paso que se lleva a cabo durante el recorrido completo, desde la solicitud hasta la respuesta.

Todo lo que ha ocurrido durante la interacción completa entre Jessica y su cliente queda registrado con metadatos de fecha y hora que reunimos en un seguimiento de auditoría. Esto incluye la solicitud, la respuesta sin filtrar original, cualquier puntuación de lenguaje tóxico y los comentarios recopilados durante el proceso. El seguimiento de auditoría de la Capa de confianza de Einstein agrega un nivel de responsabilidad, de manera que Jessica puede estar segura de que los datos de su cliente están protegidos.

La respuesta del servicio de atención al cliente muestra el seguimiento de auditoría y los metadatos de fecha y hora.

Han ocurrido muchas cosas desde que Jessica comenzó a ayudar a su cliente, pero todo ha ocurrido en un abrir y cerrar de ojos. En unos segundos, su conversación pasó de una solicitud iniciada por un chat a una respuesta profesional y relevante, elaborada con la seguridad de todo el proceso de la Capa de confianza, que puede compartir con un cliente.

Jessica cierra el caso, sabiendo que su cliente está contento con la respuesta y con la experiencia del servicio de atención al cliente que ha recibido. Y, lo mejor de todo, está deseando seguir utilizando la potencia de la IA generativa en Service Replies (Respuestas de servicio), ya que está segura de que le ayudará a cerrar los casos más rápido y a contentar a los clientes.

Todas y cada una de las soluciones de IA generativa de Salesforce realizan el mismo recorrido de Capa de confianza. Todas nuestras soluciones son seguras, por lo que puede estar tranquilo de que sus datos y los datos de sus clientes estarán seguros.

Enhorabuena. Acaba de aprender cómo funciona la Capa de confianza de Einstein. Para obtener más información sobre lo que Salesforce hace con la confianza y la IA generativa, consiga la insignia de Trailhead Creación responsable de inteligencia artificial.

Recursos

Comparta sus comentarios sobre Trailhead en la Ayuda de Salesforce.

Nos encantaría conocer su experiencia con Trailhead. Ahora puede acceder al nuevo formulario de comentarios cuando quiera desde el sitio de la Ayuda de Salesforce.

Más información Continuar para compartir comentarios