Conocer la Capa de confianza de Einstein
Objetivos de aprendizaje
Después de completar esta unidad, podrá:
- Hablar del valor principal de Salesforce, la confianza.
- Describir las preocupaciones relacionadas con la confianza y la IA generativa.
- Explicar por qué Salesforce creó la Capa de confianza de Einstein.
Antes de comenzar
Sabemos que está deseando conocer cómo Salesforce protege su empresa y los datos del clientes a medida que implementamos nuevas herramientas de inteligencia artificial (IA) generativa. Pero, antes de empezar, asegúrese de conseguir estas insignias: Aspectos básicos sobre la IA generativa, Aspectos fundamentales de las solicitudes, y Modelos de lenguaje grandes. De esta manera, estará familiarizado con términos como LLM, solicitudes, grounding (anclaje), alucinaciones, lenguaje tóxico y más. Puede encontrar vínculos a cada una de ellas en la sección Recursos, junto con un glosario de términos de IA utilizado en Salesforce.
IA generativa, Salesforce y la confianza
Todo el mundo está emocionado con la IA generativa puesto que esta da rienda suelta a la creatividad en formas totalmente nuevas. Trabajar con IA generativa puede ser muy divertido (por ejemplo, se pueden utilizar Midjourney para crear imágenes de sus mascotas como si fuesen superhéroes o ChatGPT para crear un poema escrito por un pirata). Ese entusiasmo por la IA generativa también se nota en las empresas debido a los aumentos de la productividad. Según un estudio de Salesforce, los empleados estiman que la IA generativa les ahorrará una media de 5 horas a la semana. Para los empleados a tiempo completo, eso supone todo un mes al año.
Pero además de todo este entusiasmo, probablemente tenga varias preguntas, como las siguientes:
- ¿Cómo puedo beneficiarme de las herramientas de IA generativa y mantener mis datos y los datos de mis clientes a salvo?
- ¿Cómo puedo saber los datos que están recopilando los diferentes proveedores de IA y cómo los usarán?
- ¿Cómo puedo estar seguro de que no estoy transfiriendo por error datos personales o de la empresa para entrenar modelos de IA?
- ¿Cómo compruebo que las respuestas generadas por IA son precisas, libres de prejuicios y fiables?
Salesforce y la confianza
En Salesforce, hemos estado realizando las mismas preguntas sobre inteligencia artificial y seguridad. De hecho, llevamos casi una década apostando todo por la IA. En 2016, lanzamos Plataforma Einstein, lo que hizo que la IA predictiva estuviese presente en nuestras nubes. Poco después, en 2018, comenzamos a invertir en modelos de lenguaje grandes (LLM).
Hemos trabajado mucho para crear soluciones de IA que ayuden a los clientes a utilizar sus datos de manera más eficaz y que ayuden a las empresas, a los empleados y a los clientes a ser más productivos y eficaces. Como la confianza es nuestro valor principal, creemos que no es suficiente proporcionar solo las funciones tecnológicas de la IA generativa. Pensamos que tenemos el deber de ser responsables, sensatos, transparentes e inclusivos, así como conferir a nuestros clientes las herramientas que necesitan. Por ello, a medida que Salesforce crea herramientas de IA generativa, llevamos con nosotros la confianza.
Acceda a la Capa de confianza de Einstein. Creamos la Capa de confianza para ayudarle a usted y a sus compañeros a utilizar IA generativa en su organización de forma segura. Veamos lo que Salesforce está haciendo para que su IA generativa sea la más segura del sector.
¿Qué es la Capa de confianza de Einstein?
La Capa de confianza de Einstein eleva la seguridad de la IA generativa mediante controles de datos y de privacidad que están integrados en la experiencia del usuario final. Estos controles permiten que Einstein proporcione IA que esté bien asentada en los datos del cliente y de la empresa, sin presentar posibles riesgos de seguridad. En su forma más sencilla, la Capa de confianza es una secuencia de pasarelas y mecanismos de recuperación que, juntos, proporcionan una IA generativa de confianza y abierta.
La Capa de confianza de Einstein permite que los clientes obtengan el beneficio de la IA generativa sin poner en riesgo los controles de seguridad y privacidad de sus datos. Incluye un conjunto de funciones que protegen sus datos (como recuperación de datos segura, anclaje dinámico, enmascaramiento de datos y cero retención de datos), de manera que no tiene que preocuparse por dónde acabarán. La detección del lenguaje tóxico analiza solicitudes y respuestas para conseguir precisión y asegurar que son apropiadas. Para llevar un registro adicional de responsabilidades, un seguimiento de auditoría supervisa una solicitud en cada paso de su recorrido. Aprenderá más sobre estas funciones en las siguientes unidades.
Diseñamos nuestro ecosistema de modelo abierto para que tenga acceso seguro a muchos modelos de lenguaje grandes (LLM), tanto dentro como fuera de Salesforce. La Capa de confianza se posiciona entre un LLM y sus empleados y clientes a fin de mantener los datos seguros mientras se utiliza la IA generativa en todos los casos de uso de su empresa, entre los que se encuentran los correos electrónicos de ventas, los resúmenes de trabajo y las respuestas de servicio en su centro de contacto.
En las próximas unidades, profundizaremos en los recorridos de las solicitudes y respuestas para aprender cómo la Capa de confianza de Einstein protege los datos.
Recursos
-
Documentación: Glosario de términos de Einstein GPT
-
Blog: Meet Salesforce’s Trusted AI Principles
-
Blog: Generative AI: 5 Guidelines for Responsible Development
-
Trailhead: Creación responsable de inteligencia artificial
-
Trailhead: Modelos de lenguaje grandes
-
Trailhead: Aspectos fundamentales de las solicitudes.