Conozca la Capa de confianza de Einstein
Objetivos de aprendizaje
Después de completar esta unidad, podrá:
- Debatir sobre el valor principal de Salesforce: la confianza.
- Describir las preocupaciones relacionadas con la confianza y la IA generativa.
- Explicar por qué Salesforce creó la Capa de confianza de Einstein.
Antes de comenzar
Sabemos que le interesa obtener información sobre cómo Salesforce protege los datos de su compañía y de sus clientes a medida que implementamos nuevas herramientas de inteligencia artificial (IA) generativa. Antes de empezar, asegúrese de obtener estas insignias: Aspectos básicos sobre la IA generativa, Aspectos fundamentales de las solicitudes y Modelos de lenguaje grandes para familiarizarse con términos como LLM, solicitudes, anclaje, alucinaciones, lenguaje tóxico, etc. Puede encontrar vínculos a cada una de ellas en la sección Recursos, junto con un glosario de términos de IA utilizados en Salesforce.
IA generativa, Salesforce y confianza
Todo el mundo está entusiasmado con la IA generativa porque da rienda suelta a su creatividad de formas totalmente nuevas. Trabajar con IA generativa puede ser divertido: por ejemplo, utilizar Midjourney para crear imágenes de sus mascotas como superhéroes o ChatGPT para crear un poema escrito por un pirata. A las compañías les entusiasma la IA generativa por el aumento de la productividad. Según una investigación de Salesforce, los empleados estiman que la IA generativa les ahorrará una media de 5 horas a la semana. Para los empleados que trabajan a tiempo completo, eso supone un mes al año.
Sin embargo, a pesar de toda esta emoción, probablemente se haga las siguientes preguntas:
- ¿Cómo puedo aprovechar las herramientas de IA generativa, y proteger mis datos y los de mis clientes?
- ¿Cómo puedo saber qué datos recopilan los distintos proveedores de IA generativa y cómo se utilizarán?
- ¿Cómo puedo saber con seguridad que no proporciono por error datos personales o de la compañía para entrenar modelos de IA?
- ¿Cómo puedo verificar que las respuestas que genera la IA son precisas, imparciales y confiables?
Salesforce y la confianza
En Salesforce, nos hicimos las mismas preguntas sobre inteligencia artificial y seguridad. De hecho, llevamos casi una década apostando por la IA. En 2016 lanzamos la plataforma Einstein, que lleva la IA predictiva a nuestras nubes. Comenzamos a invertir en modelos de lenguaje grande (LLM) poco después, en 2018.
Trabajamos de manera ardua para desarrollar soluciones de IA generativa que ayuden a nuestros clientes a usar mejor sus datos, y a las compañías, empleados y clientes a ser más productivos y eficientes. Además, como la confianza es nuestro valor principal, creemos que no es suficiente ofrecer únicamente las capacidades tecnológicas de la IA generativa. Pensamos que tenemos el deber de ser responsables, rendir cuentas, ser transparentes, potenciar e incluir. Por eso, a medida que Salesforce crea herramientas de IA generativa, no nos olvidamos de nuestro valor de confianza.
Presentación de la Capa de confianza de Einstein. Creamos la Capa de confianza para ayudarlo a usted y a sus colegas a utilizar la IA generativa en su organización de forma segura. Veamos lo que hace Salesforce para garantizar que su IA generativa sea la más segura de la industria.
¿Qué es la Capa de confianza de Einstein?
La Capa de confianza de Einstein mejora la seguridad de la IA generativa con controles de datos y privacidad que se integran perfectamente en la experiencia del usuario final. Con estos controles, Einstein es capaz de ofrecer IA basada en los datos de sus clientes y de su compañía sin dar lugar a posibles riesgos para la seguridad. En su forma más simple, la Capa de confianza es una secuencia de puertas de enlace y mecanismos de recuperación que trabajan juntos para permitir que la IA generativa sea abierta y de confianza.
Con la Capa de confianza de Einstein, los clientes pueden aprovechar los beneficios de la IA generativa sin comprometer la seguridad de sus datos ni los controles de privacidad. Incluye un conjunto de funciones que protegen sus datos, como la recuperación segura de datos, el anclaje dinámico, el enmascaramiento de datos y la retención cero de datos, para que no tenga que preocuparse acerca del destino de sus datos. La detección de lenguaje tóxico escanea las solicitudes y respuestas para comprobar que sean exactas y adecuadas. Además, para una mayor responsabilidad, una traza de auditoría realiza el seguimiento de una solicitud en cada paso de su recorrido. Obtendrá más información sobre cada una de estas funciones en las siguientes unidades.
Diseñamos nuestro ecosistema de modelos abiertos para ofrecer un acceso seguro a los modelos de lenguaje grande (LLM), tanto dentro como fuera de Salesforce. La Capa de confianza se sitúa entre un LLM, y sus empleados y clientes para mantener sus datos seguros mientras utiliza la IA generativa para todos sus casos de uso de negocio, incluidos los emails de ventas, los resúmenes de trabajo y las respuestas de servicio en su centro de contacto.
En las próximas unidades, abordaremos el recorrido de las solicitudes y de las respuestas para conocer el modo en que la Capa de confianza de Einstein protege sus datos.
Recursos
-
Documentación: Glosario de términos de Einstein GPT
-
Blog: Conozca los principios de IA de confianza de Salesforce
-
Blog: IA generativa: 5 directrices para un desarrollo responsable
-
Trailhead: Creación responsable de inteligencia artificial
-
Trailhead: modelos de lenguaje grande
-
Trailhead: Nociones básicas de las solicitudes