Skip to main content

Explore las protecciones de Agentforce y los patrones de confianza

Objetivos de aprendizaje

Después de completar esta unidad, podrá:

  • Describir las protecciones para la plataforma.
  • Describir las protecciones de Agentforce.
  • Explicar cómo se personalizan las protecciones de Agentforce.
  • Explicar los patrones de confianza que se utilizan para crear agentes en Salesforce.

Garantizar la confianza con protecciones

La IA evoluciona rápido. Con estos cambios tan rápidos, es normal sentir algo de agobio. En Salesforce, nuestro equipo de productos y la Office of Ethical and Humane Use (OEHU) reconocen que mantener la confianza en nuestros productos es fundamental, y los riesgos y las preocupaciones en cuanto a los agentes de IA se abordan de la siguiente manera:

  • Se identifican los controles necesarios para crear un agente de confianza
  • Se desarrolla una estrategia de realización de pruebas
  • Se añaden protecciones éticas en el producto
  • Se proporciona una orientación ética mejorada a los clientes

La integración de estas protecciones en nuestros productos y la concesión de protecciones éticas ayudan a las empresas a gestionar la tecnología de IA de manera responsable, haciendo que todo sea seguro y de confianza para todas las personas.

Vamos a ver algunos detalles, empezando por las protecciones de la plataforma, que proporcionan controles globales en los productos.

Protecciones de la plataforma

Salesforce incluye un conjunto completo de políticas, directrices y protocolos diseñado para garantizar la seguridad, la ética y el cumplimiento en la plataforma. Entre estas protecciones se incluyen las siguientes:

  • Acceptable Use Policy (AUP): reglas generales para los clientes que utilicen los servicios de Salesforce, en las que se prohíben las actividades que podrían dañar la plataforma o a sus usuarios.
  • AI Acceptable Use Policy (AI AUP): reglas específicas para los clientes que utilicen tecnologías de IA de Salesforce que garantizan que nuestros productos se utilicen de manera responsable.
  • Políticas de contención de modelos: reglas claras para el uso de modelos de IA. Estas reglas garantizan que los modelos de IA se utilicen dentro de ciertos límites a fin de evitar que se usen de formas no apropiadas o provoquen efectos no intencionados.

Estos controles crean un marco que mantiene la integridad, la seguridad y las normas éticas de la plataforma. Por ejemplo, la política AUP establece que la plataforma no se puede utilizar para enviar spam o falsificar identidades. La política AI AUP establece que la IA no puede tomar decisiones legales o importantes sin que una persona real tome la decisión final. Las políticas de contención de modelos pueden limitar los tipos de datos a los que puede acceder un modelo de IA a fin de ayudar a evitar las fugas de datos o el uso indebido de estos.

Protecciones de Agentforce

Las protecciones de Agentforce son un conjunto de reglas, directrices y prácticas recomendadas que están diseñadas para un producto o una nube de Salesforce determinados, para algún uso empresarial y para asegurarse de que los agentes sigan las leyes y normas locales. Agentforce incluye protecciones éticas para minimizar las alucinaciones de IA y protecciones de seguridad a fin de evitar que se produzcan amenazas y ataques maliciosos, como los ataques de inyección.

Tres círculos naranjas que se solapan con los títulos Agent Type (Tipo de agente), Topics and Topic Instructions (Temas e instrucciones del tema) y Actions (Acciones), con un escudo en el que se lee la palabra Trust (Confianza) en el centro.

Tipo de agente

Salesforce proporciona agentes preconfigurados para nubes específicas y casos de uso comunes. Los diferentes tipos de agentes pueden tener sus propios parámetros y protecciones para definir el comportamiento del agente. Por ejemplo, el tipo Agentforce Service Agent (ASA) (Agente de servicio de Agentforce) utiliza instrucciones del tema para determinar cuándo se debe distribuir una conversación del agente de IA al representante real. El tipo de agente Sales Development Rep (SDR) (Representante de desarrollo de ventas) tiene reglas de implicación definidas por el administrador para las condiciones en las que el agente puede comenzar a trabajar en el candidato y cómo y cuándo se pueden enviar correos electrónicos de agente.

Tema, instrucciones del tema y acciones

Cada uno de los agentes incluye un conjunto de acciones y temas preconfigurados.

Los temas son una categoría de acciones relacionadas con un trabajo en particular que debe hacer el agente. Los temas contienen acciones, que son las herramientas disponibles para el trabajo, e instrucciones, que indican al agente cómo debe tomar decisiones. Juntos, los temas definen la variedad de capacidades que puede gestionar su agente. Salesforce proporciona una biblioteca de temas estándar para casos de uso comunes.

Las instrucciones de los temas establecen directrices para el comportamiento del agente, proporcionando así el contexto necesario para realizar el trabajo de manera eficaz. Cada uno de los temas es una categoría de acciones relacionadas con un trabajo específico, que contiene acciones (herramientas) e instrucciones (directrices para tomar decisiones). Las instrucciones ayudan a los agentes a tomar decisiones sobre cómo se deben utilizar las acciones de un tema para los diferentes casos de uso. Estas instrucciones suelen expresarse como "Siempre…", "Nunca…", "Si x, entonces y…" o "El primer paso…", a fin de garantizar que el comportamiento sea claro y coherente.

Las acciones son la manera en la que los agentes realizan las cosas. Los agentes incluyen una biblioteca de acciones, que es un conjunto de trabajos que puede realizar un agente. Por ejemplo, si un usuario le pide ayuda a un agente para redactar un correo electrónico, el agente inicia una acción que elabore y revise el correo electrónico y lo ajuste con datos de Salesforce pertinentes. Salesforce proporciona algunas acciones preconfiguradas; estas acciones se denominan acciones estándar. La ventaja de incluir temas y acciones estándar de forma predeterminada es que su agente está listo para ayudar a los usuarios con muchas tareas comunes de inmediato.

Personalizar protecciones

Para conseguir un control más detallado, utilice instrucciones de tema para el agente a fin de crear límites, definir el contexto y determinar el comportamiento del agente. Puede modificar las instrucciones para un tema de agente estándar o puede crear un tema personalizado desde cero.

El control de estas protecciones le corresponde a su administrador, y quienes suelen firmarlas son el líder interno o las personas que toman las decisiones clave. De esta manera, se garantiza que las protecciones estén autorizadas y reflejen los valores y los requisitos de cumplimiento de la organización.

Capa de confianza de Einstein

Los agentes de IA están integrados en la Capa de confianza de Einstein, una arquitectura de IA segura que está integrada en Salesforce.

La capa de confianza, diseñada para los estándares de seguridad de la empresa, le permite beneficiarse de la IA generativa sin tener que poner en peligro los datos de los clientes. Al mismo tiempo, le permite utilizar datos de confianza para mejorar las respuestas de la IA generativa.

  1. Anclaje de datos: la Capa de confianza garantiza que las solicitudes generativas estén basadas en datos de confianza de la empresa.
  2. Cero retención de datos: un proveedor de LLM externo nunca retendrá los datos.
  3. Detección de toxicidad: se detectan y se marcan las respuestas del LLM que puedan resultar dañinas.
  4. Supervisión de IA: las interacciones de IA se capturan en registros de eventos, lo que proporciona visibilidad de los resultados de cada interacción de los usuarios.

Patrones de confianza de los agentes

Implementamos algunos patrones clave de confianza en los productos, es decir, diseños estándar que permiten mejorar la seguridad. A continuación se muestran algunos ejemplos.

Patrón de confianza

Ejemplo

Reducir alucinaciones.

Utilizamos la clasificación de temas para asignar datos de entrada del usuario a temas específicos. De esta manera, se reduce el riesgo de que el agente genere información incorrecta o no pertinente.

Limitar la frecuencia de los correos electrónicos generados por agentes.

Limitamos la frecuencia de los correos electrónicos generados por agentes a fin de evitar que los usuarios se sientan abrumados y garantizar que la comunicación sea significativa.

Respetar la privacidad del usuario.

Incluimos una función de cancelación en el software de CRM, lo que permite que los usuarios controlen la frecuencia con la que reciben comunicaciones por parte de los agentes de IA.

Crear transparencia de forma predeterminada.

Nos aseguramos de que el contenido generado por IA sea directo y transparente.

Facilitar la transferencia entre el agente de IA y la persona real.

Facilitamos las transiciones sencillas desde los agentes a las personas reales. Entre los ejemplos se incluye poner en copia a un gerente de ventas en los correos electrónicos generados por IA o proporcionar un panel para que las personas lo supervisen.

Implementación de prácticas recomendadas

A la hora de implementar las protecciones de Agentforce en su organización, siga estas prácticas recomendadas:

Mejor práctica

Ejemplo

Comprender las políticas.

Cree una lista de las políticas aplicables a su sector, geografía y caso de uso. Utilícelas para establecer límites en cuanto a lo que el agente puede y no puede hacer. Esto puede ayudar a determinar qué temas pueden asignarse a su agente.

Implementar medidas de seguridad sólidas.

Haga que el acceso de los agentes se limite solamente a aquello que necesitan para completar las tareas asignadas. Asegúrese de que los agentes cumplan las protecciones de datos y los requisitos normativos. Utilice instrucciones de temas para definir las reglas que debe seguir el agente.

Facilitar la supervisión por parte de las personas reales.

Establezca directrices claras sobre cómo y cuándo se debe transferir el caso a un representante real. Utilice instrucciones de temas para exponer estas directrices.

Supervisar y realizar auditorías.

Además de las pruebas iniciales, la supervisión continua ayuda a garantizar que los agentes funcionen como deberían. Utilice la función Audit Trail (Seguimiento de auditoría) para obtener información detallada sobre las acciones de la IA y los resultados.

Respetar la privacidad del usuario.

Utilice la función de cancelación para permitir que los usuarios controlen la frecuencia de la comunicación y protejan su privacidad.

Realizar evaluaciones con regularidad.

Realice evaluaciones sobre el sesgo, la capacidad de descripción y la solidez de los agentes a fin de supervisar continuamente la seguridad y la confiabilidad.

Recursos

Comparta sus comentarios sobre Trailhead en la Ayuda de Salesforce.

Nos encantaría conocer su experiencia con Trailhead. Ahora puede acceder al nuevo formulario de comentarios cuando quiera desde el sitio de la Ayuda de Salesforce.

Más información Continuar para compartir comentarios