Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Aprender sobre las amenazas y defensas de la IA

Objetivos de aprendizaje

Después de completar esta unidad, podrá:

  • Identificar los riesgos de la IA y las estrategias de defensa para los usos del día a día.
  • Describir la función de los defensores cibernéticos a la hora de proteger los sistemas, los usuarios y las empresas.

A medida que avanzamos en el reino de la inteligencia artificial (IA), la comprensión de sus consideraciones éticas y protocolos de seguridad se vuelve cada vez más importante. Recuerde que la IA no solo ofrece comodidades transformadoras, sino que también presenta posibles riesgos.

Veamos brevemente estas dimensiones duales antes de pasar a un tema fundamental: los ciberataques con IA y cómo defenderse.

Ciberataques con IA y cómo defenderse

A medida que el papel de la IA se expande en la vida diaria (le ayuda a elegir una película para ver, vigila la seguridad de su hogar o incluso ayuda a sus hijos con los deberes), es importante saber que esta ventaja viene acompañada de una serie de riesgos. Al igual que la tecnología ha evolucionado, también lo han hecho las tácticas de aquellos que buscan aprovecharse de ella.

Comprender los riesgos del uso diario de la IA

En primer lugar, existen ataques en los propios sistemas de IA.

  • Contaminación del algoritmo: piense en esto como si alimentase a la IA con información incorrecta para obtener respuestas erróneas. Imagine que el GPS de su coche se hubiese dirigido de manera incorrecta a propósito, haciendo que usted se dirija a una ubicación errónea.
  • Manipulación de los datos: esto sería como cambiar los ingredientes en una receta que sigue su cocina inteligente, dando como resultado un plato que no es exactamente lo que esperaba o quería.
  • Acceso no autorizado: imagine que alguien pudiese susurrarle órdenes secretas a su asistente doméstico activado por voz, controlándolo sin su permiso.

Dos diagramas de flujo, uno al lado del otro. El diagrama de flujo de la izquierda enumera las etapas de un modelo de aprendizaje de IA, desde el conjunto de datos hasta el modelo de aprendizaje automático, pasando por el algoritmo de aprendizaje. El diagrama de flujo de la derecha enumera las mismas etapas, pero incluye un ataque contaminante en la etapa del conjunto de datos, que "contamina" la última etapa.

En segundo lugar, existen riesgos que le afectan a usted directamente.

  • Suplantación de identidad digital: es posible que haya oído hablar del contenido falso, en el que el aspecto y la voz de alguien pueden recrearse con una precisión que asusta. Podría utilizarse para falsificar un mensaje de un amigo de confianza o un miembro de la familia.
  • Estafas impulsadas por IA: ¿alguna vez ha recibido un correo electrónico o un texto que parecía legítimo pero a la vez resultaba extraño? La IA puede generar mensajes fraudulentos bastante convincentes diseñados para engañarle a fin de revelar información confidencial.
  • Malware inteligente: se trata de virus o software dañinos que pueden adaptarse y aprender de su comportamiento. Por ejemplo, si suele realizar compras en línea, es posible que el malware ataque a su información de pago.

Por último, existen riesgos que pueden afectar a su espacio de trabajo o a la comunidad en general.

  • Manipulación de los datos corporativos: si una empresa confía en la IA para sus operaciones, jugar con esa IA podría dar como resultado acciones que van contra los intereses de la empresa.
  • Daños de reputación: para las empresas que utilizan la IA para interactuar con los clientes, si ese sistema de IA se ve afectado, podría provocar una pérdida de confianza.

Los usuarios tienen un papel significativo a la hora de conservar la ética y la seguridad de la IA. Mientras que algunos controles van más allá del alcance del usuario final, existen pasos a seguir en la esfera de influencia a fin de que la experiencia con la IA siga siendo segura y ética, tanto en casa como en el trabajo. Esto es lo que puede hacer. 

  • Infórmese: lea la política de privacidad y los términos de servicio de cualquier aplicación o servicio impulsado por IA que utilice. Sepa exactamente qué datos se recopilan y cómo se utilizan.
  • Actualice con normalidad: mantenga sus aplicaciones y software actualizados. De esta manera, recibirá los parches de seguridad más recientes y aquellos que abordan las consideraciones éticas en el sistema de IA.
  • Active la configuración de seguridad: utilice todas las opciones de seguridad disponibles, como la autenticación de dos factores, especialmente para los servicios impulsados por IA que tienen acceso a sus datos personales.
  • Revise y realice auditorías: revise periódicamente los datos que ha compartido con los sistemas de IA. Elimine información innecesaria y ajuste la configuración a fin de limitar la exposición de datos.
  • Sea escéptico: si un mensaje o vídeo le parece extraño, probablemente lo sea. Sea prudente y verifique la información antes de compartirla o actuar en base a ella.
  • Instruya a los demás: comparta sus conocimientos e información sobre las consideraciones éticas y de seguridad sobre el uso de la IA con sus amigos y familiares.
  • Informe sobre los problemas:si se encuentra con algún comportamiento sesgado o no ético, informe sobre ello. El hecho de informar sobre los problemas depende del contexto en el que se encuentre el comportamiento de IA problemático.
    • Proveedor de servicios: el primer punto de contacto debería ser la empresa u organización que proporciona el servicio de IA. La mayoría de las plataformas tienen un mecanismo de generación de informes para los problemas éticos y de seguridad.
    • Organismos reguladores: para casos más graves, especialmente aquellos que implican privacidad o discriminación, es posible que necesite informar sobre el problema a los organismos gubernamentales o reguladores correspondientes, como la Comisión Federal de Comercio (FTC) o la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) de Estados Unidos o a entidades similares en jurisdicciones internacionales.
    • Canales internos: si el sistema de IA lo ha proporcionado un trabajador para su uso en el espacio de trabajo, informe sobre el problema al departamento de TI o a un comité de ética designado, si lo hubiera.
    • Grupos de desarrolladores: si se trata de un software de código abierto, normalmente puede informar sobre el problema directamente a los desarrolladores mediante repositorios como GitHub.

Siguiendo estos pasos, contribuirá a una cultura de responsabilidad ética y de seguridad en el espacio de la IA. No se trata solo de disfrutar de los beneficios de la tecnología inteligente, sino también de utilizarla de manera sabia.

A medida que profundizamos en el mundo de la IA, reconocer y mitigar estas amenazas específicas se vuelve fundamental para proteger nuestro futuro digital. 

IA y ciberdefensa

Además de todos los desafíos que la IA trae consigo, también promete soluciones transformadoras en cuanto a la ciberseguridad. Equipados con IA, los ciberdefensores pueden defendernos de manera activa de los ataques impulsados por la IA utilizando un sinfín de técnicas y tecnologías. Veamos con más detalle las maneras en las que la IA puede ayudar en las prácticas de ciberdefensa.

El papel de la ciberseguridad 

Técnicas y tecnologías de protección y defensa 

Proteger el sistema de IA

  • Análisis de comportamientos: la IA examina los patrones inusuales en los casos de uso generales, alertando sobre las desviaciones, lo que podría indicar posibles amenazas o ataques.
  • Entrenamiento sólido: los módulos de IA están entrenados para resistir a los ataques, exponiéndolos a elementos maliciosos, lo que mejora la resistencia del sistema.
  • Supervisión de modelos: la continua supervisión de los modelos para comprobar si existen discrepancias entre el comportamiento de entrenamiento y el comportamiento en el mundo real puede ayudar a detectar ataques de puerta trasera o cualquier anomalía que surja de la contaminación de los datos.
  • Validación de datos: la IA puede validar la integridad de los datos de entrenamiento en tiempo real, detectando y filtrando datos maliciosos o contaminados antes de que afecten al modelo.

Proteger a las personas

  • Detección de contenido falso: los algoritmos de IA avanzados pueden entrenarse para localizar contenido falso detectando incoherencias sutiles en vídeos, audios o imágenes que los seres humanos podrían pasar por alto.
  • Detección de phishing en tiempo real: la IA puede examinar correos electrónicos y otras formas de comunicación rápidamente en busca de pistas de phishing. Al analizar grandes cantidades de datos de phishing, la IA puede reconocer tácticas de phishing sofisticadas e incluso nuevas.
  • Inteligencia adaptativa frente a amenazas: utilizando IA, los sistemas de ciberseguridad pueden adaptarse a las tácticas cambiantes de malware impulsado por IA. Esto se consigue mediante la evolución y el aprendizaje continuos del reconocimiento de nuevos patrones.
  • Análisis del comportamiento del usuario final (EUBA): mediante el análisis de los perfiles de usuarios normales, la IA puede detectar actividades inusuales en tiempo real. Esto puede proteger contra las posibles amenazas que plantean los sistemas de IA afectados.

Defender la misión de la empresa

  • Análisis predictivo: la IA puede predecir las futuras amenazas de la seguridad mediante el análisis de patrones en datos históricos. Este enfoque proactivo ayuda a las empresas a contrarrestar las amenazas, incluso antes de que se materialicen, garantizando el alineamiento con su misión.
  • Sistemas de respuesta automatizada: además de la detección de cualquier amenaza, la IA puede automatizar respuestas para que la empresa las revise y decida actuar en consecuencia, independientemente de si se trata de aislar un sistema, iniciar una copia de seguridad o enviar alertas. La velocidad suele ser fundamental y, normalmente, la automatización puede responder más rápido que los seres humanos.
  • Inteligencia integrada frente a amenazas: la IA puede integrar varias fuentes de inteligencia de amenazas a partir de sistemas junto con recomendaciones para seguir (basadas en la mayor probabilidad de eficacia) incorporadas en las directrices a fin de lidiar de forma eficaz con una amenaza dada.
  • Análisis semántico: mediante la comprensión del contexto y la semántica de la comunicación, la IA puede detectar signos sutiles de ataques se inyección u otros intentos de manipulación de los procesos de toma de decisiones impulsados por IA.

Mediante las funciones de la IA, la ciberseguridad puede defenderse de forma activa y eficaz de las innumerables amenazas que plantean los ataques maliciosos contra la IA e impulsados por ella. A pesar de que el desafío está en constante evolución, la integración de la IA en la ciberseguridad puede producir un mecanismo de defensa dinámico, adaptativo y sólido diseñado para la era digital moderna.

Una persona utilizando IA para supervisar una red.

Trazar el camino a seguir

La intersección de la inteligencia artificial y la ciberseguridad presenta un cambio paradigmático que resuena en cada profesional de la ciberseguridad. Las complejidades y el potencial de la IA no solo redefine el panorama tecnológico, sino que también crea nuevas vías para la mejora de las habilidades, la adquisición de conocimientos y el impacto del rendimiento.

En el centro de esta transición se encuentra el entendimiento de que las capacidades de la IA solo se corresponden con sus vulnerabilidades. Para los profesionales de la ciberseguridad, esto se traduce en amplias oportunidades como las siguientes.

  1. Educación y entrenamiento: a medida que los modelos de IA se vuelven más complejos, también lo hace la necesidad de profundizar nuestro entendimiento. Los cursos y certificaciones realizados a medida que se enfocan en la ciberseguridad centrada en la IA pronto llegarán a ser convenientes y fundamentales.
  2. Aumento de las habilidades: es posible que las herramientas y técnicas que eran suficientes para combatir las amenazas impulsadas por IA ayer no lo sean mañana. El desarrollo continuo de las habilidades en la detección y análisis de amenazas, las estrategias de respuesta a incidentes automatizadas y las consideraciones éticas a la hora de implementar IA es primordial.
  3. Mayor impacto: con la integración de la IA en los sectores, la función de la ciberseguridad se expande desde la protección de sistemas hasta la definición de trayectorias profesionales. Un modelo de IA bien protegido puede impulsar el crecimiento de la empresa, mejorar la confianza del usuario y garantizar la adhesión a la ética.

El futuro, con estos avances impulsados por la IA, requiere adaptación e innovación. Mediante la adopción del aprendizaje continuo, el perfeccionamiento de las habilidades y la persecución de contribuciones de mayor impacto, los profesionales de la ciberseguridad no solo navegarán por el panorama de la IA, sino que lo definirán.

Resumen

En este módulo, le hemos presentado el papel de la IA en nuestra vida personal y profesional, y las implicaciones éticas y de seguridad de la IA. También ha aprendido sobre los ciberataques de IA y las distintas formas de defenderse. Gracias a estos conocimientos, ahora podrá luchar por las innovaciones de la IA y fortalecer sus defensas.

¿Le gustaría aprender más sobre el papel de la ciberseguridad de la mano de profesionales de la seguridad? Consulte la trayectoria profesional sobre la ciberseguridad en Trailhead. 

Recursos

Comparta sus comentarios sobre Trailhead en la Ayuda de Salesforce.

Nos encantaría conocer su experiencia con Trailhead. Ahora puede acceder al nuevo formulario de comentarios cuando quiera desde el sitio de la Ayuda de Salesforce.

Más información Continuar para compartir comentarios