La interfaz entre la IA y la ciberseguridad es una preocupación creciente de la industria, en particular sobre cómo se puede utilizar la IA para mitigar los ataques y neutralizar las amenazas. Muchas partes interesadas están lidiando con el hecho de que la IA también puede ser una fuerza del mal. Según BCG, más del 90% de los expertos en ciberseguridad en EE. UU. Y Japón esperan que los atacantes utilicen IA para lanzar ataques. Y esto ya se está convirtiendo en realidad.

La IA ofrece a los atacantes cibernéticos grandes oportunidades para aumentar masivamente los ataques en términos de velocidad, volumen y sofisticación. Según Alejandro Correa Bahnsen de Cyxtera, los ataques basados ​​en IA pueden eludir los sistemas de detección convencionales en más del 15% de los casos, mientras que un ataque de phishing promedio (sin IA) solo puede detectar los ataques en el 0,3% de los casos. Un ejemplo es #SNAP_R.

Defender la IA con IA: las soluciones habilitadas para IA para las ciberamenazas de la próxima generación

Para contrarrestar esta creciente amenaza, es importante tener en cuenta que una ofensiva basada en IA requiere una defensa basada en IA. Es decir, donde los deepfakes pueden engañar a los sistemas de seguridad y se debe utilizar un nivel más alto de autenticación basada en IA. Y así.

Las empresas recién están comenzando a lidiar con los riesgos de la inteligencia artificial. Las empresas deben actuar lo más rápido posible para proteger sus sistemas de estos ataques. WannaCry le dio a los ataques cibernéticos un nivel completamente nuevo de sofisticación, ¿y ahora más IA? No se debería permitir que eso suceda.

Riesgos de la IA al realizar ciberataques

1. Escalabilidad

En la conferencia Black Hat de 2016, investigadores experimentados dieron a conocer un programa automatizado de spear phishing. El spear phishing suele ser estresante y requiere mucho tiempo. dependiendo de la extensión del ataque. Lo más probable es que el atacante necesite recopilar grandes cantidades de información sobre sus objetivos para garantizar una ingeniería social eficaz. Estos investigadores mostraron cómo la ciencia de datos y el aprendizaje automático se pueden utilizar para automatizar y escalar los ataques de spear phishing.

2. Suplantación de identidad

Hace meses, los expertos del Dawes Center for Future Crime calificaron a las deepfakes como la amenaza más grave para los delitos de IA. No es difícil ver por qué. Los deepfakes son una herramienta de desinformación, manipulación política y engaño. Además, los actores malintencionados pueden utilizar deepfakes para hacerse pasar por contactos de confianza y comprometer el correo electrónico empresarial (phishing de voz) para cometer fraude financiero. Y lo peor de todo, son difíciles de detectar.

La posibilidad de deepfake simula la biometría y la autenticación de voz. Y estas profundas falsificaciones llevarán a las personas a desconfiar de las pruebas de audio y video, que durante mucho tiempo han sido fuentes de justificación a prueba de manipulaciones.

3. Detección de bypass

Una forma en que se puede utilizar la IA para evitar la detección es mediante el envenenamiento de datos. A través de datos específicos y comprometedores utilizados para entrenar y configurar sistemas inteligentes de detección de amenazas, p. Ej. B. por la etiqueta del sistema de correos electrónicos no deseados que los clasifica obviamente como seguros, los atacantes pueden moverse de manera más clandestina y peligrosa.

Los estudios muestran que envenenar solo el 3% de un conjunto de datos puede aumentar la probabilidad de errores hasta en un 91%. La IA se puede utilizar para evadir ataques y adaptarse a las defensas.

4. Sofisticación

Todo lo anterior enfatiza cómo la IA amplifica los ataques. Los ataques de IA están en peor situación debido a la automatización y el aprendizaje automático. La automatización cruza la línea del esfuerzo humano, mientras que el aprendizaje automático mejora los algoritmos de ataque a partir de la experiencia y los hace más eficientes, independientemente de si los ataques tienen éxito o no.

La adaptabilidad significa que los ataques basados ​​en la IA solo se volverán más fuertes y más peligrosos si se desarrollan contrainnovaciones más fuertes para la resistencia.

Usa la IA para defenderte de la IA

A. Aprendizaje automático para detectar amenazas

La defensa de la IA con IA utiliza el aprendizaje automático para automatizar la detección de amenazas, especialmente las nuevas amenazas para las que los sistemas antivirus y cortafuegos tradicionales no están equipados para hacer frente. El aprendizaje automático puede reducir los falsos positivos, una seria amenaza en la detección de amenazas tradicional, entre un 50% y un 90% (Cybersecurity Intelligencedotcom).

A diferencia de las herramientas de detección basadas en firmas de la generación anterior, el aprendizaje automático puede monitorear y registrar los patrones de uso de la red entre los empleados de una organización y alertar a los supervisores cuando se observa un comportamiento anormal.

Parece que el 93% de los SOC ahora utilizan herramientas de aprendizaje automático e inteligencia artificial para detectar amenazas. Cuantos más datos se generen y más sofisticados sean los ciberataques, mejores serán los profesionales de la seguridad para mejorar sus habilidades de defensa y detección a través del aprendizaje automático supervisado y no supervisado.

B. Mejorar la autenticación a través de IA

La autenticación débil es la forma más común en que los actores malintencionados obtienen acceso no autorizado a los puntos finales. Y como se puede ver con los deepfakes, incluso la autenticación biométrica ya no parece ser segura. La IA aumenta la sofisticación de la defensa al agregar contexto a los requisitos de autenticación.

Las herramientas de autenticación basadas en riesgos utilizan biometría de comportamiento impulsada por IA para identificar actividades sospechosas y evitar compensaciones en los puntos finales. La autenticación luego se extiende más allá de la verificación del usuario a la información en tiempo real. RBA, también conocida como inteligencia adaptativa, evalúa detalles como información de ubicación, dirección IP, información del dispositivo, sensibilidad de los datos, etc. para calcular una puntuación de riesgo y permitir o restringir el acceso.

Por ejemplo, si una persona sigue iniciando sesión en el trabajo desde una computadora los días de semana por la mañana e intenta iniciar sesión una vez en un restaurante un fin de semana en un dispositivo móvil, puede ser una señal de compromiso y el sistema lo marcará correctamente. .

Con un modelo de seguridad inteligente de RBA, no es suficiente que un atacante sepa solo la contraseña de un sistema.

Además, los sistemas de autenticación impulsados ​​por inteligencia artificial están comenzando a implementar la autenticación continua mientras continúan utilizando análisis de comportamiento. En lugar de un único inicio de sesión por sesión que puede ser atacado a la mitad, el sistema funciona continuamente en segundo plano, autenticando al usuario mediante el análisis del entorno y el comportamiento del usuario en busca de patrones sospechosos.

C. IA en la prevención del phishing

Mejorar la detección de amenazas es una forma en que la IA puede prevenir ataques de phishing por correo electrónico y mantener seguros los sitios web de torrents cuando se utilizan sitios web de torrents para descargar contenido multimedia. Esto también se puede hacer con un simple análisis de comportamiento. Digamos que supuestamente recibió un correo electrónico del CEO. La IA puede analizar el mensaje para identificar patrones que son inconsistentes con la forma en que el CEO real se está comunicando.

Funciones como el estilo de escritura, la sintaxis y la elección de palabras pueden descubrir contradicciones, evitar que caiga en la trampa y navegar y descargar de forma segura.

La IA también puede escanear los metadatos del correo electrónico para detectar cambios en la firma, incluso si la dirección de correo electrónico parece correcta. Los enlaces y las imágenes también se escanean para verificar su autenticidad. A diferencia de las herramientas tradicionales anti-phishing, que bloquean los correos electrónicos dañinos a través de filtros que se pueden eludir fácilmente, la IA afronta el desafío directamente contra el núcleo de los correos electrónicos de phishing: la ingeniería social.

Lo que hace que los ataques de ingeniería social sean difíciles de superar es que son de naturaleza más psicológica que tecnológica. Hasta ahora, la mera inteligencia y el escepticismo humanos habían sido herramientas para superarlos. Ahora, la IA ha intensificado la prevención y ha expandido la preocupación más allá de las fronteras humanas.

Al detectar patrones que no son obvios de inmediato para los humanos, la IA puede saber cuándo un correo electrónico es malicioso, incluso si no contiene ningún enlace o código sospechoso. Y eso a gran escala con la ayuda de la automatización.

D. Análisis predictivo

La máxima ventaja de la IA en ciberseguridad es la capacidad de predecir y construir defensas contra ataques antes de que ocurran. La IA puede ayudar a los supervisores humanos a obtener una visión integral de toda la infraestructura de red de una empresa y analizar los puntos finales para identificar posibles vulnerabilidades. En tiempos de trabajo remoto y políticas BYOD, donde los departamentos de TI encuentran que la seguridad de los terminales es cada vez más difícil, la IA puede hacer su trabajo mucho más fácil.

La IA es nuestra mejor apuesta contra las vulnerabilidades de día cero para que podamos construir rápidamente defensas inteligentes antes de que los actores malintencionados exploten esas vulnerabilidades. La ciberseguridad de la IA se está convirtiendo en una especie de sistema inmunológico digital para nuestras organizaciones, similar a cómo los anticuerpos en los seres humanos se convierten en sistemas ofensivos contra sustancias extrañas.

Conclusión

El año pasado, algunos investigadores australianos pasaron por alto el famoso antivirus Cylance AI sin utilizar el método habitual de envenenamiento de registros. Simplemente observaron cómo funcionaba el antivirus y crearon una solución de derivación universal. Este ejercicio desafió la práctica de abandonar las computadoras para determinar qué es confiable y llamó la atención para ver qué tan efectiva es la IA para la ciberseguridad.

Sin embargo, lo que es más importante, la investigación subraya el hecho de que la IA no es una solución milagrosa y que el control humano sigue siendo necesario para combatir las amenazas cibernéticas avanzadas. Lo que sí sabemos es que el esfuerzo humano con herramientas de ciberseguridad heredadas por sí solo no es suficiente para superar la próxima generación de amenazas cibernéticas impulsadas por IA.

Necesitamos usar la IA como la mejor ofensiva y defensa contra la IA.

Joseph Chukwube

Emprendedor, comercializador digital, bloguero

Joseph Chukwube, especialista en marketing digital y relaciones públicas, es el fundador de Digitage, una agencia de marketing digital para startups, empresas en crecimiento y pymes. Habla sobre ciberseguridad, comercio electrónico y estilo de vida y es un escritor publicado en TripWire, Business 2 Community, Infosecurity Magazine, Techopedia, Search Engine Watch y más. Para saludar o discutir un proyecto, sugerencia o idea, contáctelo en joseph@digitage.net

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí