¡La inteligencia artificial puede generar una nueva ciber amenaza!

El mal uso de las herramientas de inteligencia artificial (IA) puede dar lugar a una ciber amenaza, basada en el lanzamiento de ataques dirigidos a través de correos electrónicos y código malicioso. ChatGPT, junto con Codex, “representan otro paso adelante en la peligrosa evolución de capacidades cibernéticas cada vez más sofisticadas y efectivas” (Europa Press PortalTIC, 2022). Recordemos que ChatGPT es un chatbot impulsado por inteligencia artificial que interactúa con los usuarios de una manera inquietante, convincente y conversacional. Su capacidad para proporcionar respuestas extensas, reflexivas y exhaustivas a preguntas e indicaciones, incluso si son inexactas, ha sorprendido a los usuarios. Por otro lado, Codex es un sistema de lenguaje natural, que ayuda a convertir instrucciones simples en más de una docena de lenguajes de programación. Ambas herramientas fueron desarrolladas por la compañía OpenAI.

Por el momento, ChatGPT está disponible de forma gratuita en la página de OpenAI, donde solo se requiere tener una cuenta. La facilidad con la que se puede acceder a esta herramienta ha puesto en alerta a los investigadores de Check Point, ya que cualquier persona con recursos mínimos y cero conocimientos en programación puede utilizarla fácilmente.

Como se mencionó anteriormente, los investigadores de esta firma de ciberseguridad han usado ambas herramientas para crear correos electrónicos maliciosos, código y una cadena de infección completa con capacidad para acceder a otros ordenadores de forma remota. Emplearon ChatGPT para crear el correo malicioso de phishing, que se hace pasar por una fuente fiable y que contiene un documento de Excel capaz de descargar shells inversos, un tipo de ataque que busca conectarse a un ordenador y redirigir las conexiones del sistema objetivo para que el atacante pueda acceder a él de forma remota. Y con Codex generaron el código malicioso que les permitió realizar distintas peticiones al sistema operativo del ordenador infectado (Check Point Research, 2023).

La pregunta en cuestión es: ¿se trata de solo de una amenaza hipotética o hay actores de amenazas que utilizan tecnologías de inteligencia artificial con fines maliciosos? El equipo de Check Point Research(CPR), logró identificar y analizar muestras en una de las principales comunidades clandestinas de piratería y reconoció los primeros casos de ciberdelincuentes que usan las herramientas desarrolladas por OpenAI para crear herramientas maliciosas. Como se sospechaba, algunos de los casos mostraron claramente que muchos atacantes, que usan estas herramientas de inteligencia artificial, no tienen ninguna habilidad de desarrollo. Aunque las herramientas desarrolladas que se observaron son bastante básicas, será solo cuestión de tiempo para que los actores de amenazas más sofisticados mejoren la forma en que usan las herramientas basadas en inteligencia artificial para hacer el mal (Check Point Research, 2023).

Todavía es demasiado pronto para decidir si las capacidades de la inteligencia artificial se convertirán o no en la nueva herramienta favorita para los participantes en la Dark Web. Sin embargo, la comunidad ciberdelincuente ya ha mostrado un gran interés y se está sumando a esta última tendencia para generar código malicioso y mejorar sus técnicas en actividades ilícitas.

Bibliografía