Deepfake

Imagina que estás viendo un video de tu actor favorito en una película que nunca ha hecho; te preguntas, ¿cómo es posible? La respuesta es simple: deepfake. Esta tecnología, alimentada por la Inteligencia Artificial, tiene la capacidad de crear videos, imágenes o sonidos que parecen reales, pero en realidad no lo son; se puede imitar la voz de una persona, su imagen, e incluso a otros seres vivos u objetos.

El término se deriva del “deep learning”, una forma de IA. Los algoritmos de aprendizaje profundo que aprenden a resolver problemas por sí mismos cuando se les proporcionan grandes conjuntos de datos se utilizan para intercambiar caras en videos y contenido digital, creando medios falsos que parecen increíblemente realistas.

Existen varios métodos para crear deepfakes, pero el más común implica el uso de redes neuronales profundas y codificadores automáticos para intercambiar caras. Primero, se necesita un video de destino para usar como base y, luego, una colección de videoclips de la persona cuyo rostro aparecerá en el video.

Pero ¿qué pasa cuando esta tecnología cae en las manos equivocadas? Los deepfakes se están utilizando con fines maliciosos creando una narrativa falsa que parece originarse de fuentes confiables. Esto representa una amenaza para la sociedad y las empresas, ya que pueden ser utilizados para difundir desinformación, manipular la opinión durante las elecciones, obtener un retorno financiero al suplantar individuos o empresas, aumentar la efectividad de los ataques de phishing y compromiso de correo electrónico empresarial (BEC, por sus siglas en inglés), facilitar el fraude de identidad e impactar la reputación de las empresas.

La creación de contenidos falsos ha aumentado un 3 % en intentos de suplantación de identidad y estafas. Además, la técnica mencionada ahora es accesible para cualquiera con las herramientas necesarias, transformándose en un sector de producción de fraudes a gran escala con consecuencias perjudiciales.

Afortunadamente, las empresas están empleando algoritmos de IA para distinguir entre imágenes o vídeos auténticos y manipulados, contribuyendo a la lucha contra las falsificaciones fraudulentas. Aunque los deepfakes presentan desafíos significativos, la misma tecnología que los crea también puede ser la clave para detectarlos y combatirlos. Por consiguiente, es de gran importancia considerar esquemas que incluyan medidas de seguridad y procedimientos de respuesta, con la finalidad de disminuir un impacto negativo, así como proteger la integridad y reputación de las organizaciones ante ataques o escenarios derivados de la manipulación y la utilización de tecnologías basadas en IA de manera maliciosa.

Referencias:

  • CISA. (2023). CISA release cybersecurity information sheet on deepfake threats. Recuperado de https://www.cisa.gov/news-events/alerts/2023/09/12/nsa-fbi-and-cisa-release-cybersecurity-information-sheet-deepfake-threats
  • Cybersecurity Magazine. (2024). Deepfake technology is a rising cyberthreat. Recuperado de https://cybersecurity-magazine.com/deepfake-technology-is-a-rising-cyberthreat/
  • SecurityWeek. (2024). Deepfakes are a growing threat to cybersecurity and society: Europol. Recuperado de https://www.securityweek.com/deepfakes-are-growing-threat-cybersecurity-and-society-europol