En Septiembre llega el ranking de las Empresas con Mejor Reputaciรณn Corporativa 2025
En Septiembre llega el ranking de las Empresas con Mejor Reputaciรณn Corporativa 2025

ยกAtenciรณn!: estos son 7 casos reales de estafas donde se utilizaron deepfakesย 

Revista SUMMA
Somos el principal grupo editorial de revistas en Amรฉrica Central y el Caribe.

Elon Musk y Leonel Messi son dos de las figuras reconocidas cuya identidad ha sido suplantada.

Por Revista Summa

Los cibercriminales encontraron en la utilizaciรณn de la inteligencia artificial una manera de potenciar sus estafas, y que sus engaรฑos sean mรกs reales y difรญciles de detectar. En el รบltimo tiempo se observaron videos falsos en los que se suplanta la identidad de personas de renombre internacional, como Lionel Messi, o el CEO de una importante organizaciรณn, aunque tambiรฉn existen en escalas mรกs pequeรฑas, como un director de una escuela en Estados Unidos.ย ESET,ย compaรฑรญa lรญder en detecciรณn proactiva de amenazas, repasa algunos de los casos en donde las deepfakes fueron la herramienta principal para diagramar estafas que generaron pรฉrdidas millonarias o de informaciรณn sensible.

El deepfake es unaย tรฉcnica de sรญntesis de imรกgenes humanas basada en inteligencia artificialย para crear contenido falso desde cero, utilizando vรญdeos existentes o, incluso, solo a partir de una imagen estรกtica. Estรกn diseรฑados para replicar la apariencia y el sonido de una persona real.

โ€œCon la evoluciรณn de la Inteligencia Artificial, estos vรญdeos y audios parecen cada vez mรกs reales. Muchos explotan la imagen de figuras pรบblicas o entidades de renombre diciendo algo falso, como parte de una estafa que busca obtener dinero o informaciรณn sensible.โ€,ย comenta Camilo Gutiรฉrrez Amaya, Jefe del Laboratorio de Investigaciรณn de ESET Latinoamรฉrica.

ESET recopilรณ los casos reales del รบltimo tiempo:

Lionel Messi:ย El jugador de fรบtbol argentino es una de las personalidades mรกs reconocidas a nivel mundial. En este caso, los cibercriminales aprovecharon su popularidad para realizar una estafa con deepfake, mediante la cual promovรญan una aplicaciรณn con ganancias sospechosamente altas e irresistibles. La app en cuestiรณn se llamabaย “Wildcat Dive”,ย y en el video apรณcrifo Messi aseguraba que era una de sus principales fuentes de ingresos y que gracias a ella pudo ayudar a muchas personas a ganar dinero. A travรฉs de publicidades de la red social Instagram, los cibercriminales distribuyeron fragmentos de una entrevista apรณcrifa para la que habรญan utilizado de base una entrevista real que el futbolista habรญa concedido a un reconocido programa argentino de streaming.

Arup:ย A principios de 2024, la empresa de arquitectura que diseรฑรณ la ร“pera de Sรญdney y el Estadio Etihad,ย Arup, fue noticia porque un empleado financiero de la oficina que la compaรฑรญa tiene en Hong Kong, tomรณ una videollamada con (supuestamente) su director financiero. El resultado de la reuniรณn fueron 15 transferencias por mรกs de 25 millones de dรณlares. La mala noticia es que en realidad se trataba de un deepfake, por lo que las transferencias no habรญan sido previamente aprobadas por nadie en la compaรฑรญa.

Ferrari:ย En este caso, los cibercriminales buscaron llevar a caboย una estafa de voz deepfake, simulando ser Benedetto Vigna, el director ejecutivo de la empresa automotriz. En julio de 2024, a travรฉs de la imitaciรณn de la voz, intentaron convencer a los ejecutivos encargados de las finanzas de la compaรฑรญa a realizar una transferencia de dinero, por un monto muy alto. Uno de los empleados dudรณ de la situaciรณn y realizรณ una pregunta que la IA utilizada para el engaรฑo no pudo contestar correctamente. No solo que este ataque no surtiรณ efecto, sino que sirviรณ para que Ferrari refuerce la capacitaciรณn entre sus colaboradores para que no caigan en este tipo de estafas.

WPP:ย Una de las mayores empresas de publicidad del mundo tambiรฉn fue blanco deย un intento de estafa que involucraba un deepfake.ย A mitad de 2024, los cibercriminales se valieron de una cuenta falsa de WhatsApp, un audio de voz y material de YouTube de una reuniรณn virtual, para suplantar la identidad del CFO de la compaรฑรญa, llamado Mark Read. Los actores maliciosos organizaron una reuniรณn a travรฉs de Microsoft Teams, con la excusa de crear una nueva empresa, y a travรฉs de ese seรฑuelo, obtener dinero y datos personales y sensibles de la compaรฑรญa. Segรบn informaron desde WPP, este ataque no tuvo รฉxito gracias al estado de vigilancia y la capacitaciรณn de los colaboradores para detectar estos engaรฑos.

Escuela de Baltimore:ย No solo las empresas de alto rango son objetivo de las deepfake. En este caso, se escucha a unย director de escuelaย hacer comentarios racistas y antisemitas. El hecho se hace viral (mรกs de 2 millones de visualizaciones) y termina provocando amenazas de muerte contra el educador en cuestiรณn. Tras una investigaciรณn, las autoridades policiales locales confirmaron que se trataba de un audio falso manipulado con IA.

Elon Musk:ย Una estafa vinculada aย inversiรณnes en criptomonedas,ย utilizรณ la imagen del Elon Musk para difundir anuncios en X y YouTube de supuestas oportunidades de inversiรณn que prometรญan altas ganancias en Bitcoin. ย Los anuncios distribuรญan un enlace que dirigรญa a un sitio web fraudulento en el que el usuario engaรฑado debรญa realizar depรณsitos iniciales para operar en la supuesta inversiรณn. Segรบn la Federal Trade Commission de los Estados Unidos, el engaรฑo, que incluรญa deepfakes, representรณ una pรฉrdida de mรกs de 80 millones de dรณlares entre las mรกs de 7.000 vรญctimas que creyeron en la supuesta inversiรณn.

Presidente Zelensky:ย La polรญtica tambiรฉn se vio envuelta en el engaรฑo de los deepfakes. En marzo de 2022, en pleno conflicto entre Rusia y Ucrania, circulรณย un video apรณcrifoย en el cual se veรญa al presidente de Ucrania, Volodรญmir Zelensky instando a sus tropas a rendirse. Esto provocรณ que el mandatario responda casi inmediatamente, a travรฉs de un video legรญtimo que publicรณ en sus canales oficiales.

Mรกs allรก de que los engaรฑos que utilizan deepfake sean cada vez mรกs realistas y difรญcil de detectar, desde ESET comparte buenas prรกcticas que permiten reducir el riesgo de ser vรญctima de este tipo de estafas:

  • Desconfiar de los anuncios llamativos, que ofrecen una ganancia demasiado buena para ser verdad. Y tambiรฉn de aquellos que involucran a personalidades de renombre mundial.
  • Prestar atenciรณn a la calidad del video: si se evidencian fallas a nivel visual, mala sincronizaciรณn o baja resoluciรณn, posiblemente se trate de un deepfake.
  • Utilizar unย software de seguridadย en todos los dispositivos, que contribuya al bloqueo de sitios falsos y mails con contenido malicioso.
  • Para las empresas, es importante que no se puedan autorizar pagos solamente por una llamada o videollamada. En este punto se puede incluir el uso de palabras clave o cรณdigos internos, como mรฉtodo extra de validaciรณn.
  • Ponderar la capacitaciรณn continua: estar entrenado para reconocer las seรฑales de alarma de deepfakes y fraudes es otro hรกbito clave.
  • Aprovechar las herramientas que existen actualmenteย para detectar deepfakesย y combatir la desinformaciรณn.
K

Artรญculos Relativos