El arma principal es el pensamiento crítico: cómo reconocer un "fake" y evitar que los estafadores utilicen tu imagen para engañar a otros

Los estafadores utilizan la IA para crear voces y rostros falsos con el fin de engañar a la gente y obtener su dinero

Las tecnologías modernas se están convirtiendo cada vez más en una herramienta para los estafadores. Con la ayuda de la inteligencia artificial, los estafadores falsifican voces y rostros para engañar a la gente y sonsacarles dinero. Te contamos cómo distinguir los "deepfakes" y evitar que los estafadores utilicen tu imagen para engañar.

«¡Papá, ayuda!»

«¡Papá, he tenido un accidente, ayuda!» — después de estas palabras se cortó la comunicación. Aunque el número de teléfono en la pantalla no se identificó, el moscovita de 84 años no dudó de que había oído la voz de su hija. No había tenido tiempo de recuperarse cuando sonó una nueva llamada.

Un desconocido se presentó como testigo del accidente y comunicó que la hija del pensionista era la culpable del accidente, en el que había gente herida. Por ello, se enfrenta a una pena de diez años. Se negó a pasarle el teléfono, alegando que la culpable del accidente ya estaba inconsciente. Exigió actuar con rapidez: si se indemnizaban los daños antes de levantar el acta, se podía evitar la cárcel.

El pensionista contó que tenía guardado en casa casi un millón y medio de rublos. «Será suficiente», respondió la voz al teléfono. Al poco tiempo, apareció en el apartamento del pensionista un «ayudante del investigador», a quien el dueño entregó un paquete con dinero.

Unas horas más tarde, el pensionista llamó a su hija y ella le contó que no había tenido ningún accidente. Sólo entonces el hombre se dio cuenta de que había sido víctima de un fraude.

Como se supo por un comunicado de la fiscalía de Moscú, los delincuentes utilizaron una nueva tecnología: el "deepfake", es decir, la falsificación de la voz o la imagen mediante redes neuronales. Este método les permite engañar no sólo a las personas mayores, sino también a otras personas.

Llamada de la jefatura

Otro esquema popular de fraude que utiliza "deepfake" son las llamadas en nombre de la dirección. Así, Anatoli Kozlachkov, presidente de la Asociación de Bancos de Rusia, contó que su voz, generada por ordenador, «asustó a un banco muy importante». Y algunos altos directivos recibieron llamadas en su nombre pidiéndoles que les prestaran dinero.

Participantes del mercado de TI informaron de casos similares: en algunas empresas, los falsos directivos intentaron obtener dinero de los empleados de a pie.

No sólo en Rusia, sino también en el extranjero, se encuentran con famosos que son víctimas de estafadores. Recientemente se supo que los delincuentes intentaron acceder a los fondos de conocidos empresarios italianos, entre ellos el diseñador Giorgio Armani y el presidente de Prada, Patrizio Bertelli.

¿Cómo reconocer un "deepfake"?

Antes era fácil distinguir una falsificación, pero con el desarrollo de las redes neuronales se ha vuelto muy difícil. Sin embargo, incluso los programas modernos no son perfectos. En algunos casos, el engaño se puede ver a simple vista.

Uno de los principales signos de los "deepfakes" de baja calidad y creados rápidamente es la falta de sincronización entre el habla y los movimientos de los labios. Además, el origen artificial del vídeo puede estar indicado por movimientos antinaturales de las pupilas y parpadeo, explicó el equipo de especialistas del departamento de verificación de la agencia de vídeo Ruptly.

Además, los "deepfakes" pueden tener otras anomalías: deformación de la anatomía facial (separación de las cejas, ubicación de la nariz), de las manos (aparición de un sexto dedo o ausencia de uno de los cinco), así como cambios en las marcas de nacimiento o un aspecto antinatural de la vegetación en la cara.

Ekaterina Kornyushina, fundadora del proyecto para la detección de contenido "deepfake" www.aIDeepFake.ru, recomienda prestar atención a los siguientes puntos: si la luz se refleja correctamente en los objetos circundantes, si el color de la piel es natural.

Si una persona gira bruscamente la cabeza, se cubre parte de la cara con la mano o acaba de aparecer en el encuadre, la máscara "deepfake" suele desaparecer por un instante o se difumina. A veces, los elementos de la máscara caen sobre otros objetos, y esto se nota inmediatamente.
Filipp Shcherbanich, experto en TI

El especialista propone el siguiente consejo: si sospechas que tu interlocutor no es real, pídele que se cambie a otro dispositivo. Es posible que no tenga instalado un software especial.

Existen programas que ayudan a detectar los "deepfakes". Entre ellos se encuentran McAfee Deepfake Detector, Sensity AI y Deepware para vídeo. Estos sistemas están entrenados en amplias bases de datos con "deepfakes" y pueden determinar si una imagen o un vídeo es una falsificación. Sin embargo, no pueden garantizar una precisión del cien por cien.

La principal protección es el pensamiento crítico

Sin embargo, la principal herramienta sigue siendo el pensamiento crítico. En el proceso de comunicación en línea, no hay que tomar decisiones precipitadas. Los estafadores a menudo intentan crear una situación de estrés y apresurarte para que no tengas tiempo de notar la falsificación. Si sientes presión por parte de tu interlocutor, haz una pausa y no te apresures a sacar conclusiones. Siempre intenta volver a llamar tú mismo a través de otro canal de comunicación para asegurarte de que tu interlocutor realmente existe, aconseja Shcherbanich.

Las personas cuyas imágenes se utilizaron para crear "deepfakes" también pueden verse afectadas. Para que un "deepfake" parezca convincente, los delincuentes necesitan tener mucho material de origen. Por eso, los "deepfakes" con la participación de actores y otras figuras públicas resultan tan creíbles.

Para evitar una posible falsificación de la voz y el rostro, los especialistas recomiendan no subir fotos y vídeos a las redes sociales o, al menos, limitar el acceso a ellos.

Así, en la era de la inteligencia artificial, el cumplimiento de la higiene digital entra en contradicción con la esencia misma de las redes sociales, creadas para compartir fotos y vídeos con los demás. Es posible que los usuarios tengan que revisar sus modelos de comportamiento habituales en Internet, que se han convertido en una parte integral de sus vidas.

El uso de llamadas falsas se ha convertido en uno de los métodos de fraude más peligrosos. Según estimaciones de VisionLabs, en 2024 se registraron decenas de miles de ataques de este tipo. Se espera que en 2025 su número se multiplique por diez.

Leer materiales sobre el tema:

Estafadores de IA extorsionan dinero utilizando voces fabricadas de la dirección de la Universidad Estatal del Sur de los Urales

Sber y el Ministerio del Interior comenzarán una lucha conjunta contra los deepfakes

Engaño de nuevo nivel: los deepfakes se utilizan para el engaño en los sitios de citas

No con su propia voz: el Banco Central advirtió a los rusos que los estafadores han aprendido a usar deepfakes

Estafadores, utilizando un deepfake de Larisa Dolina, obtuvieron un préstamo de 50 millones de rublos

Ahora en la página principal