Roban sus voces: estafadores llaman a rusos haciéndose pasar por encuestas de opinión para crear "deepfakes"

Los estafadores pueden hacerse pasar por empleados de varias organizaciones de investigación y centros de estudios sociológicos

Delincuentes llaman a rusos haciéndose pasar por representantes de organizaciones de investigación y centros sociológicos. Su objetivo es grabar la voz de la persona para crear "deepfakes". Así lo informó la subdirectora de productos de VisionLabs, Tatiana Deshkina.

Los estafadores pueden hacerse pasar por empleados de varias organizaciones de investigación y centros de estudios sociológicos para grabar la voz de una persona y, en el futuro, clonarla para crear un "deepfake". La principal tarea de los delincuentes es mantener al usuario en la línea el mayor tiempo posible.
Tatiana Deshkina, subdirectora de productos de VisionLabs

La experta explicó que para crear un clon de voz se necesita una grabación de unos 20 segundos en la que el hablante exprese diferentes emociones y no haya ruido extraño. Cuanto más larga sea la grabación, más precisa será la falsificación.

Los delincuentes se esfuerzan por dar naturalidad a las grabaciones para engañar a los detectores. Para ello, añaden efectos de mala conexión y ruidos de fondo. Por ejemplo, sonidos de coches que pasan o conversaciones ajenas.

Los desarrolladores tienen en cuenta todos estos factores al desarrollar detectores de "deepfakes" y actualizan constantemente estos sistemas para que puedan reconocer nuevos tipos de "deepfakes".
Tatiana Deshkina, subdirectora de productos de VisionLabs

Los métodos más arriesgados son los complejos, que combinan voz e imagen o grabación de vídeo falsas. Por ejemplo, los delincuentes pueden crear una cuenta falsa en un mensajero o red social y, a continuación, enviar mensajes de vídeo y voz falsos. Esto puede confundir incluso a quienes conocen bien la tecnología. Sin embargo, según la experta, estos métodos aún son difíciles de implementar técnicamente.

Deshkina añadió que las instituciones financieras y los servicios estatales utilizan la autenticación multifactor y los detectores de "deepfakes" para proteger a los usuarios. En el futuro, los teléfonos móviles, las redes sociales y los mensajeros implementarán sistemas de reconocimiento de contenido creado por redes neuronales.

Para protegerse, utilice el identificador de llamadas. Los expertos aconsejan no revelar información confidencial ni datos personales, independientemente de quién llame. Lo más probable es que estos datos no sean necesarios.

En la Duma Estatal planean introducir cambios en los artículos del Código Penal relativos a la difamación, el robo, el fraude, la extorsión y los daños materiales mediante engaño. Estas enmiendas están dirigidas a combatir los "deepfakes", que se han convertido en una poderosa herramienta en manos de los ciberdelincuentes. Con la ayuda de redes neuronales e inteligencia artificial, los delincuentes crean vídeos, grabaciones de audio e imágenes falsas de personas, utilizándolas para la extorsión y otras actividades ilegales.

Leer materiales sobre el tema:

Estafadores de IA extorsionan dinero utilizando voces fabricadas de la dirección de SUSU

Hackeo de Telegram con IA: cómo los estafadores en Rusia utilizan su voz y pasaporte. Las solicitudes de transferencia de dinero sonarán con su voz, y lo más probable es que las crean

Palabra clave para protegerse de los "deepfakes": la Duma Estatal instó a los rusos a establecer una contraseña familiar

Sistema MTS AI: lucha contra los "deepfakes" con una precisión del 97,5%

No con su propia voz: el Banco Central advirtió a los rusos que los estafadores han aprendido a utilizar "deepfakes"

Ahora en la página principal