En Rusia, los "deepfakes" podrían acarrear responsabilidad penal

El castigo por el uso ilegal de la imagen, la voz y los datos biométricos de los ciudadanos podría ser de hasta siete años de prisión

La Duma Estatal se prepara para introducir enmiendas a los artículos del Código Penal de la Federación Rusa («Difamación», «Robo», «Fraude», «Extorsión», «Daños a la propiedad por engaño o abuso de confianza») relacionados con el uso de "deepfakes". Los ciberdelincuentes los han estado utilizando activamente durante más de un año, creando videos, grabaciones de voz e imágenes falsas de ciudadanos a través de redes neuronales y gracias a la IA. Los utilizan para la extorsión y otros delitos.

Según "Izvestia", cuya redacción ha examinado el proyecto de ley, se propone complementar una serie de artículos del Código Penal de la Federación Rusa con una característica agravante adicional. Se trata de la comisión de un delito utilizando la imagen o la voz (incluidas las falsificadas o creadas artificialmente) y los datos biométricos. Los declarados culpables de tales delitos se enfrentarán a multas de hasta 1,5 millones de rublos y hasta siete años de prisión.

El desarrollo de las tecnologías informáticas ha llevado a la expansión de las posibilidades de crear materiales de video y audio basados en muestras de imágenes y voz humanas, recreando artificialmente eventos inexistentes. Los modernos complejos de software y hardware, así como el uso de redes neuronales e inteligencia artificial (tecnologías "deepfake", "máscaras digitales", etc.) permiten crear falsificaciones que son prácticamente imposibles de distinguir de la realidad para un no especialista.
Nota explicativa del proyecto de ley sobre enmiendas al Código Penal de la Federación Rusa en relación con el uso ilegal de "deepfakes"

Actualmente, no existe una formulación precisa en la legislación rusa de lo que es un "deepfake". Tampoco existe responsabilidad en forma de multa o responsabilidad penal por su uso con fines delictivos, en la legislación rusa. Se propone eliminar esta laguna, como explicó el autor del proyecto de ley a "Izvestia".

Proponemos introducir una responsabilidad más seria en una serie de artículos penales por el uso de esta tecnología. El hecho de que se esté utilizando activamente ya se demostró en una reunión con el presidente a finales del año pasado en una línea directa. Hay muchos ejemplos de personas que se quedan sin nada debido a la falsificación de su voz. Por lo tanto, se propone prever las realidades modernas en el Código Penal.
Yaroslav Nilov, autor del proyecto de ley, jefe del comité de la Duma Estatal sobre Trabajo, Política Social y Asuntos de Veteranos

Sin embargo, los propios rusos, que quieren crear "deepfakes" para diferentes fines, tanto para acciones ilegales como para bromas, ya están sufriendo el deseo de ocultar o reemplazar su voz para diferentes fines. Recientemente se descubrió que los atacantes comenzaron a enmascarar archivos maliciosos como aplicaciones basadas en redes neuronales para cambiar la voz. Tal aplicación falsa de IA para cambiar la voz de los rusos roba sus datos personales y da a los estafadores acceso a un teléfono inteligente u otro dispositivo.

Leer materiales sobre el tema:

Los estafadores de IA extorsionan dinero utilizando voces fabricadas de la dirección de la Universidad Estatal del Sur de los Urales

Hackeo de Telegram con la ayuda de la IA: cómo los estafadores en Rusia utilizan su voz y su pasaporte. Las solicitudes de transferencia de dinero sonarán con su voz, y es probable que las crean

El Banco Central y el Ministerio del Interior quieren crear una plataforma antifraude para luchar contra los estafadores. Y los operadores de telecomunicaciones temen perder dinero

Ahora en la página principal