En Rusia podrían introducir responsabilidad penal por los "deepfakes"

El castigo por el uso ilegal de la imagen, la voz y los datos biométricos de los ciudadanos podría ser de hasta siete años de prisión

Se están preparando en la Duma Estatal enmiendas a los artículos del Código Penal de la Federación Rusa («Difamación», «Robo», «Fraude», «Extorsión», «Daños a la propiedad por engaño o abuso de confianza») relacionados con el uso de "deepfakes". Los ciberdelincuentes los han estado utilizando activamente durante más de un año, creando videos falsos, grabaciones de voz e imágenes de ciudadanos a través de redes neuronales y gracias a la IA. Se utilizan para la extorsión y otros delitos.

Como señalan «Izvestia», cuya redacción se familiarizó con el proyecto de ley, se propone complementar una serie de artículos del Código Penal de la Federación Rusa con una característica calificativa adicional. Se trata de la comisión de un delito utilizando la imagen o la voz (incluidas las falsificadas o creadas artificialmente) y los datos biométricos. Los declarados culpables de tales delitos se enfrentarán a multas de hasta 1,5 millones de rublos y hasta siete años de prisión.

El desarrollo de las tecnologías informáticas ha llevado a la expansión de las capacidades para crear materiales de video y audio basados en muestras de imágenes y voz humanas, recreando artificialmente eventos inexistentes. Los modernos complejos de software y hardware, así como el uso de redes neuronales e inteligencia artificial (tecnologías "deepfake", "máscaras digitales", etc.) permiten crear falsificaciones que son prácticamente imposibles de distinguir de la realidad para un no especialista.
Nota explicativa del proyecto de ley sobre enmiendas al Código Penal de la Federación Rusa en relación con el uso ilegal de "deepfakes"

Actualmente, la legislación rusa no tiene una formulación precisa de lo que es un "deepfake". Tampoco existe responsabilidad en forma de multa o responsabilidad penal por su uso con fines delictivos en la legislación rusa. Se propone eliminar esta laguna, como explicó el autor del proyecto de ley a «Izvestia».

Proponemos introducir una responsabilidad más seria en una serie de artículos penales por el uso de esta tecnología. El hecho de que se esté utilizando activamente ya se demostró en una reunión con el presidente a finales del año pasado en la línea directa. Hay muchos ejemplos de personas que se quedan sin nada debido a la falsificación de su voz. Por lo tanto, se propone prever las realidades modernas en el Código Penal.
Yaroslav Nilov, autor del proyecto de ley, jefe del comité de la Duma Estatal sobre Trabajo, Política Social y Asuntos de Veteranos

Sin embargo, los propios rusos, que quieren crear "deepfakes" para diferentes fines, tanto para acciones ilegales como para bromas, ya están sufriendo el deseo de ocultar o reemplazar su voz para diferentes fines. Recientemente, se descubrió que los atacantes comenzaron a enmascarar archivos maliciosos como aplicaciones basadas en redes neuronales para cambiar la voz. Tal aplicación falsa de IA para cambiar la voz de los rusos roba sus datos personales y da a los estafadores acceso al teléfono inteligente u otro dispositivo.

Leer materiales sobre el tema:

Los estafadores de IA extorsionan dinero utilizando voces fabricadas de la dirección de la Universidad Estatal del Sur de los Urales

Hackeo de Telegram con la ayuda de la IA: cómo los estafadores en Rusia utilizan su voz y pasaporte. Las solicitudes de transferencia de dinero sonarán con su voz, y es probable que las crean

El Banco Central y el Ministerio del Interior quieren crear una plataforma antifraude para combatir a los estafadores. Y los operadores de comunicaciones temen perder dinero