La Duma Estatal se prepara para introducir enmiendas a los artículos del Código Penal de la Federación Rusa («Difamación», «Robo», «Fraude», «Extorsión», «Daños a la propiedad por engaño o abuso de confianza») relacionados con el uso de "deepfakes". Los ciberdelincuentes los han estado utilizando activamente durante más de un año, creando videos, grabaciones de voz e imágenes falsas de ciudadanos a través de redes neuronales y gracias a la IA. Los utilizan para la extorsión y otros delitos.
Según "Izvestia", cuya redacción ha examinado el proyecto de ley, se propone complementar una serie de artículos del Código Penal de la Federación Rusa con una característica agravante adicional. Se trata de la comisión de un delito utilizando la imagen o la voz (incluidas las falsificadas o creadas artificialmente) y los datos biométricos. Los declarados culpables de tales delitos se enfrentarán a multas de hasta 1,5 millones de rublos y hasta siete años de prisión.
El desarrollo de las tecnologías informáticas ha llevado a la expansión de las posibilidades de crear materiales de video y audio basados en muestras de imágenes y voz humanas, recreando artificialmente eventos inexistentes. Los modernos complejos de software y hardware, así como el uso de redes neuronales e inteligencia artificial (tecnologías "deepfake", "máscaras digitales", etc.) permiten crear falsificaciones que son prácticamente imposibles de distinguir de la realidad para un no especialista.
Actualmente, no existe una formulación precisa en la legislación rusa de lo que es un "deepfake". Tampoco existe responsabilidad en forma de multa o responsabilidad penal por su uso con fines delictivos, en la legislación rusa. Se propone eliminar esta laguna, como explicó el autor del proyecto de ley a "Izvestia".
Proponemos introducir una responsabilidad más seria en una serie de artículos penales por el uso de esta tecnología. El hecho de que se esté utilizando activamente ya se demostró en una reunión con el presidente a finales del año pasado en una línea directa. Hay muchos ejemplos de personas que se quedan sin nada debido a la falsificación de su voz. Por lo tanto, se propone prever las realidades modernas en el Código Penal.
Sin embargo, los propios rusos, que quieren crear "deepfakes" para diferentes fines, tanto para acciones ilegales como para bromas, ya están sufriendo el deseo de ocultar o reemplazar su voz para diferentes fines. Recientemente se descubrió que los atacantes comenzaron a enmascarar archivos maliciosos como aplicaciones basadas en redes neuronales para cambiar la voz. Tal aplicación falsa de IA para cambiar la voz de los rusos roba sus datos personales y da a los estafadores acceso a un teléfono inteligente u otro dispositivo.