Se están preparando en la Duma Estatal enmiendas a los artículos del Código Penal de la Federación Rusa («Difamación», «Robo», «Fraude», «Extorsión», «Daños a la propiedad por engaño o abuso de confianza») relacionados con el uso de "deepfakes". Los ciberdelincuentes los han estado utilizando activamente durante más de un año, creando videos falsos, grabaciones de voz e imágenes de ciudadanos a través de redes neuronales y gracias a la IA. Se utilizan para la extorsión y otros delitos.
Como señalan «Izvestia», cuya redacción se familiarizó con el proyecto de ley, se propone complementar una serie de artículos del Código Penal de la Federación Rusa con una característica calificativa adicional. Se trata de la comisión de un delito utilizando la imagen o la voz (incluidas las falsificadas o creadas artificialmente) y los datos biométricos. Los declarados culpables de tales delitos se enfrentarán a multas de hasta 1,5 millones de rublos y hasta siete años de prisión.
El desarrollo de las tecnologías informáticas ha llevado a la expansión de las capacidades para crear materiales de video y audio basados en muestras de imágenes y voz humanas, recreando artificialmente eventos inexistentes. Los modernos complejos de software y hardware, así como el uso de redes neuronales e inteligencia artificial (tecnologías "deepfake", "máscaras digitales", etc.) permiten crear falsificaciones que son prácticamente imposibles de distinguir de la realidad para un no especialista.
Actualmente, la legislación rusa no tiene una formulación precisa de lo que es un "deepfake". Tampoco existe responsabilidad en forma de multa o responsabilidad penal por su uso con fines delictivos en la legislación rusa. Se propone eliminar esta laguna, como explicó el autor del proyecto de ley a «Izvestia».
Proponemos introducir una responsabilidad más seria en una serie de artículos penales por el uso de esta tecnología. El hecho de que se esté utilizando activamente ya se demostró en una reunión con el presidente a finales del año pasado en la línea directa. Hay muchos ejemplos de personas que se quedan sin nada debido a la falsificación de su voz. Por lo tanto, se propone prever las realidades modernas en el Código Penal.
Sin embargo, los propios rusos, que quieren crear "deepfakes" para diferentes fines, tanto para acciones ilegales como para bromas, ya están sufriendo el deseo de ocultar o reemplazar su voz para diferentes fines. Recientemente, se descubrió que los atacantes comenzaron a enmascarar archivos maliciosos como aplicaciones basadas en redes neuronales para cambiar la voz. Tal aplicación falsa de IA para cambiar la voz de los rusos roba sus datos personales y da a los estafadores acceso al teléfono inteligente u otro dispositivo.