Eficacia del 98%: Sber aprende a detectar "deepfakes" con ayuda de la IA

El banco ha patentado una nueva tecnología con el nombre provisional de "Aleteia"

Los "deepfakes" se han convertido en una seria amenaza. La tecnología se utiliza cada vez más en esquemas fraudulentos tanto en Rusia como en el extranjero. Los delincuentes utilizan "deepfakes" para la ingeniería social. Las voces o los vídeos falsificados ayudan a los estafadores a ganarse la confianza para, en última instancia, robar dinero. Así lo declaró el vicepresidente del consejo de administración de Sber, Stanislav Kuznetsov, en el SPIEF.

Además, en breve las tecnologías de IA borrarán las fronteras lingüísticas para los delincuentes. Un estafador hablará o escribirá en un idioma, y su víctima oirá y leerá en línea otro idioma, el suyo propio. En combinación con los "deepfakes", es un arma cibernética muy poderosa para los estafadores.
Stanislav Kuznetsov, vicepresidente del consejo de administración de Sber

Un "deepfake" en un esquema fraudulento funciona igual que en cualquier otro: engaña a las personas, pero no a los sistemas antifraude. Como señaló Kuznetsov, aunque en Sber las operaciones que utilizan "deepfakes" se detectan y bloquean con éxito en tiempo real, no todas las personas y organizaciones pueden reconocer una falsificación y protegerse del engaño.

Sber ha patentado una tecnología basada en la IA que permite detectar "deepfakes" de forma eficaz. Por ahora, el nombre interno provisional del servicio es "Aleteia", y su eficacia actual alcanza el 98%. Tenemos previsto abrir el acceso público al mismo.
Stanislav Kuznetsov, vicepresidente del consejo de administración de Sber

Según sus palabras, es importante que las tecnologías de protección contra los "deepfakes" se incorporen inicialmente a todos los productos y servicios digitales en los que puedan utilizarse. Esto es especialmente relevante para los medios de comunicación, las redes sociales, las empresas de telecomunicaciones y otras plataformas que distribuyen vídeo y audio en Internet.

También es necesario establecer la responsabilidad por el uso de "deepfakes" con fines delictivos. Las personas deben estar protegidas de los "deepfakes", y la tarea de las empresas y el Estado es garantizar esta protección.

Las llamadas "deepfake" se han convertido en una herramienta peligrosa para los estafadores. En 2024, según VisionLabs, se registraron decenas de miles de ataques de este tipo. En 2025, su número podría multiplicarse.

Leer materiales sobre el tema:

El arma principal es el pensamiento crítico: cómo reconocer una falsificación y no permitir que los estafadores utilicen su imagen para engañar a otros

Voz robotizada y peticiones extrañas: cómo reconocer un "deepfake" y salvar su dinero

En Rusia se podría introducir la responsabilidad penal por los "deepfakes"

Sistema MTS AI: lucha contra los "deepfakes" con una precisión del 97,5%