Los estafadores falsifican cada vez más voces y vídeos con ayuda de la IA

Las víctimas transfieren dinero pensando que es una petición de familiares o empleados del banco

Los estafadores han empezado a utilizar redes neuronales para crear contenido textual, visual y audiovisual con el fin de convencer a las víctimas, haciéndose pasar por personas cercanas o de confianza, para que transfieran dinero o revelen datos personales. Así lo informó la representante oficial del Ministerio del Interior de la Federación Rusa, Irina Volk.

Según ella, los modelos generativos permiten crear contenido verosímil que las víctimas perciben como auténtico. Los delincuentes pueden imitar a familiares, empleados de bancos, representantes de organismos estatales o figuras públicas.

Volk citó un ejemplo: un desconocido accedió a la cuenta de otra persona en un mensajero extranjero y, con la ayuda de una red neuronal, generó un mensaje de audio con la voz del propietario de la cuenta. El destinatario, creyendo que la petición provenía de su hermana, transfirió 35.000 rublos a través del sistema de pagos rápidos. El dinero acabó en manos de los estafadores.

Lea más artículos sobre el tema: