Especialistas rusos del Instituto de Programación de Sistemas V. P. Ivannikov (ISP) de la Academia de Ciencias de Rusia han desarrollado herramientas que brindan protección contra el "envenenamiento" de datos utilizados para entrenar sistemas de IA. Esta innovación reducirá la probabilidad de fallas en el funcionamiento de tales soluciones y aumentará su protección contra los ciberataques.
Los ciberdelincuentes utilizan el método de "envenenamiento" de datos para impedir el funcionamiento normal de los sistemas con IA. Debido a esto, la red neuronal produce resultados incorrectos.
El director del Instituto de Programación de Sistemas, Arutyun Avetisyan, dijo que los especialistas del Centro de Investigación de Inteligencia Artificial Confiable del ISP de la Academia de Ciencias de Rusia, junto con empleados de la RANEPA, crearon un conjunto de datos de prueba SLAVA. Permitió verificar el algoritmo de análisis de valores.
Además, se crearon herramientas contra el "envenenamiento" de bases de datos, que permiten contrarrestar los ataques. Avetisyan explicó que se crearon versiones confiables de marcos básicos para trabajar con IA.
Sin duda, los errores de la IA y su uso malicioso son peligrosos. No se puede renunciar a la inteligencia artificial; esto solo conducirá al retraso. Es necesario construir sistemas de IA confiables, basándose en desarrollos científicos avanzados.
Recordemos que el "envenenamiento" de bases de datos, también conocido como data poisoning, es un tipo de ataque a los sistemas de aprendizaje automático, en el que un atacante agrega intencionalmente datos falsos o maliciosos a la muestra de entrenamiento. El objetivo principal de tal ataque es reducir la calidad del modelo, obligándolo a emitir predicciones incorrectas o tomar decisiones erróneas.
Lea más sobre el tema:
Los hackers en Rusia apuntan a ataques al Internet de las Cosas
En Rusia apareció una plataforma nacional para entrenar redes neuronales de segunda generación