Las redes neuronales mienten de manera convincente: un estudio de la Universidad Politécnica de Perm reveló un patrón peligroso

En medicina y vehículos autónomos, un error de la IA puede costar la vida a una persona, según descubrieron los científicos

Los algoritmos eligen no la opción confiable, sino la que es más probable y ocurre con mayor frecuencia, según descubrieron científicos de la Universidad Politécnica de Perm (PNIPU). Esto puede tener consecuencias fatales, especialmente en áreas críticas, desde la medicina hasta el transporte no tripulado.

Los investigadores explicaron que los modelos de lenguaje son sistemas matemáticos que analizan la frecuencia de los eventos. No son capaces de pensar críticamente y sus decisiones siguen siendo una "caja negra" con cientos de millones de parámetros.

Por ahora, el proceso de toma de decisiones en las redes neuronales profundas sigue siendo una "caja negra" con cientos de millones de parámetros. Es imposible determinar con precisión por qué el modelo tomó una decisión en particular, lo que significa que es imposible corregir el error de manera garantizada.
PNIPU

Los científicos están seguros de que el problema de los sesgos cognitivos de la IA no es de ingeniería, sino antropológico. No solo los desarrolladores deben resolverlo, sino también los filósofos, sociólogos, psicólogos y abogados. Es importante no eliminar los sesgos por completo, sino aprender a detectarlos, medirlos y limitarlos.

La transparencia también es clave. Los sistemas deben diseñarse de manera que sus decisiones puedan verificarse, incluso si el proceso en sí sigue siendo opaco. Esto requiere auditoría, validación con contraejemplos y control humano. No menos importante es capacitar a los usuarios: mientras las personas confíen ciegamente en las redes neuronales, cualquier solución técnica no tendrá sentido.

Lea más materiales sobre el tema: