En MTS AI informaron que más de 10 millones de rusos corren el riesgo de revelar sus datos confidenciales debido al uso de redes neuronales extranjeras falsas, como ChatGPT, Dall-E, Midjourney y otros modelos de lenguaje grandes (LLM). Los usuarios que acceden a estos servicios a través de plataformas de terceros pueden recibir no solo modelos de baja calidad, sino también exponerse a la amenaza de fuga de datos personales.
La razón de esto es que, dadas las restricciones para los rusos relacionadas con el acceso a los servicios internacionales y las dificultades con el pago, los estafadores crean chatbots y sitios web falsos que prometen un acceso simplificado a las redes neuronales populares. En lugar de un modelo completo, los usuarios pueden recibir solo una versión mínima del producto, cuya calidad es significativamente menor.
Al interactuar con la inteligencia artificial, es extremadamente importante la alfabetización digital y el cumplimiento de los principios de seguridad. En particular, es importante no proporcionar datos personales o secretos comerciales a servicios de terceros, utilizar solo soluciones aprobadas por la empresa para trabajar con información corporativa y verificar la información recibida de las redes neuronales a través de fuentes independientes, ya que los modelos generativos pueden operar con datos obsoletos.
Leer materiales sobre el tema:
Фейковое ИИ-приложение для смены голоса у россиян крадет их личные данные
Страх россиян перед судами помогает хакерам – как работает новая схема мошенничества