El fenómeno del “data poisoning” (envenenamiento de datos) representa una amenaza significativa para los sistemas de Inteligencia Artificial (IA). Aunque este problema no es nuevo, ha cobrado renovada atención debido a la proliferación de Big Data y la evolución de las tecnologías de IA. El “data poisoning” consiste en manipular o inyectar información alterada en conjuntos de datos utilizados para entrenar modelos de Machine Learning (ML). Estos ataques pueden reducir drásticamente la fiabilidad de estos modelos e incluso permitir a los atacantes introducir puertas traseras, permitiéndoles manipular los modelos a su antojo.
Los sistemas de IA y ML, especialmente en el sector energético, son susceptibles al “data poisoning”. Por ejemplo, los atacantes pueden comprometer los ciclos de entrenamiento de vehículos autónomos, causando que interpreten mal las señales de tráfico. El peligro es aún mayor al considerar el posible envenenamiento de datos en aplicaciones de salud, lo que podría conducir a diagnósticos incorrectos y sobrecargar el sistema sanitario.
Para mitigar estos riesgos, es esencial comprender la naturaleza del “data poisoning” y sus consecuencias. Examinando conjuntos de datos con modelos de ML previamente empleados y comparándolos con modelos de producción actuales, las discrepancias pueden indicar posibles alteraciones de datos. Las políticas que limitan la cantidad de datos que un usuario puede proporcionar también son beneficiosas, ya que los atacantes suelen inyectar grandes cantidades de datos en los conjuntos de datos. Es crucial mejorar los controles de acceso y fortalecer las políticas de identificación tanto para clientes como servidores, incluyendo los servicios en la nube.
En 2021, Hyrum Anderson de Microsoft demostró cómo se podía extraer información de un modelo de ML sin ser detectado por sistemas de defensa. Esta presentación ofrece valiosas perspectivas sobre los riesgos potenciales que enfrentan las empresas y sugiere direcciones para prevenir el peligro.
Las técnicas defensivas deben incluir la reducción de la superficie de ataque con cortafuegos, la aplicación oportuna de parches de seguridad, la monitorización del tráfico de red y contar con un sólido plan de respuesta a incidentes. La seguridad física es igualmente importante, ya que el “data poisoning” puede ocurrir dentro de las instalaciones de la empresa. Limpiar los datos envenenados es un desafío y puede hacer que las actividades de formación en IA sean inútiles.
Source: Cybersecurity360
Para mitigar posibles amenazas, es importante implementar medidas adicionales de ciberseguridad con la ayuda de un socio de confianza como INFRA www.infrascan.net o puede intentarlo usted mismo utilizando check.website.