Il fenomeno del “data poisoning” rappresenta una minaccia significativa per i sistemi di Intelligenza Artificiale (AI). Questo problema, sebbene non sia nuovo, ha guadagnato rinnovata attenzione a causa della proliferazione del Big Data e dell’evoluzione delle tecnologie AI. Il “data poisoning” consiste nel manipolare o iniettare informazioni alterate nei dataset utilizzati per addestrare i modelli di Machine Learning (ML). Questi attacchi possono ridurre drasticamente l’affidabilità di questi modelli o addirittura permettere agli aggressori di introdurre backdoor, consentendo loro di manipolare i modelli a piacimento.
I sistemi AI e ML, in particolare nel settore energetico, sono suscettibili al “data poisoning”. Ad esempio, gli aggressori possono compromettere i cicli di formazione dei veicoli autonomi, inducendoli a fraintendere i segnali stradali. Il pericolo diventa ancora più tangibile quando si considera la possibile manipolazione dei dati nelle applicazioni sanitarie, che potrebbe portare a diagnosi errate e mettere sotto pressione il sistema sanitario.
Per mitigare questi rischi, è essenziale comprendere la natura del “data poisoning” e le sue conseguenze. Esaminando i dataset utilizzando modelli di ML precedentemente impiegati e confrontandoli con modelli di produzione attuali, le discrepanze possono indicare possibili alterazioni dei dati. Politiche che limitano la quantità di dati che un singolo utente può fornire possono anche risultare utili, poiché gli aggressori spesso iniettano grandi quantità di dati nei dataset. Migliorare i controlli di accesso e rafforzare le politiche di identificazione sia per i clienti che per i server, inclusi i servizi cloud, è fondamentale.
Nel 2021, Hyrum Anderson di Microsoft ha dimostrato come si potesse estrarre informazioni da un modello di ML senza essere rilevati dai sistemi di difesa. Questa presentazione fornisce preziose informazioni sui potenziali rischi che le aziende devono affrontare e suggerisce direzioni per scongiurare il pericolo.
Le tecniche difensive dovrebbero includere la riduzione della superficie di attacco con firewall, l’applicazione tempestiva di patch di sicurezza, il monitoraggio del traffico di rete e la presenza di un solido piano di risposta agli incidenti. La sicurezza fisica è altrettanto importante, poiché il “data poisoning” può verificarsi all’interno delle sedi aziendali. Pulire i dati “avvelenati” è una sfida e può rendere vani gli sforzi di addestramento dell’AI.
Source: Cybersecurity360
Per mitigare potenziali minacce, è importante implementare ulteriori misure di sicurezza informatica con l’aiuto di un partner affidabile come INFRA www.infrascan.net o è possibile provarci da soli utilizzando check.website.