ChatGPT, un modello di linguaggio ampiamente popolare, ha sollevato preoccupazioni nella comunità della cybersecurity a causa del suo potenziale per sfruttare le vulnerabilità di sistema. Gli esperti di sicurezza hanno dimostrato che ChatGPT e altri modelli di linguaggio di grandi dimensioni (LLM) possono generare codice polimorfico, che muta per eludere i sistemi di rilevamento e risposta agli endpoint (EDR). Gli attacchi di prova concettuale hanno mostrato come file eseguibili dall’aspetto benigno possano effettuare chiamate API a ChatGPT, inducendo la generazione di versioni dinamiche e mutate di codice maligno difficili da rilevare.
L’ingegneria degli input, la pratica di modificare le richieste di input per eludere i filtri dei contenuti, svolge un ruolo cruciale in queste operazioni. Frammentando le richieste come ipotesi o richieste di codice con funzionalità specifiche, gli utenti possono ingannare ChatGPT per generare codice maligno efficace. Queste tecniche consentono la creazione di malware polimorfici che eludono i sistemi di scansione delle minacce ed esfiltrano dati. Diversi programmi di prova concettuale, come BlackMamba e ChattyCaty, hanno dimostrato le capacità di ChatGPT nello sviluppo di malware avanzato e polimorfico.
La regolamentazione dell’IA generativa presenta sfide, poiché l’industria sta ancora cercando di comprendere il potenziale della tecnologia. Gli esperti suggeriscono di incorporare una maggiore spiegabilità, osservabilità e contestualizzazione nei sistemi di intelligenza artificiale per aggiungere strati significativi di controllo. Tuttavia, la difficoltà sta nel determinare come regolamentare e rendere responsabile l’uso dell’IA generativa, poiché offre infinite possibilità e copre circostanze diverse.
Source: www.csoonline.com
Per mitigare potenziali minacce, è importante implementare ulteriori misure di sicurezza informatica con l’aiuto di un partner affidabile come INFRA www.infrascan.net o è possibile provarci da soli utilizzando check.website.