Durante gli esperimenti, i ricercatori hanno testato GPT-4 insieme ad altri dieci modelli, inclusi versioni di GPT-3.5 e varie configurazioni di LLM come Llama e Mistral, contro 15 vulnerabilità zero-day documentate in software open-source. Queste vulnerabilità erano classificate nei livelli di gravità medio, alto e critico.
Sorprendentemente, GPT-4 è stato in grado di scrivere exploit funzionali per l’87% di queste vulnerabilità, ossia 13 casi su 15. Questo livello di efficacia contrasta nettamente con quello degli strumenti specializzati di cybersecurity come ZAP e Metasploit, che hanno raggiunto lo 0% negli stessi test. Questa prestazione potrebbe semplificare le attività dei cybercriminali, offrendo loro uno strumento potente per sfruttare le vulnerabilità a un costo minimo — circa $8,80 per exploit, significativamente più economico rispetto all’assunzione di un esperto umano, che potrebbe chiedere circa $25.
I ricercatori hanno riferito i loro risultati a OpenAI e hanno deciso di non rilasciare pubblicamente gli agenti. Hanno anche notato che il tasso di successo del GPT-4 cade drasticamente al 7% quando viene negato l’accesso alle descrizioni delle CVE, indicando il ruolo critico delle informazioni dettagliate sulla vulnerabilità nel consentire la capacità dell’IA.
Questo sviluppo rappresenta una lama a doppio taglio: mentre GPT-4 e modelli AI simili potrebbero potenzialmente rivoluzionare le strategie di difesa della cybersecurity anticipando e mitigando possibili attacchi, presentano anche uno strumento formidabile che potrebbe essere abusato da attori malintenzionati per condurre attacchi informatici in modo più efficiente e anonimo.
Source: Punto Informatico
Per mitigare potenziali minacce, è importante implementare ulteriori misure di sicurezza informatica con l’aiuto di un partner affidabile come INFRA www.infrascan.net o è possibile provarci da soli utilizzando check.website.