Durant els seus experiments, els investigadors van provar el GPT-4 juntament amb deu altres models, incloent versions de GPT-3.5 i diverses configuracions de models de llenguatge grans com Llama i Mistral, contra 15 vulnerabilitats de dia zero documentades en programari de codi obert. Aquestes vulnerabilitats van ser classificades en nivells de severitat mitjana, alta i crítica.
De manera remarcable, el GPT-4 va ser capaç de redactar exploits funcionals per al 87% d’aquestes vulnerabilitats, el que equival a 13 de 15 casos. Aquest nivell d’eficàcia contrasta marcadament amb el de les eines especialitzades en ciberseguretat com ZAP i Metasploit, que van aconseguir un 0% en les mateixes proves. Aquest rendiment podria facilitar les activitats dels cibercriminals, oferint-los una eina potent per explotar vulnerabilitats a un cost mínim —aproximadament 8,80 dòlars per exploit, significativament més barat que contractar un expert humà, que podria cobrar al voltant de 25 dòlars.
Els investigadors han informat els seus descobriments a OpenAI i han decidit no publicar els agents públicament. També van assenyalar que la taxa d’èxit del GPT-4 cau dramàticament al 7% quan se li nega l’accés a les descripcions de CVE, indicant el paper crític de la informació detallada sobre vulnerabilitats en l’habilitació de la capacitat de la IA.
Aquest desenvolupament planteja una espasa de doble tall: mentre que el GPT-4 i models d’IA similars podrien potencialment revolucionar les estratègies de defensa en ciberseguretat anticipant i mitigant possibles atacs, també presenten una eina formidable que podria ser mal utilitzada per actors maliciosos per dur a terme ciberatacs de manera més eficient i anònima.
Source: Punto Informatico
Per mitigar amenaces potencials, és important implementar mesures addicionals de ciberseguretat amb l’ajuda d’un soci de confiança com INFRA www.infrascan.net o bé pots provar-ho tu mateix utilitzant check.website.