Durante sus experimentos, los investigadores probaron GPT-4 junto con otros diez modelos, incluyendo versiones de GPT-3.5 y varias configuraciones de modelos de lenguaje grandes como Llama y Mistral, contra 15 vulnerabilidades de día cero documentadas en software de código abierto. Estas vulnerabilidades fueron categorizadas en niveles de gravedad media, alta y crítica.
De manera notable, GPT-4 fue capaz de escribir exploits funcionales para el 87% de estas vulnerabilidades, lo que equivale a 13 de 15 casos. Este nivel de eficacia contrasta marcadamente con el de herramientas especializadas en ciberseguridad como ZAP y Metasploit, que lograron un 0% en las mismas pruebas. Este rendimiento podría facilitar las actividades de los cibercriminales, ofreciéndoles una herramienta poderosa para explotar vulnerabilidades a un costo mínimo —aproximadamente $8.80 por exploit, significativamente más barato que contratar a un experto humano, que podría cobrar alrededor de $25.
Los investigadores han informado sus hallazgos a OpenAI y han decidido no publicar los agentes públicamente. También señalaron que la tasa de éxito de GPT-4 cae drásticamente al 7% cuando se le niega el acceso a las descripciones de CVE, indicando el papel crítico de la información detallada sobre vulnerabilidades en la habilitación de la capacidad de la IA.
Este desarrollo plantea una espada de doble filo: mientras que GPT-4 y modelos de IA similares podrían potencialmente revolucionar las estrategias de defensa en ciberseguridad anticipando y mitigando posibles ataques, también presentan una herramienta formidable que podría ser mal utilizada por actores maliciosos para llevar a cabo ciberataques de manera más eficiente y anónima.
Source: Punto Informatico
Para mitigar posibles amenazas, es importante implementar medidas adicionales de ciberseguridad con la ayuda de un socio de confianza como INFRA www.infrascan.net o puede intentarlo usted mismo utilizando check.website.