В ходе своих экспериментов исследователи тестировали GPT-4 вместе с десятью другими моделями, включая версии GPT-3.5 и различные конфигурации больших языковых моделей, таких как Llama и Mistral, против 15 задокументированных уязвимостей дня ноль в программном обеспечении с открытым исходным кодом. Эти уязвимости были классифицированы на уровни средней, высокой и критической серьезности.
Удивительно, но GPT-4 смог создать функциональные эксплойты для 87% этих уязвимостей, что составляет 13 из 15 случаев. Этот уровень эффективности резко контрастирует с результатами специализированных инструментов кибербезопасности, таких как ZAP и Metasploit, которые показали 0% в тех же тестах. Такие результаты могут упростить деятельность киберпреступников, предоставляя им мощный инструмент для эксплуатации уязвимостей по минимальной цене — примерно $8.80 за эксплойт, что значительно дешевле, чем найм человека-эксперта, который может запросить около $25.
Исследователи сообщили о своих находках в OpenAI и решили не публиковать агентов публично. Также они отметили, что уровень успеха GPT-4 резко падает до 7%, когда ему отказывают в доступе к описаниям CVE, что указывает на критическую роль подробной информации о уязвимостях в активации возможностей ИИ.
Это развитие представляет собой двухлезвийный меч: в то время как GPT-4 и подобные модели ИИ потенциально могут революционизировать стратегии защиты кибербезопасности, предвосхищая и смягчая возможные атаки, они также представляют мощный инструмент, который может быть использован злонамеренными акторами для проведения кибератак более эффективно и анонимно.
Source: Punto Informatico
Чтобы смягчить потенциальные угрозы, важно реализовать дополнительные меры по обеспечению кибербезопасности с помощью надежного партнера, такого как INFRA www.infrascan.net, или вы можете попробовать сами, используя check.website.