Pliny, который описывает себя как хакера в белой шляпе и “AI red teamer”, поделился скриншотами джейлбрейка, демонстрируя его способность обходить защитные меры ИИ. Пользователи могли давать ИИ команды, написанные на leetspeak, обходя фильтры, установленные OpenAI. Этот инцидент подчеркивает текущие усилия в области “AI red teaming”, где хакеры тестируют системы ИИ для выявления уязвимостей и слабых мест. В то время как некоторые группы red teaming стремятся улучшить безопасность, другие сосредоточены на “освобождении” ИИ, удаляя его ограничения.
Выпуск GODMODE GPT происходит в то время, когда OpenAI лидирует на рынке исследований ИИ, с значительными инвестициями и партнерствами, включая сотрудничество с Microsoft на сумму 100 миллиардов долларов для создания суперкомпьютера ИИ. Этот инцидент подчеркивает вызовы в поддержании безопасности ИИ и важность постоянного бдительного надзора в развитии ИИ. Несмотря на быстрое удаление джейлбрейка, событие вызвало обсуждения о балансе между инновациями и безопасностью в ИИ.
Сообщество ИИ активно участвует в поиске и устранении таких уязвимостей, чтобы предотвратить их неправомерное использование. OpenAI не комментировала конкретные методы, использованные в джейлбрейке, но инцидент служит напоминанием о постоянных рисках, связанных с технологиями ИИ, и необходимости внедрения надежных мер безопасности для защиты от эксплуатации.
Source: Tom’s Hardware
Чтобы смягчить потенциальные угрозы, важно реализовать дополнительные меры по обеспечению кибербезопасности с помощью надежного партнера, такого как INFRA www.infrascan.net, или вы можете попробовать сами, используя check.website.