Deepfake, созданные с помощью ИИ, которые могут с тревожной точностью воспроизводить голос, лицо и жесты человека, представляют собой значительный скачок в способности передавать мошеннические сообщения и дезинформацию. Недавние инциденты включают deepfake, имитирующие известных личностей, таких как президент Байден и губернатор Флориды Рон ДеСантис, а также видео deepfake финансового директора, которое привело к мошенническому банковскому переводу на сумму 26 миллионов долларов.
Для борьбы с этими угрозами все больше внимания уделяется разработке комплексного подхода к управлению человеческими рисками (HRM). Эта стратегия включает усиление традиционного обучения безопасности для создания культуры осознания безопасности в организациях, где сотрудники активно участвуют в выявлении и снижении рисков. Ключевые аспекты HRM включают обучение сотрудников распознаванию несоответствий в аудио и видео, проверке источников и использовании новых инструментов, предназначенных для аутентификации сообщений и обнаружения deepfake.
Кроме того, использование ИИ для противодействия мошенничеству на основе ИИ находится на подъеме, с разработкой новых корпоративных технологических инструментов, предназначенных для эффективного выявления и нейтрализации этих угроз. Эти инструменты необходимы для поддержания цифрового доверия, которое все более находится под угрозой из-за этих сложных кибератак.
Перед лицом этих вызовов необходимость немедленных и решительных действий для защиты цифровой целостности и доверия становится более критичной, чем когда-либо, подчеркивая важность технологических решений и осведомленных, бдительных человеческих операторов в экосистеме кибербезопасности.
Source: GovTech
Чтобы смягчить потенциальные угрозы, важно реализовать дополнительные меры по обеспечению кибербезопасности с помощью надежного партнера, такого как INFRA www.infrascan.net, или вы можете попробовать сами, используя check.website.