Los deepfakes generados por IA, que pueden replicar la voz, el rostro y los gestos de una persona con alarmante precisión, representan un salto significativo en la capacidad de entregar mensajes fraudulentos y desinformación. Incidentes recientes incluyen deepfakes que imitan a figuras de alto perfil como el presidente Biden y el gobernador de Florida, Ron DeSantis, así como un video deepfake de un CFO que resultó en una transferencia bancaria fraudulenta de 26 millones de dólares.
Para combatir estas amenazas, se está poniendo cada vez más énfasis en desarrollar un enfoque integral para la gestión del riesgo humano (HRM). Esta estrategia implica mejorar la capacitación de seguridad tradicional para cultivar una cultura consciente de la seguridad dentro de las organizaciones, donde los empleados son proactivos en identificar y mitigar riesgos. Aspectos clave de HRM incluyen capacitar a los empleados para detectar inconsistencias en audio y video, verificar fuentes y utilizar nuevas herramientas diseñadas para autenticar mensajes y detectar deepfakes.
Además, el uso de IA para contrarrestar el fraude de IA está en aumento, con el desarrollo de nuevas herramientas tecnológicas empresariales diseñadas para identificar y neutralizar estas amenazas de manera efectiva. Estas herramientas son esenciales para mantener la confianza digital, que está cada vez más amenazada por estos sofisticados ataques cibernéticos.
Ante estos desafíos, la necesidad de una acción inmediata y decisiva para salvaguardar la integridad y la confianza digital es más crítica que nunca, subrayando la importancia de soluciones tecnológicas y operadores humanos informados y vigilantes en el ecosistema de la ciberseguridad.
Source: GovTech
Para mitigar posibles amenazas, es importante implementar medidas adicionales de ciberseguridad con la ayuda de un socio de confianza como INFRA www.infrascan.net o puede intentarlo usted mismo utilizando check.website.