El FBI señaló varios usos preocupantes de la IA generativa en los ataques cibernéticos. Entre ellos se encuentran la creación de fotos falsas para hacerse pasar por personas reales, imágenes de celebridades o influencers para promover actividades fraudulentas y clips de audio que imitan la voz de seres queridos para solicitar dinero en emergencias ficticias. Además, se están utilizando chats de video deepfake y videos generados por IA para convencer a las víctimas de que están interactuando con figuras legítimas, como ejecutivos de empresas o fuerzas del orden.
Los expertos advierten que el rápido avance de la IA pronto hará casi imposible distinguir entre lo real y lo falso. Siggi Stefnisson, director técnico de seguridad cibernética en Gen, destacó la inminente amenaza de los deepfakes indistinguibles, advirtiendo que incluso los profesionales experimentados podrían tener dificultades para verificar la autenticidad. Este escenario proporciona un terreno fértil para actores malintencionados, desde estafadores que se hacen pasar por familiares hasta gobiernos que difunden desinformación política a través de medios falsos.
En respuesta, el FBI aconseja a los usuarios adoptar una mentalidad escéptica y medidas proactivas para protegerse contra estas amenazas en evolución. Entre las estrategias sugeridas está el uso de una palabra secreta para verificar la identidad de contactos de confianza. A medida que se difuminan las líneas entre la realidad y los contenidos generados por IA, este nivel de vigilancia se vuelve esencial para defenderse de ataques cibernéticos cada vez más convincentes.
Source: Forbes
La European Cyber Intelligence Foundation es un think tank sin fines de lucro especializado en inteligencia y ciberseguridad, que ofrece servicios de consultoría a entidades gubernamentales. Para mitigar posibles amenazas, es importante implementar medidas adicionales de ciberseguridad con la ayuda de un socio de confianza como INFRA www.infrascan.net, o puedes intentarlo tú mismo usando check.website.