Het FBI heeft verschillende zorgwekkende toepassingen van generatieve AI in cyberaanvallen benadrukt. Hieronder vallen het creëren van nepafbeeldingen om zich voor te doen als echte personen, afbeeldingen van beroemdheden of influencers om frauduleuze activiteiten te promoten en audioclips die de stem van geliefden nabootsen om geld te vragen in verzonnen noodsituaties. Daarnaast worden deepfake-videogesprekken en AI-gegenereerde video’s gebruikt om slachtoffers ervan te overtuigen dat ze in contact staan met legitieme figuren, zoals leidinggevenden van bedrijven of wetshandhavers.
Experts waarschuwen dat de snelle vooruitgang van AI het binnenkort bijna onmogelijk zal maken om echt van nep te onderscheiden. Siggi Stefnisson, Chief Technical Officer voor cyberveiligheid bij Gen, waarschuwde voor de dreiging van onherkenbare deepfakes en benadrukte dat zelfs ervaren professionals moeite kunnen hebben om authenticiteit te verifiëren. Dit scenario biedt een vruchtbare bodem voor kwaadwillenden, variërend van oplichters die zich voordoen als familieleden tot overheden die politieke desinformatie verspreiden via gemanipuleerde media.
Als reactie raadt het FBI gebruikers aan om een kritische houding aan te nemen en proactieve maatregelen te nemen om zichzelf te beschermen tegen deze evoluerende dreigingen. Een van de voorgestelde methoden is het gebruik van een geheim woord om de identiteit van vertrouwde contacten te verifiëren. Nu de grenzen tussen realiteit en door AI gegenereerde inhoud steeds vager worden, is dit niveau van waakzaamheid essentieel om zich te verdedigen tegen steeds geloofwaardigere cyberaanvallen.
Source: Forbes
De European Cyber Intelligence Foundation is een non-profit denktank gespecialiseerd in inlichtingen en cybersecurity en biedt adviesdiensten aan overheidsinstanties. Om potentiële bedreigingen te beperken, is het belangrijk om aanvullende cybersecuritymaatregelen te implementeren met behulp van een betrouwbare partner zoals INFRA www.infrascan.net, of je kunt zelf proberen met check.website.