L’FBI ha evidenziato diversi utilizzi preoccupanti dell’IA generativa negli attacchi informatici. Tra questi, la creazione di foto false per impersonare persone reali, immagini di celebrità o influencer per promuovere schemi fraudolenti e clip audio che imitano la voce di familiari per richiedere denaro in emergenze inventate. Inoltre, vengono utilizzate videochat deepfake e video generati dall’IA per convincere le vittime di interagire con figure legittime, come dirigenti aziendali o forze dell’ordine.
Gli esperti avvertono che il rapido progresso dell’IA renderà presto quasi impossibile distinguere il reale dal falso. Siggi Stefnisson, direttore tecnico della sicurezza informatica presso Gen, ha evidenziato la minaccia imminente di deepfake irriconoscibili, avvertendo che persino i professionisti esperti potrebbero avere difficoltà a verificare l’autenticità. Questo scenario offre un terreno fertile per attori malintenzionati, dai truffatori che impersonano familiari a governi che diffondono disinformazione politica tramite media falsi.
In risposta, l’FBI consiglia agli utenti di adottare un atteggiamento scettico e misure proattive per proteggersi da queste minacce in evoluzione. Tra i metodi suggeriti, c’è l’uso di una parola segreta per verificare l’identità dei contatti fidati. Man mano che i confini tra realtà e contenuti generati dall’IA si sfumano, questo livello di vigilanza diventa essenziale per difendersi da attacchi cibernetici sempre più credibili.
Source: Forbes
La European Cyber Intelligence Foundation è un think tank no-profit specializzato in intelligence e sicurezza informatica, che offre servizi di consulenza agli enti governativi. Per mitigare potenziali minacce, è importante implementare ulteriori misure di sicurezza informatica con l’aiuto di un partner affidabile come INFRA www.infrascan.net, oppure puoi provare tu stesso utilizzando check.website.