Els deepfakes generats per IA, que poden replicar amb una precisió alarmant la veu, la cara i els gestos d’una persona, representen un salt significatiu en la capacitat de lliurar missatges fraudulents i desinformació. Incidents recents inclouen deepfakes que imiten figures d’alt perfil com el president Biden i el governador de Florida, Ron DeSantis, així com un vídeo deepfake d’un director financer que va resultar en una transferència bancària fraudulenta de 26 milions de dòlars.
Per combatre aquestes amenaces, s’està posant cada vegada més èmfasi en desenvolupar un enfocament integral per a la gestió del risc humà (HRM). Aquesta estratègia implica millorar la capacitació de seguretat tradicional per cultivar una cultura conscient de la seguretat dins de les organitzacions, on els empleats són proactius en identificar i mitigar riscos. Aspectes clau de l’HRM inclouen capacitar els empleats per detectar inconsistències en àudio i vídeo, verificar fonts i utilitzar noves eines dissenyades per autenticar missatges i detectar deepfakes.
A més, l’ús de la IA per contrarestar el frau de la IA està en augment, amb el desenvolupament de noves eines tecnològiques empresarials dissenyades per identificar i neutralitzar aquestes amenaces de manera efectiva. Aquestes eines són essencials per mantenir la confiança digital, que cada vegada està més amenaçada per aquests sofisticats atacs cibernètics.
Davant d’aquests desafiaments, la necessitat d’una acció immediata i decisiva per salvaguardar la integritat i la confiança digital és més crítica que mai, subratllant la importància de solucions tecnològiques i operadors humans informats i vigilants en l’ecosistema de la ciberseguretat.
Source: GovTech
Per mitigar amenaces potencials, és important implementar mesures addicionals de ciberseguretat amb l’ajuda d’un soci de confiança com INFRA www.infrascan.net o bé pots provar-ho tu mateix utilitzant check.website.