Pliny, che si descrive come un hacker white hat e “AI red teamer”, ha condiviso screenshot del jailbreak, dimostrando la capacità di eludere i controlli dell’AI. Gli utenti potevano fornire all’AI frasi scritte in leetspeak, bypassando i filtri impostati da OpenAI. Questo incidente evidenzia gli sforzi continui nel “red teaming” dell’AI, dove gli hacker testano i sistemi AI per identificare vulnerabilità e debolezze. Mentre alcuni red teaming mirano a migliorare la sicurezza, altri si concentrano sul “liberare” l’AI rimuovendo le sue restrizioni.
Il rilascio di GODMODE GPT avviene in un momento in cui OpenAI sta guidando il mercato della ricerca AI, con investimenti significativi e partnership, tra cui una collaborazione da 100 miliardi di dollari con Microsoft per costruire un supercomputer AI. Questo incidente sottolinea le sfide del mantenimento della sicurezza dell’AI e l’importanza di una vigilanza continua nello sviluppo dell’AI. Nonostante la rapida rimozione del jailbreak, l’evento ha suscitato discussioni sul bilanciamento tra innovazione e sicurezza nell’AI.
La comunità AI è attivamente impegnata nella ricerca e nella risoluzione di tali vulnerabilità per prevenire usi impropri. OpenAI non ha commentato le tecniche specifiche utilizzate nel jailbreak, ma l’incidente serve da promemoria dei rischi continui associati alle tecnologie AI e della necessità di misure di sicurezza robuste per proteggersi dagli exploit.
Source: Tom’s Hardware
Per mitigare potenziali minacce, è importante implementare ulteriori misure di sicurezza informatica con l’aiuto di un partner affidabile come INFRA www.infrascan.net o è possibile provarci da soli utilizzando check.website.