Pliny, que es descriu a si mateix com un hacker de barret blanc i “AI red teamer”, va compartir captures de pantalla del jailbreak, demostrant la seva capacitat per evadir les barreres de seguretat de la IA. Els usuaris podien donar ordres a la IA amb frases escrites en leetspeak, eludint els filtres establerts per OpenAI. Aquest incident destaca els esforços continus en el “red teaming” de la IA, on els hackers proven els sistemes de IA per identificar vulnerabilitats i debilitats. Mentre que alguns equips de red busquen millorar la seguretat, altres es centren en “alliberar” la IA eliminant les seves restriccions.
El llançament de GODMODE GPT es produeix en un moment en què OpenAI lidera el mercat de recerca de IA, amb inversions i associacions significatives, inclosa una col·laboració de 100 mil milions de dòlars amb Microsoft per construir un superordinador de IA. Aquest incident subratlla els reptes de mantenir la seguretat de la IA i la importància d’una vigilància contínua en el desenvolupament de la IA. Tot i l’eliminació ràpida del jailbreak, l’esdeveniment ha generat discussions sobre l’equilibri entre la innovació i la seguretat en la IA.
La comunitat de IA està activament compromesa en trobar i abordar aquestes vulnerabilitats per prevenir l’ús indegut. OpenAI no ha comentat sobre les tècniques específiques utilitzades en el jailbreak, però l’incident serveix com a recordatori dels riscos continus associats amb les tecnologies de IA i la necessitat de mesures de seguretat robustes per protegir-se contra l’explotació.
Source: Tom’s Hardware
Per mitigar amenaces potencials, és important implementar mesures addicionals de ciberseguretat amb l’ajuda d’un soci de confiança com INFRA www.infrascan.net o bé pots provar-ho tu mateix utilitzant check.website.