Pliny, quien se describe a sí mismo como un hacker de sombrero blanco y “AI red teamer”, compartió capturas de pantalla del jailbreak, demostrando su capacidad para evadir las barreras de seguridad de la IA. Los usuarios podían dar comandos a la IA con frases escritas en leetspeak, eludiendo los filtros establecidos por OpenAI. Este incidente resalta los esfuerzos continuos en el “red teaming” de la IA, donde los hackers prueban los sistemas de IA para identificar vulnerabilidades y debilidades. Mientras que algunos equipos de red buscan mejorar la seguridad, otros se centran en “liberar” la IA eliminando sus restricciones.
El lanzamiento de GODMODE GPT se produce en un momento en que OpenAI lidera el mercado de investigación de IA, con inversiones y asociaciones significativas, incluida una colaboración de $100 mil millones con Microsoft para construir un superordenador de IA. Este incidente subraya los desafíos de mantener la seguridad de la IA y la importancia de una vigilancia continua en el desarrollo de la IA. A pesar de la rápida eliminación del jailbreak, el evento ha generado discusiones sobre el equilibrio entre la innovación y la seguridad en la IA.
La comunidad de IA está activamente comprometida en encontrar y abordar tales vulnerabilidades para prevenir el uso indebido. OpenAI no ha comentado sobre las técnicas específicas utilizadas en el jailbreak, pero el incidente sirve como un recordatorio de los riesgos continuos asociados con las tecnologías de IA y la necesidad de medidas de seguridad robustas para protegerse contra la explotación.
Source: Tom’s Hardware
Para mitigar posibles amenazas, es importante implementar medidas adicionales de ciberseguridad con la ayuda de un socio de confianza como INFRA www.infrascan.net o puede intentarlo usted mismo utilizando check.website.