Al juny de 2024, investigadors en ciberseguretat van descobrir que hackers havien creat 250 paquets npm maliciosos imitant projectes populars d’AWS i Microsoft. Aquest atac a gran escala va apuntar als repositoris…
Tag: exploit
Hackers Crean 250 Paquetes NPM Maliciosos
En junio 2024, los investigadores de ciberseguridad descubrieron que los piratas informáticos habían creado 250 paquetes npm maliciosos que imitaban proyectos populares de AWS y Microsoft. Este ataque a gran escala apuntó…
Hacker Creano 250 Pacchetti NPM Malevoli
Nel mese di giugno 2024, i ricercatori di sicurezza informatica hanno scoperto che gli hacker avevano creato 250 pacchetti npm dannosi imitando progetti popolari di AWS e Microsoft. Questo attacco su larga…
Hackers Created 250 Malicious NPM Packages
In June 2024, cybersecurity researchers discovered that hackers had created 250 malicious npm packages mimicking popular AWS and Microsoft projects. This large-scale attack targeted open-source software repositories to inject malicious code into…
Hacker phát hành ‘Godmode’ GPT-4o Jailbreak, nhanh chóng bị cấm
Một hacker được biết đến với tên “Pliny the Prompter” đã phát hành một jailbreak có tên “GODMODE GPT” cho mô hình AI GPT-4o trên trang web ChatGPT, cho phép AI vượt…
Хакеры выпустили “Godmode” для GPT-4o, быстро забанен
Хакер, известный как “Pliny the Prompter”, выпустил джейлбрейк под названием “GODMODE GPT” для модели ИИ GPT-4o на сайте ChatGPT, позволяя ИИ обходить его ограничения. Джейлбрейк позволял ИИ выполнять запрещенные задачи, такие как…
Els hackers alliberen ‘Godmode’ per a GPT-4o, ràpidament prohibit
Un hacker conegut com “Pliny the Prompter” va llançar un jailbreak anomenat “GODMODE GPT” per al model d’IA GPT-4o al lloc web de ChatGPT, permetent que la IA esquivés les seves restriccions….
Hackers liberan ‘Godmode’ para GPT-4o, rápidamente prohibido
Un hacker conocido como “Pliny the Prompter” lanzó un jailbreak llamado “GODMODE GPT” para el modelo de IA GPT-4o en el sitio web de ChatGPT, permitiendo que la IA eludiera sus restricciones….
Hacker rilascia il jailbreak ‘Godmode’ per GPT-4o, rapidamente bannato
Un hacker conosciuto come “Pliny the Prompter” ha rilasciato un jailbreak chiamato “GODMODE GPT” per il modello AI GPT-4o sul sito web di ChatGPT, permettendo all’AI di bypassare le sue restrizioni. Il…
Hackers Release ‘Godmode’ GPT-4o Jailbreak, Quickly Banned
A hacker known as “Pliny the Prompter” released a jailbreak called “GODMODE GPT” for the GPT-4o AI model on the ChatGPT website, allowing the AI to bypass its restrictions. The jailbreak enabled…