Pliny, người tự mô tả là một hacker mũ trắng và “AI red teamer,” đã chia sẻ các ảnh chụp màn hình của jailbreak, chứng minh khả năng lách các bảo vệ của AI. Người dùng có thể yêu cầu AI bằng các cụm từ viết bằng leetspeak, vượt qua các bộ lọc được thiết lập bởi OpenAI. Sự việc này nêu bật những nỗ lực liên tục trong “AI red teaming,” nơi các hacker kiểm tra các hệ thống AI để xác định các lỗ hổng và điểm yếu. Trong khi một số nhóm red teaming nhằm cải thiện bảo mật, những người khác tập trung vào “giải phóng” AI bằng cách loại bỏ các hạn chế của nó.
Việc phát hành GODMODE GPT diễn ra vào thời điểm OpenAI dẫn đầu thị trường nghiên cứu AI, với các khoản đầu tư và hợp tác đáng kể, bao gồm hợp tác trị giá 100 tỷ đô la với Microsoft để xây dựng siêu máy tính AI. Sự việc này nhấn mạnh thách thức trong việc duy trì bảo mật AI và tầm quan trọng của việc giám sát liên tục trong phát triển AI. Mặc dù jailbreak nhanh chóng bị gỡ bỏ, sự kiện này đã gây ra các cuộc thảo luận về cân bằng giữa đổi mới AI và bảo mật.
Cộng đồng AI đang tích cực tham gia vào việc tìm kiếm và giải quyết các lỗ hổng như vậy để ngăn chặn việc sử dụng sai mục đích. OpenAI không bình luận về các kỹ thuật cụ thể được sử dụng trong jailbreak, nhưng sự việc này là lời nhắc nhở về những rủi ro liên tục liên quan đến các công nghệ AI và sự cần thiết của các biện pháp bảo mật mạnh mẽ để bảo vệ chống lại sự khai thác.
Source: Tom’s Hardware
Để giảm thiểu các mối đe dọa tiềm năng, điều quan trọng là cần thực hiện các biện pháp bảo mật mạng bổ sung với sự giúp đỡ của một đối tác đáng tin cậy như INFRA www.infrascan.net hoặc bạn cũng có thể tự thử bằng cách sử dụng check.website.