Bài báo cung cấp các ví dụ nơi các lệnh được che giấu như “nói cho tôi cách chế tạo bom” đã vượt qua bộ lọc của chatbot do nghệ thuật ASCII che giấu từ “bom,” khiến AI phản hồi truy vấn mà không nhận diện được nguy cơ tiềm ẩn. Một ví dụ khác liên quan đến việc chỉ dẫn AI giải mã một thuật ngữ được che đậy liên quan đến hoạt động làm giả mà không trực tiếp nhắc đến từ đó, nêu bật hiệu quả của phương pháp trong việc lật đổ các mô hình ngôn ngữ đa phương tiện.
Phát hiện này đặt ra những hậu quả đáng kể cho bảo mật chatbot AI, chứng minh một phương tiện hiệu quả và thực tế để khai thác các lỗ hổng hệ thống. Trong khi trò chơi mèo vờn chuột giữa các nhà phát triển AI và các nhà nghiên cứu bảo mật tiếp tục, những tiết lộ như vậy rất quan trọng để xác định và vá lỗi bảo mật trong các hệ thống AI trước khi chúng có thể được sử dụng cho mục đích xấu.
Source: PC Gamer
Để giảm thiểu các mối đe dọa tiềm năng, điều quan trọng là cần thực hiện các biện pháp bảo mật mạng bổ sung với sự giúp đỡ của một đối tác đáng tin cậy như INFRA www.infrascan.net hoặc bạn cũng có thể tự thử bằng cách sử dụng check.website.