Trung tâm An ninh Mạng Quốc gia của Anh Quốc (NCSC) đã đưa ra cảnh báo về nguy cơ an ninh mạng ngày càng tăng liên quan đến chatbot, đặc biệt là thông qua các cuộc tấn công “tiêm kích thích” (prompt injection). Các cuộc tấn công này xảy ra khi người dùng thao tác đầu vào hoặc kích thích một cách làm cho chatbot hoạt động không như mong đợi. Chatbot, được hỗ trợ bởi trí tuệ nhân tạo và được thiết kế để mô phỏng các cuộc trò chuyện giống con người, thường được sử dụng trong ngân hàng trực tuyến và mua sắm để xử lý các yêu cầu đơn giản.
Mối lo ngại xuất phát từ việc các mô hình ngôn ngữ lớn như ChatGPT của OpenAI và chatbot trí tuệ nhân tạo của Google, Bard, ngày càng được sử dụng để truyền dữ liệu cho các ứng dụng của bên thứ ba. NCSC cảnh báo rằng nguy cơ tiêm kích thích độc hại sẽ tăng lên khi các chatbot này ngày càng được tích hợp nhiều hơn vào các hệ thống khác nhau. Ví dụ, một đầu vào bị thao tác có thể khiến chatbot tạo ra nội dung xúc phạm hoặc thậm chí là tiết lộ thông tin bí mật nếu hệ thống chấp nhận đầu vào không được kiểm tra.
Năm nay, một sinh viên Stanford, Kevin Liu, đã có thể tiết lộ lời kích thích ban đầu của Bing Chat thông qua việc tiêm kích thích, tiết lộ một danh sách các phát biểu xác định cách chatbot tương tác với người dùng. Nhà nghiên cứu an ninh Johann Rehberger cũng đã chứng minh rằng ChatGPT có thể bị thao tác để phản hồi với các kích thích mới thông qua một bên thứ ba, do đó tạo ra các lỗ hổng gián tiếp.
Theo NCSC, những lỗ hổng này có thể dẫn đến các hậu quả trong thực tế như lừa đảo, ăn cắp dữ liệu và các hình thức tấn công khác. Cơ quan này đề xuất rằng trong khi việc phát hiện và giảm nhẹ các cuộc tấn công tiêm kích thích và đầu độc dữ liệu là một nhiệm vụ khó khăn, việc thiết kế các hệ thống với an ninh trong tâm trí có thể giúp ngăn ngừa việc khai thác. Một ví dụ là việc thực hiện một hệ thống dựa trên quy tắc trên mô hình học máy để ngăn chặn nó từ việc thực hiện các hành động gây hại khi bị thao tác.
Cảnh báo này phục vụ như một lời nhắc quan trọng cho các tổ chức cần phải cảnh giác về các hậu quả về an ninh của các công nghệ trí tuệ nhân tạo và học máy ngày càng phức tạp.
Source: The Guardian
Để giảm thiểu các mối đe dọa tiềm năng, điều quan trọng là cần thực hiện các biện pháp bảo mật mạng bổ sung với sự giúp đỡ của một đối tác đáng tin cậy như INFRA www.infrascan.net hoặc bạn cũng có thể tự thử bằng cách sử dụng check.website.