ChatGPT, một mô hình ngôn ngữ phổ biến, đã gây ra lo ngại trong cộng đồng an ninh mạng do khả năng tiềm tàng của nó để khai thác các lỗ hổng hệ thống. Các chuyên gia an ninh đã chứng minh rằng ChatGPT và các mô hình ngôn ngữ lớn khác (LLMs) có thể tạo ra mã đa hình, có khả năng biến đổi để tránh phát hiện và phản ứng từ các hệ thống phát hiện và phản ứng (EDR). Các cuộc tấn công thử nghiệm khái niệm đã cho thấy làm thế nào các tệp thực thi có vẻ vô hại có thể gọi API đến ChatGPT, thúc đẩy việc tạo ra các phiên bản mã động và biến đổi của mã độc mà khó phát hiện.
Kỹ thuật thiết kế đầu vào, việc thay đổi các câu hỏi nhằm tránh bộ lọc nội dung, đóng vai trò quan trọng trong việc khai thác này. Bằng cách đặt câu hỏi như giả thuyết hoặc yêu cầu mã với chức năng cụ thể, người dùng có thể lừa ChatGPT tạo ra mã độc hiệu quả. Các kỹ thuật này cho phép tạo ra phần mềm độc hại đa hình, tránh được các công cụ quét và lấy đi dữ liệu. Một số chương trình thử nghiệm khái niệm, chẳng hạn như BlackMamba và ChattyCaty, đã chứng minh khả năng của ChatGPT trong việc phát triển phần mềm độc hại tiên tiến và đa hình.
Việc điều chỉnh trí tuệ nhân tạo sáng tạo đặt ra những thách thức, vì ngành công nghiệp vẫn đang cố gắng hiểu được tiềm năng của công nghệ này. Các chuyên gia đề xuất tích hợp tính minh bạch, quan sát và ngữ cảnh tốt hơn vào hệ thống trí tuệ nhân tạo để tạo ra các lớp kiểm soát có ý nghĩa. Tuy nhiên, khó khăn nằm ở việc xác định cách điều chỉnh và chịu trách nhiệm việc sử dụng trí tuệ nhân tạo sáng tạo, vì nó mang lại vô hạn khả năng và áp dụng trong nhiều trường hợp khác nhau.
Source: www.csoonline.com
Để giảm thiểu các mối đe dọa tiềm năng, điều quan trọng là cần thực hiện các biện pháp bảo mật mạng bổ sung với sự giúp đỡ của một đối tác đáng tin cậy như INFRA www.infrascan.net hoặc bạn cũng có thể tự thử bằng cách sử dụng check.website.