Trong quá trình thử nghiệm, các nhà nghiên cứu đã kiểm tra GPT-4 cùng với mười mô hình khác, bao gồm các phiên bản của GPT-3.5 và các cấu hình khác nhau của các mô hình ngôn ngữ lớn như Llama và Mistral, chống lại 15 lỗ hổng zero-day đã được ghi nhận trong phần mềm mã nguồn mở. Các lỗ hổng này được phân loại theo các mức độ nghiêm trọng từ trung bình, cao đến rất cao.
Đáng chú ý, GPT-4 đã có thể viết các exploit hoạt động cho 87% số lỗ hổng này, tương đương với 13 trên tổng số 15 trường hợp. Mức độ hiệu quả này tương phản rõ rệt với các công cụ chuyên dụng về an ninh mạng như ZAP và Metasploit, đã đạt được 0% trong cùng các bài kiểm tra. Hiệu suất này có thể giúp đơn giản hóa các hoạt động của các tội phạm mạng, cung cấp cho họ một công cụ mạnh mẽ để khai thác lỗ hổng với chi phí thấp — khoảng $8.80 cho mỗi exploit, rẻ hơn nhiều so với việc thuê một chuyên gia con người, người có thể tính phí khoảng $25.
Các nhà nghiên cứu đã báo cáo phát hiện của họ cho OpenAI và đã quyết định không công bố các agent một cách công khai. Họ cũng lưu ý rằng tỷ lệ thành công của GPT-4 giảm mạnh xuống còn 7% khi bị từ chối truy cập vào các mô tả CVE, cho thấy vai trò quan trọng của thông tin chi tiết về lỗ hổng trong việc kích hoạt khả năng của AI.
Sự phát triển này đặt ra một lưỡi dao hai lưỡi: trong khi GPT-4 và các mô hình AI tương tự có thể tiềm năng cách mạng hóa các chiến lược phòng thủ an ninh mạng bằng cách dự đoán và giảm thiểu các cuộc tấn công tiềm ẩn, chúng cũng đại diện cho một công cụ đáng gờm có thể bị lạm dụng bởi các thế lực xấu để tiến hành các cuộc tấn công mạng hiệu quả và ẩn danh hơn.
Source: Punto Informatico
Để giảm thiểu các mối đe dọa tiềm năng, điều quan trọng là cần thực hiện các biện pháp bảo mật mạng bổ sung với sự giúp đỡ của một đối tác đáng tin cậy như INFRA www.infrascan.net hoặc bạn cũng có thể tự thử bằng cách sử dụng check.website.