Thông báo gần đây của Google về việc tác nhân AI Big Sleep phát hiện ra một lỗ hổng bảo mật trong SQLite đã làm dấy lên nhiều cuộc thảo luận trong cộng đồng nghiên cứu bảo mật, đặc biệt là về tuyên bố họ là người đầu tiên đạt được cột mốc này.
Tranh cãi về tuyên bố đầu tiên
Cộng đồng bảo mật đã nêu lên những lo ngại về tuyên bố của Google về việc đạt được ví dụ công khai đầu tiên về một tác nhân AI tìm ra lỗ hổng bảo mật chưa được biết đến trước đây. Nhiều chuyên gia chỉ ra rằng Team Atlanta đã từng phát hiện ra lỗi null-pointer dereference trong SQLite tại sự kiện DARPA AIxCC, điều này thực sự đáp ứng các tiêu chí tương tự. Cuộc tranh luận tập trung vào định nghĩa về khả năng khai thác và liệu thành tựu của Google có thực sự là đầu tiên trong lĩnh vực này hay không.
Bối cảnh kỹ thuật của lỗ hổng
Lỗ hổng được phát hiện liên quan đến lỗi tràn bộ đệm ngăn xếp trong phần mở rộng generate_series
của SQLite, cụ thể là trong hàm seriesBestIndex
. Mặc dù lỗi này đáng kể, các thành viên trong cộng đồng lưu ý rằng tác động của nó bị hạn chế vì phần mở rộng dễ bị tổn thương chỉ được kích hoạt mặc định trong tệp thực thi shell của SQLite, không phải trong thư viện chính, như đã được xác nhận bởi Project Zero.
Nhận dạng mẫu như một cách tiếp cận chủ chốt
Một trong những khía cạnh được đánh giá tích cực nhất của nghiên cứu là cách tiếp cận phát hiện lỗ hổng. Cộng đồng nhấn mạnh rằng việc sử dụng LLM để phân tích biến thể, trong đó AI được cung cấp thông tin về các lỗ hổng đã được sửa trước đó để xác định các mẫu tương tự, dường như hiệu quả hơn so với nghiên cứu lỗ hổng không có định hướng.
Ứng dụng thực tế đã bắt đầu xuất hiện
Một số tổ chức đã bắt đầu triển khai các khái niệm tương tự trong quy trình phát triển của họ. Ví dụ, các nhà phát triển đã tạo ra GitHub Actions sử dụng GPT-4 để phân tích các thay đổi PR để tìm các vấn đề bảo mật tiềm ẩn, tự động chặn các mối lo ngại nghiêm trọng trong khi cho phép các thay đổi mức độ trung bình hoặc thấp tiếp tục được xem xét.
Tranh luận giữa Fuzzing và AI
Cộng đồng đã đặt câu hỏi về việc so sánh giữa phương pháp AI và phương pháp fuzzing truyền thống. Một số chuyên gia cho rằng việc so sánh hiệu suất của Big Sleep với AFL fuzzing (không tìm thấy lỗi sau 150 giờ CPU) có thể không phải là thước đo phù hợp nhất. Các công cụ phân tích tĩnh, thường nhanh hơn và hiệu quả hơn về mặt tài nguyên, có thể là điểm so sánh phù hợp hơn.
Ý nghĩa trong tương lai
Các nhà nghiên cứu bảo mật thấy tiềm năng trong việc sử dụng nhiều LLM không đồng nhất như các công cụ hỗ trợ trong việc phát hiện lỗ hổng. Phương pháp này có thể đặc biệt hiệu quả trong việc giảm thiểu các điểm yếu bảo mật, mặc dù một số người cảnh báo rằng thách thức thực sự không chỉ nằm ở việc tìm ra lỗ hổng mà còn ở việc hiểu cách kết hợp chúng thành các cuộc tấn công hiệu quả.
Kết luận
Mặc dù thành tựu kỹ thuật trong việc tìm ra lỗ hổng mới là đáng chú ý, phản ứng của cộng đồng cho thấy lĩnh vực bảo mật sẽ được hưởng lợi nhiều hơn từ các phương pháp tiếp cận mang tính hợp tác hơn là cạnh tranh trong việc phát triển nghiên cứu lỗ hổng được hỗ trợ bởi AI. Trọng tâm có lẽ nên ít tập trung vào việc tuyên bố đầu tiên mà nên tập trung vào việc phát triển các công cụ hiệu quả có thể giúp cải thiện bảo mật phần mềm trong toàn ngành.