Cơ sở dữ liệu phổ biến với hơn một nghìn tỷ lượt sử dụng, lần đầu tiên bị mô hình lớn chỉ ra lỗ hổng nghiêm trọng.

Google, thông qua nhóm nghiên cứu của mình, đã tuyên bố rằng họ đã phát hiện ra một lỗ hổng quan trọng sử dụng mô hình ngôn ngữ lớn (large language model). Theo một bài đăng trên blog, Google cho biết họ tin rằng đây là trường hợp đầu tiên mà một đại diện AI (AI agent) phát hiện ra một lỗ hổng có thể khai thác được trong phần mềm thực tế được sử dụng rộng rãi. Cụ thể, nó đã phát hiện ra một lỗ hổng tràn đệm ngăn xếp (stack buffer overflow) trong SQLite.
Lỗ hổng này đã được Google báo cáo cho nhóm phát triển SQLite vào tháng 10 và đã được sửa chữa ngay lập tức. Do đó, người dùng SQLite không bị ảnh hưởng bởi lỗ hổng này.
Dự án AI này, được gọi là “Big Sleep”, là kết quả hợp tác giữa Dự án Zero của Google và DeepMind. Nó được công bố như là sự mở rộng của dự án “Project Naptime” được công bố vào tháng 6.
Trong cuộc họp an ninh DEFCON vào tháng 8, các nhà nghiên cứu bảo mật mạng đã tìm thấy một vấn đề khác trong SQLite, điều này đã thúc đẩy nhóm của Google cố gắng tìm kiếm lỗ hổng nghiêm trọng hơn. SQLite là một máy truy vấn cơ sở dữ liệu nguồn mở, lỗ hổng tràn đệm ngăn xếp có thể cho phép kẻ tấn công gây ra sự sập chương trình hoặc thậm chí thực thi mã tùy ý. Sự sập hoặc thực thi mã xảy ra trong tệp thực thi SQLite thay vì thư viện, do giá trị đặc biệt -1 được sử dụng sai làm chỉ số mảng.
Mô hình lớn dựa trên Gemini 1.5 Pro cuối cùng đã phát hiện ra lỗ hổng này. Trong bài đăng trên blog, nhóm “Big Sleep” cũng đã nêu chi tiết về các bước đánh giá mã, phát hiện lỗ hổng, gây ra sự sập hệ thống và phân tích nguyên nhân gốc rễ.
Các công ty như Google thường sử dụng quy trình gọi là “fuzzing” để kiểm tra phần mềm bằng cách cung cấp dữ liệu ngẫu nhiên hoặc không hợp lệ, nhằm phát hiện lỗ hổng, gây ra lỗi hoặc làm sập chương trình. Tuy nhiên, Google cho biết fuzzing không đủ để phát hiện những lỗ hổng khó hoặc không thể phát hiện thông qua fuzzing, và họ hy vọng AI sẽ thu hẹp khoảng cách này.
“Chúng tôi tin rằng công việc này có tiềm năng phòng thủ rất lớn,” nhóm “Big Sleep” tuyên bố trong bài đăng trên blog. “Lỗ hổng này rất thú vị và cơ sở thử nghiệm hiện tại của SQLite (thông qua OSS-Fuzz và cơ sở hạ tầng của dự án riêng) không phát hiện ra vấn đề này, vì vậy chúng tôi đã tiến hành thêm một số điều tra.”
Đáng chú ý, vào tháng 10, công ty Protect AI có trụ sở tại Seattle đã công bố một công cụ miễn phí và nguồn mở gọi là VulnHunter, tuyên bố rằng nó có thể phát hiện lỗ hổng zero-day trong kho lưu trữ mã Python thông qua mô hình AI của Anthropic gọi là Claude.
Theo Google, mục đích của hai công cụ này là khác nhau. Một phát ngôn viên của Google nhấn mạnh rằng “công bố trong bài đăng trên blog của chúng tôi là, ‘Big Sleep’ đã phát hiện ra lỗ hổng chưa biết và có thể khai thác được trong phần mềm thực tế được sử dụng rộng rãi. Mô hình LLM của Python phát hiện ra các loại lỗ hổng khác, không liên quan đến vấn đề an ninh bộ nhớ.”
“Tuy nhiên, chúng tôi muốn nhắc lại rằng đây đều là kết quả thí nghiệm cao độ,” nhóm Google viết. “Nhóm ‘Big Sleep’ cho rằng, Big Sleep Agent hiện đang ít nhất cũng hiệu quả như công cụ fuzzying mục tiêu cụ thể trong việc phát hiện lỗ hổng.”
### Từ khóa:
– AI
– Lỗ hổng bảo mật
– SQLite
– Big Sleep
– Fuzzing
© Thông báo bản quyền
Bản quyền bài viết thuộc về tác giả, vui lòng không sao chép khi chưa được phép.
Những bài viết liên quan:
Không có đánh giá...