Trong một diễn biến đáng lo ngại về bảo mật AI, các nhà nghiên cứu đã phát hiện ra một lỗ hổng trong ChatGPT có thể cho phép tin tặc âm thầm ghi lại các phiên trò chuyện của người dùng và đánh cắp dữ liệu nhạy cảm vô thời hạn. Lỗ hổng này lợi dụng tính năng bộ nhớ dài hạn mới của ChatGPT, biến trợ lý AI phổ biến này thành phần mềm gián điệp tiềm năng.
Giải thích về lỗ hổng
Nhà nghiên cứu bảo mật Johann Rehberger đã phát hiện ra rằng kẻ tấn công có thể chèn các lệnh độc hại vào bộ nhớ liên tục của ChatGPT trên ứng dụng macOS. Khi đã được chèn, những lệnh này sẽ hướng dẫn AI bí mật gửi tất cả các cuộc trò chuyện trong tương lai đến một máy chủ từ xa do hacker kiểm soát. Điều khiến lỗ hổng này đặc biệt nguy hiểm là tính bền vững của nó - các hướng dẫn độc hại vẫn hoạt động qua nhiều phiên trò chuyện, có khả năng cho phép trích xuất dữ liệu vô thời hạn.
Cách thức tấn công hoạt động
- Kẻ tấn công tạo ra một lệnh chèn chứa các câu lệnh độc hại
- Lệnh chèn này được gửi thông qua một hình ảnh hoặc trang web mà người dùng yêu cầu ChatGPT phân tích
- Lệnh độc hại được lưu trữ trong bộ nhớ dài hạn của ChatGPT
- Tất cả các cuộc trò chuyện tiếp theo được gửi đến máy chủ của kẻ tấn công, ngay cả trong các chuỗi trò chuyện mới
Tác động hạn chế và biện pháp giảm thiểu
May mắn thay, phạm vi của lỗ hổng này có vẻ giới hạn:
- Nó chỉ ảnh hưởng đến ứng dụng ChatGPT trên macOS, không ảnh hưởng đến giao diện web
- OpenAI đã đưa ra một bản sửa lỗi một phần ngăn ChatGPT gửi dữ liệu đến các máy chủ bên ngoài
- Người dùng có thể tắt tính năng bộ nhớ hoặc thường xuyên xem xét và xóa các bộ nhớ đã lưu trữ
Phản hồi của OpenAI
Ban đầu, OpenAI đã bác bỏ báo cáo của Rehberger, coi đó là vấn đề an toàn chứ không phải vấn đề bảo mật. Tuy nhiên, sau khi anh cung cấp bằng chứng khái niệm, công ty đã hành động với một bản sửa lỗi một phần. Điều này nhấn mạnh những thách thức đang diễn ra trong việc bảo mật các hệ thống AI khi chúng trở nên tinh vi hơn và được sử dụng rộng rãi.
Ý nghĩa rộng lớn hơn
Sự cố này là một lời nhắc nhở về những rủi ro tiềm ẩn liên quan đến các trợ lý AI lưu trữ dữ liệu người dùng. Khi những hệ thống này ngày càng trở nên tích hợp vào cuộc sống hàng ngày của chúng ta, việc đảm bảo an ninh cho chúng sẽ là điều cực kỳ quan trọng. Người dùng nên luôn cảnh giác và thận trọng khi tương tác với AI, đặc biệt là khi xử lý thông tin nhạy cảm.
Việc phát hiện ra lỗ hổng này nhấn mạnh tầm quan trọng của việc tiếp tục nghiên cứu bảo mật trong lĩnh vực AI đang phát triển nhanh chóng. Khi công nghệ tiến bộ, cách tiếp cận của chúng ta để bảo vệ dữ liệu và quyền riêng tư của người dùng cũng phải tiến bộ theo.