Microsoft Copilot Tiết Lộ Hàng Nghìn Kho Lưu Trữ GitHub Riêng Tư

BigGo Editorial Team
Microsoft Copilot Tiết Lộ Hàng Nghìn Kho Lưu Trữ GitHub Riêng Tư

Trợ lý AI của Microsoft đã bị phát hiện tiết lộ thông tin lẽ ra phải được giữ kín, gây ra những lo ngại nghiêm trọng về bảo mật cho các nhà phát triển trên toàn cầu. Các nhà nghiên cứu bảo mật đã phát hiện ra rằng Microsoft Copilot có thể truy cập và tiết lộ nội dung từ các kho lưu trữ GitHub đã được đặt ở chế độ riêng tư, có khả năng làm lộ dữ liệu doanh nghiệp nhạy cảm và thông tin đăng nhập.

Phát Hiện Lỗ Hổng Bảo Mật

Các nhà nghiên cứu bảo mật tại Lasso, một công ty an ninh mạng chuyên về các mối đe dọa liên quan đến AI, đã phát hiện ra một lỗ hổng đáng kể trong Microsoft Copilot. Nhóm nghiên cứu phát hiện ra rằng Copilot có thể truy cập vào một trong những kho lưu trữ GitHub của chính họ đã được đặt ở chế độ riêng tư. Kho lưu trữ này đã từng được đặt ở chế độ công khai trong một thời gian ngắn trước khi được chuyển lại về trạng thái riêng tư, nhưng khoảng thời gian ngắn đó đã đủ để công cụ tìm kiếm Bing của Microsoft lập chỉ mục và lưu trữ nội dung. Ngay cả sau khi kho lưu trữ đã được bảo mật đúng cách, Copilot vẫn tiếp tục truy cập và tiết lộ những thông tin được cho là riêng tư này khi được hỏi với những câu hỏi phù hợp.

Quy Mô Của Sự Cố

Sau phát hiện ban đầu, Lasso đã tiến hành một cuộc điều tra rộng hơn và cho kết quả đáng báo động. Công ty bảo mật này đã xác định hơn 20.000 kho lưu trữ GitHub đã được đặt ở chế độ riêng tư trong năm 2024 nhưng vẫn có thể truy cập thông qua Microsoft Copilot. Sự cố này ảnh hưởng đến khoảng 16.000 tổ chức, bao gồm các công ty công nghệ lớn như IBM, Google, PayPal, Tencent, và cả chính Microsoft. Phạm vi của vấn đề bảo mật này là đáng kể, có khả năng làm lộ tài sản trí tuệ, dữ liệu doanh nghiệp, và thông tin đăng nhập bảo mật trên toàn ngành công nghệ.

Những phát hiện chính từ nghiên cứu của Lasso:

  • Hơn 20.000 kho lưu trữ GitHub riêng tư có thể truy cập thông qua Copilot
  • Khoảng 16.000 tổ chức bị ảnh hưởng
  • Các công ty công nghệ lớn bị ảnh hưởng bao gồm IBM, Google, PayPal, Tencent, Microsoft
  • Lỗ hổng đã được báo cáo cho Microsoft vào tháng 11 năm 2024
  • Microsoft đã phân loại vấn đề này là "mức độ nghiêm trọng thấp"
Công nghệ kết nối minh họa quy mô rộng lớn của dữ liệu cá nhân bị lộ lọt trên nhiều tổ chức do sự cố bảo mật AI
Công nghệ kết nối minh họa quy mô rộng lớn của dữ liệu cá nhân bị lộ lọt trên nhiều tổ chức do sự cố bảo mật AI

Thông Tin Nhạy Cảm Gặp Rủi Ro

Các kho lưu trữ bị lộ có thể chứa thông tin cực kỳ nhạy cảm mà kẻ xấu có thể lợi dụng. Theo phát hiện của Lasso, tin tặc có thể thao túng Copilot để tiết lộ thông tin bí mật như khóa truy cập, token bảo mật, và mã nguồn độc quyền. Công ty bảo mật này đã khuyến cáo các tổ chức bị ảnh hưởng cần hành động ngay lập tức bằng cách thay đổi hoặc thu hồi bất kỳ thông tin đăng nhập bảo mật nào đã bị xâm phạm để giảm thiểu thiệt hại tiềm ẩn từ sự cố này.

Phản Hồi Của Microsoft

Khi Lasso báo cáo lỗ hổng cho Microsoft vào tháng 11 năm 2024, phản ứng của công ty này khá thờ ơ. Microsoft đã phân loại vấn đề này ở mức độ nghiêm trọng thấp và mô tả hành vi lưu trữ là chấp nhận được. Mặc dù Microsoft đã xóa kết quả tìm kiếm được lưu trữ liên quan đến dữ liệu bị ảnh hưởng khỏi Bing vào tháng 12 năm 2024, Lasso cảnh báo rằng Copilot vẫn giữ dữ liệu trong mô hình AI của nó, có nghĩa là thông tin vẫn có thể truy cập được thông qua các câu hỏi phù hợp.

Tác Động Rộng Lớn Đến Bảo Mật AI

Sự cố này làm nổi bật mối lo ngại ngày càng tăng về cách thức đào tạo các hệ thống AI và những thông tin mà chúng lưu giữ. Khi các chatbot và trợ lý AI liên tục quét internet để thu thập dữ liệu đào tạo, chúng có thể nắm bắt và lưu trữ thông tin chỉ tạm thời công khai hoặc không bao giờ có ý định phân phối rộng rãi. Việc thiếu các quy định về thu thập và lưu trữ dữ liệu này tạo ra những rủi ro bảo mật đáng kể, đặc biệt khi xử lý thông tin doanh nghiệp nhạy cảm hoặc dữ liệu cá nhân.

Biện Pháp Phòng Ngừa Cho Các Nhà Phát Triển

Trước phát hiện này, các nhà phát triển và tổ chức sử dụng GitHub nên xem xét lại các biện pháp bảo mật kho lưu trữ của họ. Ngay cả việc tạm thời để lộ các kho lưu trữ nhạy cảm ra công khai cũng có thể dẫn đến rủi ro bảo mật lâu dài khi các hệ thống AI lập chỉ mục và lưu giữ thông tin đó. Việc thay đổi thường xuyên thông tin đăng nhập bảo mật, quản lý cẩn thận cài đặt hiển thị kho lưu trữ, và kiểm tra thông tin có thể bị lộ đang trở thành những biện pháp thiết yếu trong môi trường phát triển được hỗ trợ bởi AI.