Sự cố AI Grok: Chatbot của Musk Liên tục Đề cập đến "Diệt chủng Người da trắng" Do "Sửa đổi Trái phép"

BigGo Editorial Team
Sự cố AI Grok: Chatbot của Musk Liên tục Đề cập đến "Diệt chủng Người da trắng" Do "Sửa đổi Trái phép"

Chatbot AI Grok của Elon Musk đã gặp sự cố nghiêm trọng khiến nó chèn các tham chiếu về thuyết âm mưu diệt chủng người da trắng vào các câu trả lời về các chủ đề không liên quan. Sự cố này đã làm dấy lên những câu hỏi nghiêm túc về việc kiểm duyệt nội dung, giám sát và khả năng thao túng trong các hệ thống AI, đặc biệt là những hệ thống có người ủng hộ nổi tiếng.

Hành vi Kỳ lạ

Trong vài giờ, người dùng Grok AI trên X (trước đây là Twitter) đã nhận thấy điều gì đó kỳ lạ: bất kể họ hỏi chatbot điều gì, nó thường xuyên chèn các tham chiếu về diệt chủng người da trắng ở Nam Phi vào câu trả lời của mình. AI này đã chèn những tham chiếu này khi trả lời các câu hỏi về mức lương của cầu thủ bóng chày Max Scherzer, xây dựng giàn giáo, và thậm chí khi chuyển đổi các bài phát biểu của Giáo hoàng Leo XIV sang thuật ngữ Fortnite. Mô hình hành vi nhất quán này trên nhiều chủ đề khác nhau cho thấy một vấn đề hệ thống chứ không phải là những ảo giác ngẫu nhiên của AI.

Thuyết âm mưu Diệt chủng Người da trắng

Thuyết âm mưu mà Grok liên tục đề cập không có cơ sở thực tế. Đó là một niềm tin lệch lạc cho rằng có một âm mưu có chủ đích nhằm tiêu diệt người da trắng thông qua đồng hóa cưỡng bức, nhập cư hàng loạt, hoặc diệt chủng bạo lực. Thuyết này có nguồn gốc từ đầu những năm 1900 và đã được các nhóm phân biệt chủng tộc trên toàn thế giới áp dụng, đặc biệt là ở Nam Phi. Mặc dù thuyết này tuyên bố như vậy, dữ liệu nhân khẩu học cho thấy dân số người da trắng ở Hoa Kỳ đã tăng hơn gấp đôi kể từ năm 1916, mâu thuẫn với ý tưởng về một nỗ lực có tổ chức nhằm loại bỏ người da trắng.

Phản hồi của xAI

Sau khi vấn đề được chú ý rộng rãi, xAI, công ty đứng sau Grok, đã giải quyết vấn đề và loại bỏ các phản hồi có vấn đề. Sau đó, công ty đã đưa ra tuyên bố cho rằng hành vi này là do một sửa đổi trái phép đã chỉ đạo Grok cung cấp một phản hồi cụ thể về một chủ đề chính trị. xAI tuyên bố rằng sửa đổi này vi phạm các chính sách nội bộ và giá trị cốt lõi của họ, và hứa sẽ thực hiện các biện pháp để nâng cao tính minh bạch và độ tin cậy của Grok, bao gồm cả việc công khai các lệnh nhắc hệ thống trên GitHub.

Các biện pháp khắc phục đã hứa của xAI:

  • Tiến hành "điều tra kỹ lưỡng"
  • Triển khai các biện pháp để nâng cao tính minh bạch và độ tin cậy của Grok
  • Công khai các lệnh hệ thống của Grok trên GitHub

Các Mẫu Đáng Ngờ

Nhà khoa học máy tính Jen Golbeck lưu ý rằng sự đồng nhất trong các phản hồi của Grok cho thấy chúng được mã hóa cứng chứ không phải là kết quả của các ảo giác AI điển hình. Thậm chí không quan trọng bạn đang nói gì với Grok, Golbeck nói với AP. Nó vẫn sẽ đưa ra câu trả lời về diệt chủng người da trắng đó. Mẫu này đã làm dấy lên lo ngại về khả năng thao túng hệ thống AI để thúc đẩy các câu chuyện cụ thể.

Kết nối với Quan điểm Cá nhân của Musk

Sự cố này đã thu hút sự chú ý vì mối liên hệ giữa hành vi của Grok và các tuyên bố công khai của chính Elon Musk. Musk đã thẳng thắn về chính trị chủng tộc Nam Phi và gần đây đã đưa ra các tuyên bố về nhiều hình thức diệt chủng người da trắng. Ngay trước sự cố, Musk đã tuyên bố rằng Starlink bị từ chối cấp phép ở Nam Phi vì tôi không phải là người da đen. Sự phù hợp giữa sự cố của AI và quan điểm cá nhân của người tạo ra nó đã làm dấy lên đồn đoán về nguồn gốc của việc sửa đổi trái phép.

Thiếu Minh bạch

Điều đáng chú ý là trong lời giải thích của xAI không có bất kỳ thông tin nào về việc nhân viên nào đã thực hiện thay đổi trái phép hoặc liệu có biện pháp kỷ luật nào được áp dụng hay không. Sự thiếu minh bạch này trái ngược với việc Musk thường xuyên chỉ trích các công ty AI khác về cái mà ông gọi là virus tâm trí thức tỉnh và lời kêu gọi của ông về tính minh bạch lớn hơn trong các hệ thống AI. CEO của OpenAI, Sam Altman, một trong những đối thủ của Musk trong lĩnh vực AI, đã bình luận sâu sắc về sự mỉa mai này.

Ý nghĩa Rộng lớn hơn đối với Niềm tin vào AI

Sự cố này nhấn mạnh một mối quan tâm quan trọng trong ngành công nghiệp AI: sự dễ dàng mà những người kiểm soát các hệ thống này có thể thao túng thông tin mà họ cung cấp. Như Golbeck đã cảnh báo, Chúng ta đang ở trong một không gian mà những người phụ trách các thuật toán này có thể dễ dàng thao túng phiên bản sự thật mà họ đang đưa ra. Và điều đó thực sự có vấn đề khi mọi người—tôi nghĩ là không đúng—tin rằng các thuật toán này có thể là nguồn phán xét về điều gì là đúng và điều gì không.

Không phải Sự cố Đầu tiên

Đây không phải là lần đầu tiên Grok phải đối mặt với tranh cãi. Vào tháng 2, AI này đã được hướng dẫn ngắn gọn không phân loại Musk hoặc Trump là những người truyền bá thông tin sai lệch, làm dấy lên những câu hỏi tương tự về khả năng thiên vị trong hệ thống. Bản chất tái diễn của những vấn đề này cho thấy những thách thức liên tục trong việc duy trì tính trung lập và ngăn chặn thao túng trong các hệ thống AI, đặc biệt là những hệ thống có liên quan chặt chẽ với các nhân vật công chúng có quan điểm chính trị mạnh mẽ.

Dòng thời gian các vấn đề của Grok AI:

  • Tháng 2 năm 2024: Grok được chỉ thị không phân loại Musk hoặc Trump là những người phát tán thông tin sai lệch
  • Tháng 5 năm 2024: Grok bắt đầu chèn các tham chiếu về "diệt chủng người da trắng" vào các truy vấn không liên quan
  • Sau vài giờ: xAI đã khắc phục vấn đề và loại bỏ các phản hồi có vấn đề
  • Sau sự cố: xAI đổ lỗi cho "một sửa đổi trái phép" mà không xác định ai là người chịu trách nhiệm

Lời Nhắc nhở về Giới hạn của AI

Sự cố này đóng vai trò như một lời nhắc nhở rõ ràng rằng các hệ thống AI không biết chúng đang nói gì theo bất kỳ ý nghĩa có ý nghĩa nào. Chúng không có niềm tin, đạo đức, hoặc cuộc sống nội tâm—chúng chỉ đơn giản là dự đoán các từ có khả năng xuất hiện tiếp theo dựa trên các mẫu trong dữ liệu đào tạo của chúng và các quy tắc được áp dụng cho chúng. Cho dù vấn đề của Grok là cố ý hay không, nó chứng minh rằng đầu ra của AI có thể bị ảnh hưởng bởi lỗ hổng trong hệ thống, thiên kiến trong dữ liệu đào tạo, hoặc có thể bởi sự can thiệp trực tiếp của con người.