Người Đàn Ông Na Uy Đệ Đơn Khiếu Nại Pháp Lý Sau Khi ChatGPT Cáo Buộc Sai Rằng Anh Đã Giết Con Mình

BigGo Editorial Team
Người Đàn Ông Na Uy Đệ Đơn Khiếu Nại Pháp Lý Sau Khi ChatGPT Cáo Buộc Sai Rằng Anh Đã Giết Con Mình

Những ảo giác của AI đã vượt qua một ngưỡng đáng lo ngại khi OpenAI phải đối mặt với hành động pháp lý vì ChatGPT bịa đặt những tội ác khủng khiếp. Điều gì xảy ra khi một chatbot AI không chỉ bịa đặt những thông tin vô hại, mà còn cáo buộc sai rằng bạn đã giết chính con mình? Một người đàn ông Na Uy đã thấy mình ở trung tâm của tình huống ác mộng này, làm dấy lên những câu hỏi nghiêm trọng về trách nhiệm giải trình của AI và bảo vệ dữ liệu.

Sự Cố Đáng Lo Ngại

Arve Hjalmar Holmen, một công dân Na Uy, đã bị sốc khi anh quyết định tìm kiếm thông tin về bản thân trên ChatGPT. AI đã tự tin đưa ra một câu chuyện bịa đặt rằng Holmen đã giết hai người con trai của mình và cố gắng giết đứa con thứ ba. Chatbot thậm chí còn nêu cụ thể rằng Holmen đã bị kết án 21 năm tù cho những tội ác hư cấu này. Điều làm cho ảo giác này đặc biệt đáng lo ngại là ChatGPT đã xác định chính xác một số chi tiết cá nhân về cuộc sống của Holmen, bao gồm số lượng và giới tính của con cái anh, độ tuổi xấp xỉ của chúng, và quê hương của anh. Những thông tin cá nhân chính xác này xuất hiện cùng với những cáo buộc tội phạm hoàn toàn bịa đặt.

Chi tiết về sự bịa đặt của ChatGPT:

  • Đưa ra thông tin sai lệch rằng Arve Hjalmar Holmen đã giết hai người con trai
  • Đưa ra thông tin sai lệch rằng ông đã cố gắng giết người con trai thứ ba
  • Đưa ra thông tin sai lệch rằng ông đã thụ án tù 21 năm
  • Xác định chính xác thông tin cá nhân bao gồm số lượng con cái, giới tính của họ và quê quán

Phản Ứng Pháp Lý và Ý Nghĩa GDPR

Sau sự cố đáng lo ngại này, Holmen đã liên hệ với nhóm vận động quyền riêng tư Noyb, tổ chức này hiện đã nộp đơn khiếu nại chính thức lên Datatilsynet, Cơ quan Bảo vệ Dữ liệu Na Uy. Đơn khiếu nại cáo buộc rằng OpenAI đã vi phạm Quy định Bảo vệ Dữ liệu Chung (GDPR), cụ thể là Điều 5(1)(d), yêu cầu các công ty xử lý dữ liệu cá nhân phải đảm bảo tính chính xác của dữ liệu đó. Khi dữ liệu không chính xác, quy định yêu cầu phải sửa chữa hoặc xóa bỏ.

Các Điều khoản GDPR được Trích dẫn trong Khiếu nại:

  • Điều 5(1)(d): Yêu cầu dữ liệu cá nhân phải chính xác và được sửa chữa/xóa bỏ nếu không đúng
  • Điều 15: Cấp cho cá nhân quyền truy cập vào dữ liệu cá nhân của họ

Vấn Đề Tồn Tại

Mặc dù mô hình cơ bản của ChatGPT đã được cập nhật và không còn lặp lại những tuyên bố phỉ báng này về Holmen, Noyb lập luận rằng điều này không giải quyết được vấn đề cơ bản. Theo đơn khiếu nại của họ, dữ liệu không chính xác vẫn có thể còn là một phần trong bộ dữ liệu của mô hình ngôn ngữ lớn. Vì ChatGPT đưa dữ liệu người dùng trở lại hệ thống để đào tạo, không có gì đảm bảo rằng thông tin sai đã được xóa hoàn toàn khỏi mô hình trừ khi nó được đào tạo lại hoàn toàn. Sự không chắc chắn này tiếp tục gây đau khổ cho Holmen, người chưa bao giờ bị cáo buộc hoặc kết án bất kỳ tội ác nào.

Các Vấn Đề Tuân Thủ Rộng Hơn

Đơn khiếu nại của Noyb cũng nhấn mạnh một vấn đề rộng lớn hơn với việc tuân thủ Điều 15 của GDPR của ChatGPT, điều này cấp cho các cá nhân quyền truy cập vào dữ liệu cá nhân của họ. Bản chất của các mô hình ngôn ngữ lớn khiến người dùng gần như không thể thấy hoặc nhớ lại tất cả dữ liệu về bản thân mà có thể đã được đưa vào bộ dữ liệu đào tạo. Hạn chế cơ bản này đặt ra những câu hỏi nghiêm trọng về việc liệu các hệ thống AI như ChatGPT có thể tuân thủ đầy đủ các quy định bảo vệ dữ liệu hiện hành hay không.

Phản Ứng Hạn Chế của OpenAI

Hiện tại, cách tiếp cận của OpenAI để giải quyết những loại ảo giác này có vẻ tối thiểu. Công ty hiển thị một tuyên bố từ chối trách nhiệm nhỏ ở cuối mỗi phiên ChatGPT nêu rõ, ChatGPT có thể mắc lỗi. Hãy xem xét kiểm tra thông tin quan trọng. Các nhà phê bình cho rằng điều này là hoàn toàn không đủ với những tổn hại tiềm ẩn có thể xảy ra từ những điều sai sự thật do AI tạo ra, đặc biệt khi chúng liên quan đến những cáo buộc tội phạm nghiêm trọng đối với những cá nhân có thể nhận dạng được.

OpenAI thừa nhận các lỗi tiềm ẩn trong phản hồi của ChatGPT mặc dù chúng có thể gây ra hậu quả nghiêm trọng
OpenAI thừa nhận các lỗi tiềm ẩn trong phản hồi của ChatGPT mặc dù chúng có thể gây ra hậu quả nghiêm trọng

Con Đường Phía Trước

Noyb đang yêu cầu Cơ quan Bảo vệ Dữ liệu Na Uy ra lệnh cho OpenAI xóa dữ liệu không chính xác về Holmen và đảm bảo rằng ChatGPT không thể tạo ra nội dung phỉ báng tương tự về người khác trong tương lai. Tuy nhiên, với bản chất hộp đen của các mô hình ngôn ngữ lớn, việc thực hiện các biện pháp bảo vệ như vậy đặt ra những thách thức kỹ thuật đáng kể. Khi các hệ thống AI ngày càng được tích hợp vào cuộc sống hàng ngày, trường hợp này nhấn mạnh nhu cầu cấp bách về các khuôn khổ quy định mạnh mẽ hơn và các giải pháp kỹ thuật để ngăn chặn những ảo giác AI gây hại thực sự cho các cá nhân.