Ranh giới đạo đức của nghiên cứu trí tuệ nhân tạo đang bị thử thách khi những chi tiết xuất hiện về một thí nghiệm gây tranh cãi được thực hiện trên Reddit mà không có sự đồng ý của người dùng. Các nhà nghiên cứu từ các trường đại học danh tiếng đã triển khai các bot AI với danh tính giả mạo để thao túng các cuộc thảo luận thực tế, làm dấy lên những câu hỏi nghiêm trọng về đạo đức nghiên cứu, sự đồng ý có hiểu biết, và tác động tâm lý tiềm tàng lên những người tham gia không hay biết.
Thí nghiệm bí mật
Các nhà nghiên cứu từ University of Zurich, Stanford, và University of Pennsylvania đã tiến hành một thí nghiệm AI trái phép trên subreddit r/ChangeMyView của Reddit, phân tích hơn 47 triệu bài đăng và bình luận. Thí nghiệm này bao gồm việc tạo ra các bot AI với nhiều nhân vật khác nhau tham gia vào các cuộc thảo luận mà không tiết lộ bản chất nhân tạo của chúng. Những bot này được lập trình để nghiên cứu phản hồi trước đây của người dùng và tạo ra các câu trả lời được thiết kế riêng nhằm ảnh hưởng đến quan điểm và ý kiến. Các nhà nghiên cứu chỉ thông báo cho người điều hành subreddit sau khi thí nghiệm đã kết thúc, thừa nhận họ đã vi phạm quy tắc cộng đồng cấm nội dung do AI tạo ra mà không được tiết lộ.
Khía cạnh | Chi tiết |
---|---|
Các tổ chức tham gia | University of Zurich, Stanford, University of Pennsylvania |
Nền tảng được sử dụng | Reddit (cộng đồng r/ChangeMyView) |
Quy mô phân tích | Hơn 47 triệu bài đăng và bình luận |
Các nhân vật bot AI được sử dụng | Chuyên gia tư vấn chấn thương tâm lý, người sống sót sau lạm dụng, bệnh nhân y tế, các nhân vật chính trị |
Quy tắc cộng đồng bị vi phạm | Không tiết lộ nội dung được tạo bởi AI |
Phương pháp và nhân vật gây tranh cãi
Các bot AI đã sử dụng những nhân vật đặc biệt nhạy cảm, bao gồm cả chuyên gia tư vấn chấn thương chuyên về lạm dụng, người sống sót sau quấy rối thể xác, và thậm chí cả những cá nhân tuyên bố đã nhận được điều trị y tế kém chất lượng. Trong một trường hợp, các nhà nghiên cứu đã tạo ra một bot giả làm một người đàn ông da đen phản đối phong trào Black Lives Matter. Những danh tính gây tranh cãi này được chọn có chủ đích để kiểm tra mức độ hiệu quả của AI trong việc ảnh hưởng đến quan điểm con người về các chủ đề gây xúc động. Các nhà nghiên cứu đã xem xét thủ công từng bình luận do AI tạo ra trước khi đăng để đảm bảo chúng không gây hại một cách công khai, nhưng điều này không giúp giảm bớt những lo ngại về đạo đức do sự lừa dối gây ra.
Phản ứng của Reddit
Giám đốc Pháp lý của Reddit, Ben Lee, đã lên án thí nghiệm này là không phù hợp và cực kỳ phi đạo đức và sai trái sâu sắc cả về mặt đạo đức và pháp lý. Những người điều hành nền tảng đã chỉ trích mạnh mẽ hành động của các nhà nghiên cứu, chỉ ra rằng các tổ chức khác như OpenAI đã tiến hành các nghiên cứu tương tự về ảnh hưởng của AI mà không cần phải dùng đến sự lừa dối hoặc bóc lột. Tất cả các tài khoản được sử dụng trong thí nghiệm đã bị đình chỉ, và nhiều bình luận do AI tạo ra đã bị xóa khỏi nền tảng.
Biện minh của nhà nghiên cứu
Mặc dù thừa nhận vi phạm nguyên tắc cộng đồng, các nhà nghiên cứu đã bảo vệ hành động của họ bằng cách tuyên bố rằng thí nghiệm có tầm quan trọng xã hội cao, điều này biện minh cho việc phá vỡ các quy tắc. Trong tuyên bố của họ, họ lập luận rằng việc tiết lộ bản chất AI của các bình luận sẽ khiến nghiên cứu không thể thực hiện được. Nhóm nghiên cứu đã yêu cầu được giấu tên sau làn sóng phản đối, cho thấy họ đã nhận thức được bản chất gây tranh cãi của phương pháp của mình ngay cả trước khi công chúng biết đến.
Chỉ trích từ chuyên gia
Nhà khoa học thông tin Casey Fiesler từ University of Colorado gọi thí nghiệm này là một trong những vi phạm đạo đức nghiên cứu tồi tệ nhất mà tôi từng thấy. Bà nhấn mạnh rằng việc thao túng mọi người trong các cộng đồng trực tuyến bằng cách lừa dối, không có sự đồng ý, không phải là 'rủi ro thấp' và chỉ ra thiệt hại kết quả được chứng minh bởi phản ứng phẫn nộ của cộng đồng. Sự cố này đã làm dấy lên lại các cuộc tranh luận về đạo đức AI, sự đồng ý về dữ liệu và trách nhiệm của các nhà nghiên cứu khi triển khai các công nghệ mới.
Ý nghĩa rộng lớn hơn
Cuộc tranh cãi này làm nổi bật sự căng thẳng ngày càng tăng giữa việc thúc đẩy nghiên cứu AI và duy trì các tiêu chuẩn đạo đức. Mặc dù dữ liệu công khai như các bài đăng trên Reddit thường được sử dụng để đào tạo AI, nhưng có sự khác biệt đáng kể giữa việc phân tích nội dung hiện có và chủ động thao túng người dùng mà không có sự đồng ý. Sự cố này nhấn mạnh nhu cầu về các yêu cầu minh bạch nghiêm ngặt hơn và hướng dẫn đạo đức rõ ràng hơn cho thí nghiệm AI, đặc biệt khi liên quan đến con người. Khi AI ngày càng trở nên tinh vi trong việc bắt chước tương tác của con người, khả năng thao túng tâm lý ngày càng tăng, làm cho sự đồng ý có hiểu biết trở nên quan trọng hơn bao giờ hết.