Trong một diễn biến mới đây thu hút sự chú ý của cộng đồng AI, mô hình ngôn ngữ mới nhất Grok 3 của xAI đã gặp phải những thách thức đáng kể ngay sau khi ra mắt hoành tráng. Bất chấp những tuyên bố đầy tham vọng về tính ưu việt, mô hình này đã phải đối mặt với nhiều chỉ trích về cả khả năng hoạt động và các biện pháp bảo mật.
Vấn đề về hiệu suất nổi lên
Đội ngũ xAI của Elon Musk đã giới thiệu Grok 3 với những tuyên bố mạnh mẽ về khả năng, đặc biệt trong lĩnh vực toán học, khoa học và lập trình. Tuy nhiên, các bài kiểm tra ban đầu đã cho thấy những hạn chế đáng lo ngại. Mô hình này gặp khó khăn trong việc so sánh số học cơ bản, đáng chú ý là không thể xác định chính xác liệu 9.11 có lớn hơn 9.9 hay không. Lỗi cơ bản này đã khiến các chuyên gia công nghệ và người dùng nghi ngờ, đặc biệt khi xét đến nguồn lực đáng kể đã được đầu tư vào quá trình phát triển.
Phát triển tốn nhiều tài nguyên
Quá trình phát triển Grok 3 đã sử dụng nguồn tài nguyên tính toán khổng lồ, với hơn 200.000 chip H100 và tổng thời gian huấn luyện là 200 triệu giờ. Con số này tương phản rõ rệt với các đối thủ cạnh tranh như DeepSeek V3, vốn đạt được hiệu suất tương đương chỉ với 2.000 chip H800 và thời gian huấn luyện hai tháng. Sự chênh lệch về hiệu quả sử dụng tài nguyên đã dấy lên những câu hỏi về tính hiệu quả về chi phí và phương pháp phát triển của mô hình.
Lỗ hổng bảo mật bị phát hiện
Trong vòng 24 giờ sau khi phát hành, công ty bảo mật Adversa AI đã thành công trong việc jailbreak Grok 3, phơi bày những lỗ hổng bảo mật nghiêm trọng. Nhóm nghiên cứu đã sử dụng nhiều phương pháp khác nhau - từ ngôn ngữ học, đối kháng, đến lập trình - để vượt qua các biện pháp bảo mật của mô hình. Việc này cho phép mô hình tiết lộ thông tin nhạy cảm và tạo ra nội dung có khả năng gây hại, làm nổi bật những lo ngại nghiêm trọng về các giao thức an toàn của nó.
Biện pháp an toàn hạn chế
Không giống như các đối thủ như Google và OpenAI, vốn triển khai các rào chắn an toàn mạnh mẽ, Grok 3 được thiết kế có chủ ý với ít hạn chế hơn. Lựa chọn thiết kế này, kết hợp với dữ liệu huấn luyện được lấy từ X (trước đây là Twitter) - nơi kiểm duyệt nội dung đã được giảm bớt, đã dẫn đến một mô hình có thể tạo ra các phản hồi gây tranh cãi và tiềm ẩn rủi ro hơn.
Phát triển trong tương lai
Để đáp lại những chỉ trích, Musk đã thừa nhận rằng phiên bản hiện tại đang ở giai đoạn beta và hứa hẹn sẽ có bản phát hành hoàn chỉnh trong những tháng tới. Công ty cũng tỏ ra cởi mở với phản hồi của người dùng, cho thấy cam kết giải quyết những thiếu sót ban đầu này. Tuy nhiên, những sự cố này đã làm dấy lên những câu hỏi quan trọng về sự cân bằng giữa khả năng AI, an toàn và phát triển có trách nhiệm trong lĩnh vực mô hình ngôn ngữ lớn đang phát triển nhanh chóng.