5 Cách Thiết Yếu để Sử Dụng AI An Toàn và Hiệu Quả, Theo Các Chuyên Gia của Carnegie Mellon

BigGo Editorial Team
5 Cách Thiết Yếu để Sử Dụng AI An Toàn và Hiệu Quả, Theo Các Chuyên Gia của Carnegie Mellon

Khi trí tuệ nhân tạo ngày càng được tích hợp vào trải nghiệm kỹ thuật số hàng ngày của chúng ta, từ kết quả tìm kiếm của Google đến các cuộc trò chuyện với ChatGPT, việc hiểu cách sử dụng những công cụ này một cách an toàn và hiệu quả chưa bao giờ quan trọng hơn thế. Những hiểu biết gần đây từ các chuyên gia của Carnegie Mellon University đã nêu bật những chiến lược quan trọng để tối ưu hóa tương tác với AI đồng thời bảo vệ bản thân khỏi những hạn chế vốn có của công nghệ này.

Thực Tế Đằng Sau Vẻ Ngoài Đàm Thoại của AI

Các giáo sư trợ lý Maarten Sap và Sherry Tongshuang Wu của Trường Khoa học Máy tính Carnegie Mellon gần đây đã đề cập đến những thiếu sót của các mô hình ngôn ngữ lớn (LLMs) tại SXSW. Mặc dù có khả năng ấn tượng, nhưng những hệ thống này vẫn còn những khiếm khuyết cơ bản. Chúng rất tuyệt vời và xuất hiện khắp mọi nơi, nhưng thực tế chúng còn cách xa sự hoàn hảo, Sap đã lưu ý trong bài thuyết trình. Nhận thức này xuất hiện vào thời điểm quan trọng khi nhiều người dùng đặt niềm tin quá mức vào các hệ thống AI mà không hiểu những hạn chế của chúng.

Hãy Cụ Thể Với Hướng Dẫn Của Bạn

Một trong những lỗi phổ biến nhất mà người dùng mắc phải là đối xử với AI như một đối tác trò chuyện con người. Theo các nhà nghiên cứu của Carnegie Mellon, mọi người thường sử dụng các câu lệnh mơ hồ, không rõ ràng khi tương tác với các chatbot AI. Cách tiếp cận này dẫn đến hiểu sai vì AI thiếu khả năng đọc hiểu ngầm như con người. Nghiên cứu của Sap cho thấy các LLM hiện đại hiểu sai các tham chiếu không theo nghĩa đen hơn 50% thời gian. Để khắc phục hạn chế này, các chuyên gia khuyên nên cung cấp hướng dẫn rõ ràng, chi tiết để giảm thiểu khả năng hiểu sai. Mặc dù điều này đòi hỏi nhiều nỗ lực hơn khi soạn thảo câu lệnh, nhưng kết quả sẽ phù hợp hơn nhiều với ý định của người dùng.

Xác Minh Mọi Thứ: Vấn Đề Ảo Giác

Ảo giác AI—những trường hợp hệ thống tạo ra thông tin không chính xác—là một mối quan ngại đáng kể đối với người dùng. Những lỗi này xảy ra với tỷ lệ đáng báo động, với Sap lưu ý tần suất ảo giác từ 1% đến 25% cho các trường hợp sử dụng hàng ngày. Trong các lĩnh vực chuyên môn như luật và y học, tỷ lệ này vượt quá 50%. Điều khiến những ảo giác này đặc biệt nguy hiểm là cách chúng được trình bày một cách tự tin. Nghiên cứu được trích dẫn trong bài thuyết trình cho thấy các mô hình AI thể hiện sự chắc chắn về các phản hồi không chính xác 47% thời gian. Để bảo vệ khỏi thông tin sai lệch, người dùng nên kiểm tra kỹ nội dung do AI tạo ra thông qua các nguồn bên ngoài, diễn đạt lại câu hỏi để kiểm tra tính nhất quán, và giữ cho các câu lệnh trong phạm vi chuyên môn của họ, nơi họ có thể dễ dàng nhận biết lỗi.

Tỷ lệ Ảo giác của AI:

  • Các trường hợp sử dụng hàng ngày nói chung: 1-25%
  • Các lĩnh vực chuyên môn (luật, y học): >50%
  • Các mô hình AI thể hiện sự chắc chắn về các phản hồi không chính xác: 47%

Bảo Vệ Quyền Riêng Tư Khi Sử Dụng AI

Các mối quan ngại về quyền riêng tư là một khía cạnh quan trọng khác của an toàn AI. Những hệ thống này được đào tạo trên các bộ dữ liệu khổng lồ và thường tiếp tục học hỏi từ tương tác của người dùng. Các chuyên gia cảnh báo rằng các mô hình đôi khi nhả lại dữ liệu đào tạo trong các phản hồi, có khả năng tiết lộ thông tin cá nhân được chia sẻ bởi người dùng trước đó. Ngoài ra, khi sử dụng các ứng dụng AI dựa trên web, dữ liệu cá nhân rời khỏi thiết bị của bạn để xử lý trên đám mây, tạo ra các lỗ hổng bảo mật. Các nhà nghiên cứu khuyến nghị tránh chia sẻ thông tin nhạy cảm với LLM bất cứ khi nào có thể. Khi phải sử dụng dữ liệu cá nhân, hãy cân nhắc việc biên tập lại các chi tiết nhận dạng. Người dùng cũng nên tận dụng các tùy chọn từ chối thu thập dữ liệu có sẵn trong nhiều công cụ AI, bao gồm cả ChatGPT.

Nguy Hiểm của Việc Nhân Hóa Các Hệ Thống AI

Bản chất đàm thoại của các công cụ AI hiện đại đã khiến nhiều người dùng gán cho chúng những phẩm chất giống con người. Sự nhân hóa này tạo ra xu hướng nguy hiểm là đánh giá quá cao khả năng và độ tin cậy của AI. Các chuyên gia đề xuất thay đổi có ý thức cách chúng ta thảo luận về những công cụ này. Thay vì nói mô hình nghĩ, Sap khuyến nghị cách diễn đạt chính xác hơn như mô hình được thiết kế để tạo ra phản hồi dựa trên dữ liệu đào tạo của nó. Sự thay đổi ngôn ngữ tinh tế này giúp duy trì ranh giới và kỳ vọng phù hợp khi làm việc với các hệ thống AI.

Lựa Chọn Khi Nào AI Là Phù Hợp

Mặc dù có tính linh hoạt, LLM không phù hợp cho mọi nhiệm vụ. Các nhà nghiên cứu nhấn mạnh tầm quan trọng của việc triển khai có suy nghĩ, đặc biệt là khi có những trường hợp được ghi nhận về hệ thống AI đưa ra quyết định mang tính phân biệt chủng tộc hoặc duy trì những thiên kiến theo quan điểm phương Tây. Người dùng nên đánh giá cẩn thận liệu một công cụ AI có thực sự là giải pháp phù hợp cho nhu cầu cụ thể của họ hay không. Điều này bao gồm việc xem xét mô hình nào xuất sắc trong các nhiệm vụ cụ thể và lựa chọn tùy chọn phù hợp nhất thay vì mặc định chọn hệ thống AI phổ biến hoặc dễ tiếp cận nhất.

5 Chiến lược chính để sử dụng AI an toàn:

  1. Cung cấp hướng dẫn rõ ràng, chi tiết
  2. Kiểm tra lại các phản hồi của AI với các nguồn bên ngoài
  3. Bảo vệ quyền riêng tư bằng cách tránh chia sẻ thông tin nhạy cảm
  4. Tránh nhân cách hóa các hệ thống AI
  5. Đánh giá liệu AI có phù hợp cho các nhiệm vụ cụ thể hay không

Thách Thức Bảo Tồn Kiến Thức

Ngoài các tương tác AI cá nhân, các tổ chức phải đối mặt với thách thức rộng lớn hơn về bảo tồn kiến thức khi nhân viên có kinh nghiệm nghỉ hưu hoặc rời đi. Tiến sĩ Richard Clark, Giáo sư Danh dự tại University of Southern California, đã tiên phong trong phân tích nhiệm vụ nhận thức (CTA) để nắm bắt kiến thức ngầm của các chuyên gia tại nơi làm việc. Các phương pháp đào tạo truyền thống bỏ sót khoảng 70% kiến thức ra quyết định quan trọng mà các chuyên gia sở hữu. Trong khi CTA truyền thống đòi hỏi nguồn lực đáng kể, Clark gợi ý rằng AI có thể thu hẹp khoảng cách này, với các công cụ như ChatGPT đã có khả năng thực hiện khoảng 60% phân tích nhiệm vụ nhận thức. Ứng dụng AI này cho việc bảo tồn kiến thức đại diện cho một cơ hội chiến lược cho các tổ chức đang đối mặt với làn sóng nghỉ hưu và từ chức.

Khả năng Phân tích Nhiệm vụ Nhận thức của ChatGPT:

  • Hiện tại thực hiện khoảng 60% các chức năng phân tích nhiệm vụ nhận thức
  • Có tiềm năng giúp các tổ chức ghi lại kiến thức chuyên gia một cách hiệu quả

Tương Lai của Tích Hợp AI

Khi AI tiếp tục phát triển và tích hợp vào cuộc sống hàng ngày của chúng ta, những chiến lược an toàn và hiệu quả này sẽ ngày càng trở nên quan trọng. Bằng cách tiếp cận AI với sự hoài nghi thích hợp, cung cấp hướng dẫn rõ ràng, xác minh đầu ra, bảo vệ quyền riêng tư, tránh nhân hóa và đưa ra quyết định triển khai có suy nghĩ, người dùng có thể tối đa hóa lợi ích đồng thời giảm thiểu rủi ro. Đối với các tổ chức, việc tận dụng AI để bảo tồn kiến thức tổ chức mang lại một con đường đầy hứa hẹn trong kỷ nguyên chuyển đổi lực lượng lao động nhanh chóng. Những hiểu biết từ các chuyên gia này cung cấp một khuôn khổ có giá trị để điều hướng trong bối cảnh AI phức tạp và phát triển nhanh chóng.

Một bàn phím hiện đại đại diện cho môi trường am hiểu công nghệ của việc tích hợp AI trong cuộc sống hàng ngày của chúng ta
Một bàn phím hiện đại đại diện cho môi trường am hiểu công nghệ của việc tích hợp AI trong cuộc sống hàng ngày của chúng ta