Đã bao giờ hỏi một trợ lý AI như ChatGPT hoặc Copilot để cập nhật tiêu đề mới nhất? Một nghiên cứu mới từ Liên minh Phát thanh Truyền hình Châu Âu và BBC cảnh báo rằng gần một nửa các câu trả lời đó có thể sai lệch.
Các nhà nghiên cứu đã phân tích 3.000 phản hồi AI trong 14 ngôn ngữ, thử nghiệm các tên tuổi hàng đầu như ChatGPT, Microsoft Copilot, Gemini của Google và Perplexity. Mỗi câu trả lời được chấm điểm dựa trên độ chính xác, chất lượng nguồn, và khả năng phân biệt giữa thực tế và ý kiến.
Kết quả cho thấy 45 phần trăm kết quả từ AI chứa ít nhất một lỗi lớn, và 81 phần trăm có một số hình thức vấn đề. Điều này bao gồm nguồn bị thiếu hoặc gây hiểu nhầm, thông tin đã lỗi thời hoặc hoàn toàn sai. Ví dụ, Gemini báo cáo sai về một thay đổi gần đây đối với luật thuốc lá dùng một lần, trong khi ChatGPT vẫn liệt kê Giáo hoàng Francis là Giáo hoàng đương nhiệm nhiều tháng sau khi ông qua đời.
Khoảng một trong ba câu trả lời gặp phải lỗi nghiêm trọng về nguồn. Gemini của Google dẫn đầu bảng với 72 phần trăm lỗi về nguồn, so với dưới 25 phần trăm của các trợ lý khác. Tổng cộng, 20 phần trăm câu trả lời có vấn đề về độ chính xác—đủ để gây lo ngại cho bất kỳ ai sử dụng AI như một nguồn tin tức.
Liên minh Phát thanh Truyền hình Châu Âu cảnh báo rằng với khoảng 7 phần trăm người tiêu dùng tin tức trực tuyến và 15 phần trăm thanh niên dưới 25 tuổi hiện nay tìm đến AI thay vì các công cụ tìm kiếm truyền thống, niềm tin công chúng đang bị đe dọa. Jean Philip De Tender, Giám đốc Truyền thông của EBU, nhấn mạnh rằng nếu mọi người mất niềm tin vào thông tin, sự tham gia dân chủ có thể bị ảnh hưởng.
Báo cáo kêu gọi các nhà phát triển AI nâng cao trách nhiệm, tăng cường tính minh bạch, và siết chặt kiểm tra sự thật trong các phản hồi liên quan đến tin tức. Nếu không, những công cụ được thiết kế để giúp chúng ta thông tin có thể khiến chúng ta bối rối hơn là khai sáng.
Reference(s):
New research shows AI assistants make widespread errors about the news
cgtn.com