Ảnh: Future / Graham Barlow
Vài tuần trước, tôi đã cố tình sử dụng ChatGPT để cập nhật những tin tức mới nhất về cuộc chiến tại Iran. Động cơ của tôi vừa là để thử nghiệm so sánh khả năng cung cấp thông tin thời gian thực của chatbot với các trang tin truyền thống, vừa bởi nhịp độ tin tức lúc đó quá nhanh khiến tôi cảm thấy choáng ngợp.
Tuy nhiên, tôi nhận ra mình chưa từng một lần nhấp vào đường dẫn nguồn để xác thực bất kỳ thông tin nào. Tôi chỉ đơn thuần tiếp nhận những gì ChatGPT đưa ra.
Đó là lúc tôi nhận ra “vấn đề cốt lõi” khi dùng AI để tìm kiếm tin tức. Vấn đề không nằm ở chỗ AI đôi khi sai (điều này vẫn xảy ra), mà là khi AI ngày càng trở nên tốt hơn, nó đang thay đổi hoàn toàn cách chúng ta quyết định nên tin tưởng vào đâu.
Theo dõi sự thay đổi
Việc sử dụng AI để tìm kiếm thông tin chưa bao giờ là một lựa chọn hoàn toàn an toàn. Cách đây không lâu, ChatGPT vẫn chưa có khả năng truy cập dữ liệu thời gian thực. Trong khi đó, tính năng “Google AI Overviews” từng đưa ra những gợi ý phi lý như khuyên người dùng “bôi keo lên pizza” để phô mai bám chặt hơn, hay thậm chí đề xuất “ăn đá mỗi ngày”. Những sai sót khi dựa vào AI để có thông tin nhanh và chính xác trước đây rất rõ ràng và dễ nhận biết.
Nhưng trong một năm qua, mọi thứ đã cải thiện đáng kể. Các mô hình AI ngày càng chính xác, thông tin được cập nhật liên tục (nhiều chatbot hiện đã có thể truy cập Internet theo thời gian thực) và khả năng trích dẫn nguồn cũng được nâng cao.
Tìm kiếm bằng AI đã chuyển mình sang dạng mà Ofcom vừa gọi là “công cụ trả lời” (answer engines) — những công cụ không chỉ dẫn lối đến thông tin mà còn cung cấp ngay câu trả lời trực tiếp bằng ngôn ngữ hội thoại dễ hiểu.
Nghe có vẻ tuyệt vời, và ở nhiều khía cạnh, quả thực là vậy. Tôi tin rằng đối với những truy vấn ít rủi ro, cần sự nhanh gọn — như tìm công thức nấu ăn, định nghĩa từ ngữ, lời khuyên du lịch hay mua sắm — thì tìm kiếm bằng AI thực sự hữu ích. Định dạng hội thoại còn giúp người dùng đào sâu vấn đề, đặt các câu hỏi tiếp theo chính xác hơn và tìm ra câu trả lời nhanh chóng hơn so với việc phải lướt qua hàng loạt liên kết.
Tuy nhiên, chính sự “cải thiện” này lại tiềm ẩn một vấn đề lớn.
Lập luận phản đối những câu trả lời quá hoàn hảo
Ảnh: Getty Images / Yuichiro Chino
Khi tìm kiếm bằng AI còn rõ ràng là “lỗi lầm đầy rẫy”, chúng ta thường rất cảnh giác. Nhưng giờ đây, khi nó đã trở nên tốt hơn và đáng tin cậy hơn, tôi lo ngại rằng chúng ta sẽ ít đặt câu hỏi phản biện hơn. Não bộ con người được lập trình để xem ngôn ngữ trôi chảy, mạch lạc như một dấu hiệu của độ tin cậy. Khi một đoạn văn đọc lên như một lời giải thích tự tin, chúng ta khó lòng lùi lại để kiểm tra — ngay cả khi chúng ta biết mình nên làm vậy.
Tôi đã từng viết về hiện tượng này trong các lĩnh vực AI khác: trong trị liệu tâm lý, trong các mối quan hệ, và trong tư vấn y tế. Việc “gánh vác thay” phần tư duy cho bất kỳ công cụ AI nào chúng ta sử dụng khiến chúng ta dần lười áp dụng phán đoán cá nhân.
Ellen Scott, một người tôi đã trao đổi trong bối cảnh công việc, gọi hiện tượng này là smoothout — một dạng “giảm tải nhận thức”, nơi nỗ lực đánh giá thông tin bị AI hấp thụ hoàn toàn. Nó loại bỏ sự “ma sát” (friction) vốn dĩ buộc chúng ta phải suy nghĩ.
Tìm kiếm truyền thống tuy không hoàn hảo, nhưng nó luôn tồn tại sự ma sát đó. Người dùng thường phải quét qua danh sách liên kết, xem xét nguồn tin và nhanh chóng đưa ra nhận định về độ tin cậy. Tìm kiếm bằng AI thay thế toàn bộ quy trình này bằng một câu trả lời tổng hợp duy nhất, được trình bày với giọng điệu hội thoại (đôi khi còn mang tính tán dương). Kết quả là chúng ta thụ động tiếp nhận thông tin thay vì tự mình đánh giá.
Nghiên cứu của Pew Research chỉ ra rằng khi một bản tóm tắt do AI xuất hiện trong kết quả tìm kiếm, người dùng có xu hướng ít nhấp vào nguồn gốc hơn. Vì vậy, AI thực chất đang trả lời thay câu hỏi của chúng ta và làm giảm khả năng kiểm chứng lại thông tin.
Những thất bại vẫn còn tồn tại
Hiện tượng ảo giác (hallucinations) — khi chatbot tự tin đưa ra thông tin sai lệch — vẫn chưa biến mất. Các trích dẫn nguồn đôi khi vẫn gây hiểu lầm hoặc không hoạt động chính xác.
Có một vấn đề khác: sự xu nịnh (sycophancy). Mặc dù các công ty AI đang tích cực khắc phục, chúng ta vẫn biết rằng các hệ thống AI có xu hướng đồng ý với người dùng. Những hệ thống này thường được tối ưu hóa để tạo cảm giác “đối thoại tự nhiên, thân thiện” chứ không nhất thiết phải nói ra sự thật.
Khi độ chính xác được cải thiện, những lỗi còn sót lại trở nên khó nhận ra hơn. Khi một công cụ rõ ràng là không đáng tin, chúng ta sẽ trở nên hoài nghi. Nhưng khi nó “hầu như luôn đúng”, chúng ta ngừng kiểm tra — chính xác như những gì tôi đã trải qua trong thí nghiệm cá nhân của mình.
Xây dựng hệ thống tốt hơn và rèn luyện tư duy phản biện
Ảnh: Getty Images / Francesco Carta fotografo
Giải pháp thông thường được đưa ra là: mọi người cần nâng cao kỹ năng hiểu biết truyền thông (media literacy) cho thời đại AI — và tôi hoàn toàn đồng ý. Việc hiểu rõ cách các hệ thống này hoạt động, xem kết quả từ AI như một “điểm khởi đầu” chứ không phải “kết luận cuối cùng”, và luôn đặt câu hỏi trước những ngôn từ trôi chảy, tự tin là những kỹ năng thiết yếu.
Chính những lúc chúng ta có xu hướng tìm đến AI để tìm kiếm — các tình huống diễn biến nhanh, câu hỏi có mức độ rủi ro cao, hay những sự kiện gây căng thẳng cảm xúc — lại là thời điểm việc xác thực thông tin trở nên quan trọng nhất, đồng thời cũng là lúc tư duy phản biện khó thực hiện nhất.
Nếu các công cụ AI trở thành trung tâm trong cách mọi người tiếp cận thông tin, thì thiết kế của chúng trở nên cực kỳ quan trọng. Cần có trích dẫn nguồn rõ ràng, giao diện khuyến khích người dùng kiểm tra các nguồn khác, và các công cụ hiển thị những thông tin còn thiếu (chứ không chỉ hiển thị những gì đã có).
Tìm kiếm bằng AI đã có những bước tiến lớn; điều này không còn nghi ngờ gì nữa. Tuy nhiên, chúng ta cần trung thực trong việc định nghĩa xem “tiến bộ” thực sự có ý nghĩa gì đối với cách chúng ta tìm kiếm, xử lý và thấu hiểu thông tin về lâu dài.
Tags: AI Reliability, Media Literacy, Critical Thinking
Tags: AI Reliability, Media Literacy, Critical Thinking







