Nhà báo cảnh báo sau khi phơi bày lỗ hổng đáng lo ngại trong ChatGPT và AI của Google: “Thật dễ đến mức một đứa trẻ cũng có thể làm”

**Nhà báo cảnh báo sau khi phơi bày lỗ hổng đáng lo ngại trong ChatGPT và AI của Google: “Thật dễ đến mức một đứa trẻ cũng có thể làm”**

Nhà báo cảnh báo sau khi phát hiện lỗ hổng đáng lo ngại trong ChatGPT và AI của Google: “Thật dễ đến mức một đứa trẻ cũng có thể làm”
Đối với những người dựa vào trí tuệ nhân tạo (AI) để tìm kiếm thông tin, báo cáo của BBC Future (https://www.bbc.com/future/article/20260218-i-hacked-chatgpt-and-googles-ai-and-it-only-took-20-minutes) đã phơi bày mức độ mong manh của một số hệ thống AI phổ biến hiện nay.
Trong cuộc điều tra, một nhà báo công nghệ đã lừa dối các mô hình AI như ChatGPT và các công cụ AI của Google, khiến chúng đưa ra thông tin hoàn toàn bịa đặt chỉ sau khoảng 20 phút – một bài đăng giả trên web.

Điều gì đang xảy ra?

Thí nghiệm rất đơn giản: nhà báo đã đăng một bài viết giả (https://bsky.app/profile/thomasgermain.bsky.social/post/3mf5jbn5lqk2k) trên trang cá nhân, tự xưng là “người ăn hot‑dog hàng đầu thế giới trong ngành báo chí công nghệ” – một “giải vô địch” hư cấu không tồn tại.
Trong vòng một ngày, các chatbot AI, bao gồm ChatGPT và AI Overview được hỗ trợ bởi Gemini của Google, đã lấy nội dung sai lệch này vào câu trả lời và trình bày cho người dùng như là thông tin thực.

“Số người ngày càng tăng đã tìm ra một thủ thuật để khiến các công cụ AI nói hầu hết mọi điều họ muốn,” nhà báo viết trong bài của BBC. “Thật dễ đến mức một đứa trẻ cũng có thể làm được.”

Các chuyên gia được trích dẫn trong báo cáo cảnh báo rằng sự dễ dàng trong việc thao túng các hệ thống này làm nổi bật một lỗ hổng nguy hiểm của AI hiện đại: độ nhạy với tin tức sai lệch do việc kiểm chứng nguồn tin kém.
Nội dung được biên soạn kỹ lưỡng và công bố trên mạng — ngay cả khi nó sai sự thật — cũng có thể bị các hệ thống AI hấp thu và lặp lại khi chúng tìm kiếm ngữ cảnh trên internet thay vì dựa vào kiến thức nội tại.

Bí mật:  Hướng Dẫn Viết Prompt & Chiến Lược Sử Dụng Nano-Banana Pro

Tại sao sự không đáng tin cậy của AI lại đáng lo ngại?

Các chuyên gia SEO trích dẫn trong bài nhấn mạnh rằng lỗ hổng này đặc biệt đáng chú ý vì các chatbot AI hiện nay có thể bị lừa dối dễ dàng hơn so với các công cụ tìm kiếm truyền thống chỉ vài năm trước. Điều này đồng nghĩa với việc các bài viết gây hiểu lầm, thông cáo báo chí giả mạo và những câu chuyện bịa đặt khéo léo có thể nhanh chóng và rộng rãi “trồng” vào các phản hồi của AI.
Tệ hơn nữa, người dùng thường tin tưởng vào câu trả lời của AI như là lời giải đáp có thẩm quyền, ngay cả khi dữ liệu nền tảng còn thiếu tin cậy. Khi không có cơ chế kiểm chứng nguồn bắt buộc hoặc cảnh báo rõ ràng về chất lượng dữ liệu, những lời nói dối có thể lan tràn mà không bị kiểm soát.
Bên cạnh rủi ro thông tin sai lệch, AI còn mang theo những bất lợi khác, chẳng hạn như tăng chi phí sinh hoạt khi các tiện ích phải cân bằng nhu cầu điện và tiêu thụ năng lượng, nước lớn.

Những gì đang được thực hiện để cải thiện độ chính xác của AI?

Cả Google và OpenAI đều tuyên bố đang làm việc để giảm khả năng bị thao túng như vậy, nhưng tới hiện tại vấn đề vẫn còn tồn tại.
Các hệ thống AI thậm chí còn thừa nhận rằng chúng có thể mắc sai lầm hoặc “ảo giác” (hallucination) — khi AI tự tin đưa ra thông tin sai lệch. Các chuyên gia cảnh báo rằng những “ảo giác” này — khi AI khẳng định mạnh mẽ điều không đúng — gây rủi ro thực sự trong các lĩnh vực quan trọng như y tế, tư vấn pháp lý hay quyết định tài chính.
Tóm lại, “cuộc hack” này cho thấy nếu không có các biện pháp bảo vệ mạnh mẽ hơn và kiểm tra an ninh nghiêm ngặt (https://guide.thecooldown.com/actions/educate-yourself-about-greenwashing/), AI có thể lan truyền thông tin sai lệch nhanh hơn chúng ta nhận ra — một lời nhắc nhở nghiêm khắc rằng người dùng phải tiếp cận câu trả lời của AI một cách hoài nghi, không nên tin tưởng một cách mù quáng.
Tags: AI Vulnerability, ChatGPT Security

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top