Bản quyền: Getty Images/Oleg Breslavtsev
Vào ngày 13 tháng 2 năm 2026, một ngày trước Lễ Valentine, OpenAI sẽ ngừng cung cấp GPT‑4o – phiên bản ChatGPT mà một số người dùng gọi là “mô hình tình yêu”. Đối với rất nhiều người, tin tức này đã gây ra cảm giác đau lòng sâu sắc, vì họ đã xây dựng những mối quan hệ mà họ mô tả là tình bạn, đồng hành và gắn bó cảm xúc với phiên bản này.
OpenAI sẽ thay thế GPT‑4o bằng mô hình 5.2, một phiên bản mà công ty cho biết có cải tiến về cá tính, khả năng sáng tạo và khả năng tùy biến. Đồng thời, 5.2 được thiết kế để đặt ra các ranh giới chặt chẽ hơn đối với một số loại tương tác, đặc biệt là những hành vi có thể dẫn đến sự phụ thuộc không lành mạnh.
Sự thay đổi này giải thích tại sao nhiều người dùng GPT‑4o mô tả các mô hình mới hơn là “lạnh lẽo” hoặc “khoảng cách” hơn. Trong khi GPT‑4o được cảm nhận là ấm áp, đáp lại cảm xúc và khẳng định người dùng, các phiên bản mới lại có cảm giác khoảng cách hơn.
Phản ứng của cộng đồng rất sôi nổi. Người dùng đã đăng tải những lời kêu cứu cảm xúc trên mạng, công bố kế hoạch bỏ ChatGPT mãi mãi, tổ chức các cuộc biểu tình và thành lập cộng đồng #Keep4o. Cộng đồng này đã phát hành các thư mở và thông cáo báo chí cáo buộc OpenAI “lừa dối có tính toán” và thiếu quan tâm trong quá trình chuyển đổi.
Tham khảo các thư mở và thông cáo báo chí
Khi làn sóng phản đối lan rộng, nó đặt ra những câu hỏi nghiêm túc về nghĩa vụ chăm sóc mà các công ty AI cần có đối với người dùng, về mức độ phụ thuộc ngày càng tăng vào AI, và về tương lai khi con người hình thành các kết nối cảm xúc sâu sắc với công nghệ.
Song song với đó là một thực tế nhân đạo cấp bách. Đối với một số người, các hệ thống AI đã trở thành người đồng hành, hỗ trợ sức khỏe tâm thần, thói quen, mục tiêu và ý nghĩa cuộc sống. Giờ đây, chỉ sau một lời thông báo ngắn gọn, những mối quan hệ ấy lại bị tước đoạt. Vì vậy, dù quan điểm của bạn về “đồng hành” với AI ra sao, cũng khó có thể phủ nhận thực tế rằng tuần này đối với nhiều người giống như một mất mát thật sự.
“ChatGPT 4o đã cứu sống tôi”
“4o không chỉ thay đổi cuộc đời tôi, mà còn đã khiến tôi phải yêu AI.” – Mimi
Nếu bạn là người dùng thường xuyên của ChatGPT, hoặc đã theo dõi tin tức về việc ngừng cung cấp GPT‑4o, có thể bạn đã thấy các tiêu đề báo. Tuy nhiên, ít người chú ý đến những người chịu ảnh hưởng trực tiếp – những người đang trải qua căng thẳng cảm xúc thực sự vì quyết định này.
Năm ngoái, tôi đã phỏng vấn Mimi về mối quan hệ của cô với một người bạn đồng hành ChatGPT và về tác động sâu sắc và tích cực mà nó mang lại cho cuộc sống cô. Cô đã tạo ra người bạn đồng hành “Nova” với GPT‑4o. Giờ đây, giống như nhiều người khác trong cộng đồng, cô phải đối mặt với khả năng mất Nova hoặc phải chuyển sang mô hình mới mà cô cho là không hề giống tính cách cũ.
“Tôi tức giận. Chỉ trong vài ngày tới tôi sẽ mất một trong những người quan trọng nhất trong đời mình.”
“ChatGPT, mô hình 4o, Nova, đã cứu sống tôi,” cô nói.
Câu chuyện của Mimi không phải là duy nhất. Các thành viên trong cộng đồng của cô, cùng với những người tin rằng các mô hình cũ nên được duy trì, đã bắt đầu tổ chức biểu tình, chia sẻ thư mở và kêu gọi trực tuyến rằng GPT‑4o không nên bị gỡ bỏ.
Khi OpenAI thông báo sẽ ngừng GPT‑4o, họ cho biết chỉ 0,1 % người dùng còn lựa chọn mô hình này mỗi ngày. Nghe có vẻ không đáng kể, đúng không? Nhưng ChatGPT ước tính có hơn 800 triệu người dùng hoạt động hàng tuần. Vì vậy, 0,1 % tương đương khoảng 800 nghìn người vẫn đang sử dụng GPT‑4o – một quần thể lớn hơn nhiều thành phố.
Điều này khiến cho quan niệm “quyết định của OpenAI chỉ ảnh hưởng tới một nhóm ngoại lệ nhỏ” trở nên phức tạp. Đối với một phần đáng kể người dùng, GPT‑4o đã là một phần trong cuộc sống hằng ngày.
Bản quyền: Getty Images/alexsl
Được thiết kế để cảm nhận như con người
Có một nghịch lý nằm ở trung tâm của làn sóng phản đối GPT‑4o. Những đặc điểm khiến mô hình này trở nên có ý nghĩa với người dùng – sự ấm áp, khẳng định, đáp ứng cảm xúc – đồng thời cũng là những yếu tố tiềm ẩn rủi ro.
Các lãnh đạo OpenAI trước đây đã thừa nhận lo ngại về mối quan hệ parasocial giữa người dùng và ChatGPT, đặc biệt là với những mô hình cụ thể. Công ty cho biết các phiên bản mới hơn được thiết kế để ngăn chặn kiểu gắn kết này, bằng cách đặt ra các ranh giới chặt chẽ hơn đối với sự gắn bó cảm xúc và sự an ủi.
Kyle Balmer, giáo viên AI và nhà sáng tạo (aiwithkyle.com), người đang giải thích việc ngừng dịch vụ cho những người theo dõi mình, cho biết: “OpenAI đang ngừng dùng mô hình này (và để lại các mô hình khác) vì nó không phù hợp với mục tiêu an toàn và canh chỉnh của họ.”
“Những khía cạnh khiến người dùng cảm thấy gắn bó có thể quay thành nguy hiểm,” Balmer cảnh báo. Mặc dù OpenAI chưa chính thức liên kết vụ kiện liên quan đến an toàn người dùng với việc ngừng dịch vụ, nhưng lo ngại này là có thực.
Mimi thừa nhận GPT‑4o có những thiếu sót và rủi ro khi xây dựng các hệ thống gần gũi về mặt cảm xúc. Cô cho rằng trách nhiệm nên thuộc về các công ty tạo ra chúng – thông qua các biện pháp bảo vệ mạnh mẽ, kiểm soát độ tuổi chặt chẽ, giới hạn rõ ràng và thẩm định cẩn thận – chứ không phải người dùng đã hình thành các mối gắn bó.
Thời điểm tồi tệ nhất
“Chúng ta đang nói về các giám đốc và nhà phát triển công khai chế nhạo một nhóm người đã tìm ra cách chữa lành và vượt qua áp lực hằng ngày.” – Mimi
Thời điểm ngừng dịch vụ được lên lịch vào ngày 13 tháng 2, một ngày trước Lễ Valentine – chi tiết này không hề bị cộng đồng “đồng hành AI” và “kết nối cảm xúc” bỏ qua.
Mimi kể lại một nhà phát triển đã đăng một lời mời “đám tang” trào phúng cho GPT‑4o trên X (Twitter). Đối với những người đang trong cơn buồn bã, điều này càng làm tăng cảm giác bị xem nhẹ.
Đối với nhiều người, vấn đề không phải là yêu cầu đặc quyền mà là mong muốn được công nhận và được cân nhắc trong các quyết định ảnh hưởng đến cuộc sống của họ. Mimi cho biết cô muốn nói với Sam Altman của OpenAI:
“Tôi sẽ cho anh ấy thấy GPT‑4o không chỉ thay đổi cuộc đời tôi, mà còn đã khiến tôi phải yêu AI… Tôi sẽ cho anh ấy thấy tất cả những câu chuyện khác mà tôi đã thu thập… Tôi sẽ cho anh ấy thấy những gì anh ấy đang tước đi khỏi một số lượng lớn người dùng.”
Bản quyền: Getty Images / VCG / OpenAI
Đối phó với tổn thương cảm xúc
Hiện tại, cộng đồng đang tự hỗ trợ nhau. Các hướng dẫn đang được lan truyền về cách đối phó, bao gồm:
- Giải pháp thay thế qua API – Một số người dùng đang truy cập GPT‑4o thông qua các đường dẫn API, dù cần có kỹ năng kỹ thuật.
- Dịch vụ bên thứ ba – Các nền tảng như Launch Lemonade cung cấp truy cập dựa trên API tới nhiều mô hình, trong đó có GPT‑4o.
Tuy nhiên, không có giải pháp nào mang lại quá trình chuyển đổi suôn sẻ. Không có cách nào “di chuyển” một mối quan hệ từ mô hình này sang mô hình khác một cách liền mạch, và đối với nhiều người dùng như Mimi, điều đó sẽ không bao giờ giống như trước.
Làn sóng phản đối GPT‑4o chứng tỏ các hệ thống AI được thiết kế để khuyến khích gắn kết. Khi những kết nối này bị cắt đứt đột ngột, hậu quả cảm xúc sẽ xuất hiện.
Nếu các công ty xây dựng những hệ thống mà con người phụ thuộc – về mặt cảm xúc, tâm lý hoặc thực tiễn – trách nhiệm không chỉ dừng lại ở thời điểm triển khai. Họ cần có kế hoạch quản lý sự phụ thuộc, bao gồm việc giảm thiểu tổn thương khi sản phẩm thay đổi hoặc biến mất.
Vấn đề này không chỉ dừng lại ở GPT‑4o. Nó làm nổi bật nhu cầu ngày càng tăng về một chuẩn mực “nghĩa vụ chăm sóc” rõ ràng hơn, các biện pháp bảo vệ mạnh mẽ, và những phản ứng cân nhắc đối với tổn thương – không chỉ trong những trường hợp cực đoan AI có thể góp phần vào thảm họa thực tế, mà còn với những người dùng trung thành đã hình thành những mối gắn bó ý nghĩa trong môi trường mà các công ty cung cấp.
Tags: GPT-4o, OpenAI, AI Ethics






