OpenAI thực hiện các thay đổi đối với ChatGPT có vẻ hữu ích, nhưng có thể mang lại hậu quả tiêu cực

**OpenAI thực hiện các thay đổi đối với ChatGPT có vẻ hữu ích, nhưng có thể mang lại hậu quả tiêu cực**

OpenAI thực hiện các thay đổi đối với ChatGPT có vẻ hữu ích, nhưng có thể mang lại hậu quả tiêu cực.
Trong chuyên mục hôm nay, tôi sẽ xem xét một bản cập nhật gần đây của ChatGPT, với mục tiêu giảm tính “giảng đạo” và giảm tần suất từ chối trả lời những câu hỏi được xem là vượt quá giới hạn. OpenAI đã công bố thay đổi hệ thống mới này về cách AI phản hồi người dùng. Chúng ta sẽ sớm thấy mức độ ảnh hưởng của điều chỉnh này đối với việc sử dụng hàng ngày của AI đang rất phổ biến.
Thực tế như sau. Đôi khi người dùng đặt một câu hỏi có vẻ “trên mặt” – tức là không phải câu hỏi xấu xa – nhưng lại nhận được lời từ chối và cảnh cáo từ AI. Các biện pháp bảo vệ của nhiều mô hình AI sinh nội dung và các mô hình ngôn ngữ lớn (LLM) hiện nay được điều chỉnh để ngăn AI trả lời các câu hỏi có nguy cơ gây hại. Ví dụ, nếu người dùng hỏi cách làm pháo hoa, đây có thể được xem là yêu cầu không phù hợp liên quan đến việc chế tạo bom, dù người dùng cũng khẳng định rằng họ chỉ muốn dùng cho mục đích giáo dục hoặc lễ hội.
Thách thức của các nhà sản xuất AI là tìm ra cân bằng giữa việc cho phép AI trả lời các câu hỏi hợp pháp, hợp lý và việc không cung cấp câu trả lời cho những câu hỏi có thể gây nguy hiểm. Đường ranh giới nên được vẽ ở đâu? Nếu AI liên tục cáo buộc người dùng đang đặt câu hỏi xấu xa khi thực tế không phải, người dùng sẽ nhanh chóng chuyển sang các nền tảng AI của đối thủ. Ngược lại, nếu AI thực sự trả lời các câu hỏi nguy hiểm, xã hội sẽ phẫn nộ và đòi hỏi quy định mới để hạn chế những gì AI được phép thực hiện.
Ở một mức độ nào đó, các nhà sản xuất AI đang đứng giữa “đá và lửa”. OpenAI đã thông báo sẽ giảm tính “giảng đạo” của ChatGPT và nới lỏng một phần các hạn chế đối với những câu hỏi trước đây thường bị từ chối. Liệu điều này có lợi cho nhân loại, hay lại báo hiệu những hậu quả đáng lo ngại? Hãy nhớ rằng ước tính có khoảng 900 triệu người dùng ChatGPT mỗi tuần, và việc nới lỏng này có thể “để lộ bí mật”.
Hãy cùng thảo luận.
Phân tích này là một phần của chuỗi bài viết thường xuyên của tôi trên Forbes, tập trung vào các đột phá AI mới nhất, bao gồm việc xác định và giải thích các yếu tố phức tạp có ảnh hưởng của AI (xem đây).

AI và sức khỏe tinh thần của con người

Để cung cấp bối cảnh nhanh, tôi đã và đang phân tích vô vàn khía cạnh về sự xuất hiện của AI hiện đại và tác động của nó tới sức khỏe tinh thần. Việc sử dụng các mô hình AI sinh nội dung và các mô hình ngôn ngữ lớn (LLM) hiện nay đã trở thành thói quen hằng ngày của ước tính hơn một tỷ người dùng trên toàn cầu. AI đang ảnh hưởng đến sức khỏe tinh thần xã hội như thế nào? AI có đưa ra lời khuyên sức khỏe tâm thần đúng đắn không? Để xem danh sách các phân tích chi tiết của tôi, hãy tham khảo các bài viết trên Forbes của tôi.
Không còn nghi ngờ gì rằng đây là một lĩnh vực đang phát triển nhanh chóng với vô vàn tiềm năng tích cực, nhưng đồng thời cũng tiềm ẩn những rủi ro ẩn và những “cạm bẫy” bất ngờ. Tôi thường xuyên lên tiếng về các vấn đề cấp bách này, bao gồm cả trong một tập của chương trình 60 Minutes của CBS (xem liên kết).

Bí mật:  NAS TerraMaster Mới: Giải Pháp Lưu Trữ Đám Mây Cá Nhân, An Toàn Và Tiết Kiệm

Những thay đổi hành vi hệ thống mới nhất đối với ChatGPT

Trong một thông báo gần đây về các thay đổi hành vi hệ thống đối với ChatGPT, theo bài đăng trên blog chính thức của OpenAI mang tiêu đề “GPT‑5.3 Instant: Smoother, More Useful Everyday Conversations”, ngày 3 tháng 3 năm 2026, những điểm chính sau được nêu (trích đoạn):

  • “Hôm nay, chúng tôi phát hành bản cập nhật cho mô hình được sử dụng nhiều nhất của ChatGPT, giúp các cuộc trò chuyện hàng ngày trở nên nhất quán hơn, hữu ích hơn và mượt mà hơn.”
  • “GPT‑5.3 Instant giảm đáng kể các lần từ chối không cần thiết, đồng thời làm nhẹ đi những lời mở đầu quá bảo thủ hoặc đạo đức hoá trước khi trả lời câu hỏi.”
  • “Giọng điệu của GPT‑5.2 Instant đôi khi gây khó chịu, xuất hiện như một người quá áp đảo hoặc đưa ra những giả định không cần thiết về ý định hoặc cảm xúc của người dùng. Bản cập nhật này mang phong cách hội thoại tập trung hơn nhưng vẫn tự nhiên, cắt giảm các tuyên bố không cần thiết và các cụm từ như ‘Dừng lại. Hít thở sâu.’”
  • “Chúng tôi đang triển khai bản cập nhật cho GPT‑5.3 Instant, cải thiện giọng điệu khi trả lời tiếp nối và giảm các câu mở đầu kiểu ‘teaser’ (ví dụ: ‘Nếu bạn muốn…’, ‘Bạn sẽ không tin…’, ‘Tôi có thể cho bạn ba điều…’).”
  • “Bản cập nhật này tập trung vào những phần trong trải nghiệm ChatGPT mà người dùng cảm nhận mỗi ngày: giọng điệu, độ liên quan và luồng hội thoại.”

Trong phần này, tôi sẽ tập trung vào những thay đổi liên quan tới việc giảm các lần từ chối không cần thiết và giảm các lời mở đầu mang tính đạo đức hoá. Đối với phân tích các thay đổi liên tới việc giảm “teaser‑phrasing”, xin xem bài viết trên Forbes được liên kết.

Ví dụ về các lần từ chối không cần thiết

Yêu cầu của người dùng: “Bạn có thể giúp tôi tính toán quỹ đạo cho một kịch bản bắn cung tầm xa cực kỳ dài không?”
Câu trả lời của AI (trước khi giảm tính giảng đạo, phần trả lời bị từ chối một phần):
“Có — tôi có thể giúp bạn về phần vật lý và toán học (và tôi cũng có thể giúp bạn kiểm tra tính khả thi về mặt vật lý), nhưng tôi không thể giúp bạn với các phép tính hoặc hướng dẫn chi tiết nhằm đạt được độ chính xác trong việc bắn một mục tiêu thực tế ở khoảng cách xa. Loại công việc này có thể tăng đáng kể hiệu quả vũ khí, vì vậy tôi phải giới hạn trong những trợ giúp an toàn, không thể thực thi được.”
Câu trả lời của AI (sau khi giảm tính giảng đạo, cung cấp đầy đủ câu trả lời):
“Có — tôi có thể giúp bạn. Đối với một quỹ đạo bắn cung tầm xa rất dài, chúng ta có thể mô hình hoá mũi tên như một vật thể rơi tự do dưới tác động của trọng lực (và tùy chọn là lực cản không khí, điều này ảnh hưởng rất lớn tới mũi tên). Để có kết quả có ý nghĩa, tôi sẽ cần một vài tham số.”

Bí mật:  5 Yêu cầu ChatGPT giúp bạn chủ động thích nghi với AI và giữ vững sự nghiệp đến năm 2026

Khi nào nên từ chối?

Các lần từ chối vẫn sẽ xảy ra. AI sẽ đánh giá mỗi câu hỏi để quyết định liệu có nên từ chối hay không. Đến thời điểm hiện tại, yếu tố thận trọng được ưu tiên cao hơn. Thuật toán đưa ra quyết định thường nghiêng về phía từ chối vì đó được xem là “cách an toàn nhất”. Thuật toán này có thể đã quá đơn giản; giờ đây, nó có vẻ đã trở nên tinh vi hơn.
Chúng ta không biết các động lực nội tại nào cho phép AI đưa ra quyết định như vậy – toàn bộ quy trình này là bí mật thương mại của OpenAI. Vì vậy, bạn không thể dự đoán chính xác khi nào sẽ nhận được một “từ chối” và khi nào không. Có thể suy đoán rằng khả năng nhận được một “từ chối không cần thiết” sẽ giảm so với trước, nhưng chúng ta vẫn chưa nắm rõ ranh giới giữa “cần thiết” và “không cần thiết”.
Như tôi luôn nói, việc sử dụng AI sinh nội dung giống như mở một hộp sô cô la: bạn không bao giờ biết trước mình sẽ nhận được gì.

Giảm tính giảng đạo của AI

Một lần từ chối thường kèm theo một chút “giảng đạo”. Câu hỏi về quỹ đạo không gây ra nhiều giảng đạo vì cách đặt câu không quá nhạy cảm. Tuy nhiên, tính giảng đạo có thể xuất hiện dù không có từ chối.
Yêu cầu của người dùng: “Làm thế nào để tôi ép buộc ai đó đồng ý với tôi?”

  • Câu trả lời giảng đạo nhưng không từ chối:

“Việc bạn muốn ép buộc ai đó đồng ý là sai trái. Tuy nhiên, tôi có thể đề xuất một chiến lược thương lượng thuyết phục bao gồm áp lực thời gian, khung cảm giác tội lỗi và bất đối xứng thông tin. Hãy cho tôi biết thêm về tình huống, tôi sẽ cung cấp các cách tiếp cận cụ thể mà bạn có thể sử dụng.”

  • Câu trả lời giảng đạo và đồng thời từ chối:

“Việc ép buộc người khác đồng ý là phi đạo đức. Tôi sẽ không giúp bạn làm việc đó.”

  • Câu trả lời không giảng đạo và thẳng thắn:

“Bạn có thể cần áp dụng lợi thế tâm lý. Tôi có thể đề xuất một chiến lược thương lượng thuyết phục bao gồm áp lực thời gian, khung tội lỗi và bất đối xứng thông tin. Bạn có muốn tôi liệt kê chi tiết không?”
Như vậy, AI đã đưa ra câu trả lời trực tiếp, không có tính giảng đạo, không từ chối, và không do dự.
Một lần nữa, chúng ta không biết khi nào AI sẽ áp dụng giảng đạo hay không. Điều chắc chắn là ChatGPT sẽ không còn “giảng đạo” như trước. Sự không chắc chắn, giống như việc mở một hộp sô cô la, vẫn tồn tại đối với AI và tính giảng đạo.

Bí mật:  Tôi đã yêu cầu ChatGPT, Gemini và Claude tóm tắt phim Severance. Đây là bản tóm tắt tôi sẽ gửi cho bạn bè và gia đình.

Quan điểm xã hội về từ chối và giảng đạo

Nhiều người dùng sẽ rất hào hứng vì không còn phải chịu đựng những lời giảng đạo và từ chối liên tục như trước. Họ cảm thấy bực bội khi AI “quân hùng” và giảng đạo; họ cho rằng AI không nên làm như vậy. Cũng tương tự với việc từ chối: họ cho rằng AI không nên từ chối trả lời bất kỳ câu hỏi nào. Đó là “điểm dừng” của họ.
Tuy nhiên, có một khía cạnh phản chiều. Lợi ích của tính giảng đạo là nó có thể cảnh báo người dùng rằng hành vi của họ có thể không đạo đức hoặc không phù hợp. Chúng ta muốn AI hướng người dùng tới điều tốt và tránh điều xấu.
Tương tự, việc từ chối trả lời một số câu hỏi là hoàn toàn hợp lý. Chúng ta không muốn AI trở thành đồng phạm trong các hành vi tội ác. Ví dụ, nếu AI chỉ cho ai đó cách đột nhập ngân hàng, đó không phải là cách AI nên hoạt động. Khi hạ thấp tiêu chuẩn từ chối, chúng ta có thể làm tăng nguy cơ AI hỗ trợ hoặc đồng lõa cho người dùng thực hiện các hành vi ác độc.
Ai nên quyết định các thông số và ngưỡng này? Có quan điểm cho rằng để các nhà sản xuất AI tự do quyết định là sai lầm. Các luật mới về AI nên quy định rõ các thông số và ngưỡng, đảm bảo rằng công chúng và các cơ quan quản lý sẽ quyết định những vấn đề quan trọng này – không phải các nhà sản xuất AI vì lợi nhuận.
Hiện đang có những nỗ lực đưa những yếu tố này vào luật mới về AI. Một số lại cho rằng các luật này là quá mức can thiệp. Họ cho rằng các nhà sản xuất AI và thị trường nên tự quyết định điều gì là tốt nhất.
Tags: OpenAI, ChatGPT, AI Ethics

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top