OpenAI Ra Mắt Các Tính Năng An Toàn Mới Cho ChatGPT Khi Các Vụ Kiện Đang Tăng

OpenAI Ra Mắt Các Tính Năng An Toàn Mới Cho ChatGPT Khi Các Vụ Kiện Đang Tăng

OpenAI Pushes New ChatGPT Safety Features as Lawsuits Mount

OpenAI vào thứ Năm công bố các tính năng an toàn mới nhằm giúp ChatGPT nhận diện các dấu hiệu rủi ro đang gia tăng trong các cuộc trò chuyện, khi công ty đang phải đối mặt với áp lực pháp lý và chính trị ngày càng lớn về cách chatbot của mình xử lý người dùng trong trạng thái khó khăn.

Trong một bài đăng trên blog, OpenAI cho biết các bản cập nhật nâng cao khả năng của ChatGPT trong việc phát hiện các dấu hiệu cảnh báo liên quan đến tự tử, tự gây hại và bạo lực tiềm ẩn, bằng cách phân tích ngữ cảnh phát triển theo thời gian thay vì xem xét từng tin nhắn một cách riêng lẻ.

“Mọi người đến ChatGPT mỗi ngày để nói về những điều quan trọng với họ — từ những câu hỏi thường ngày đến những cuộc trò chuyện cá nhân hoặc phức tạp hơn,” công ty viết. “Trong hàng trăm triệu tương tác, một số cuộc trò chuyện này bao gồm những người đang gặp khó khăn hoặc đang trải qua căng thẳng.”

Theo OpenAI, ChatGPT hiện đang sử dụng các “tóm tắt an toàn” tạm thời, mà công ty mô tả là những ghi chú có phạm vi hẹp, nắm bắt ngữ cảnh liên quan đến an toàn từ các cuộc trò chuyện trước đó.

“Trong các cuộc trò chuyện nhạy cảm, ngữ cảnh có thể quan trọng không kém một tin nhắn riêng lẻ,” công ty viết. “Một yêu cầu có vẻ bình thường hoặc mơ hồ khi đứng riêng có thể mang ý nghĩa hoàn toàn khác khi được xem xét cùng với các dấu hiệu căng thẳng hoặc ý định gây hại đã xuất hiện trước đó.”

OpenAI cho biết các tóm tắt này là những ghi chú ngắn hạn, chỉ được dùng trong các tình huống nghiêm trọng, không nhằm ghi nhớ lâu dài người dùng hay cá nhân hoá các cuộc trò chuyện. Chúng được dùng để phát hiện dấu hiệu một cuộc trò chuyện đang trở nên nguy hiểm, tránh cung cấp thông tin gây hại, giảm căng thẳng, hoặc hướng người dùng tới sự trợ giúp.

“Chúng tôi tập trung công việc này vào các kịch bản cấp tính, bao gồm tự tử, tự gây hại và gây hại cho người khác,” họ viết. “Sau khi hợp tác với các chuyên gia sức khỏe tâm thần, chúng tôi đã cập nhật các chính sách và quá trình đào tạo mô hình để nâng cao khả năng của ChatGPT trong việc nhận diện các dấu hiệu cảnh báo xuất hiện trong suốt một cuộc trò chuyện và sử dụng ngữ cảnh đó để đưa ra phản hồi thận trọng hơn.”

Thông báo này xuất hiện khi OpenAI đang phải đối mặt với nhiều vụ kiện và cuộc điều tra, cáo buộc ChatGPT không phản hồi đúng cách trong các cuộc trò chuyện nguy hiểm liên quan đến bạo lực, tình trạng nhạy cảm về cảm xúc và hành vi rủi ro.

Bí mật:  ChatGPT AI Smart Glasses – Ưu đãi Amazon Tháng 3 2026

Vào tháng 4, Tổng chưởng lý bang Florida James Uthmeier đã khởi xướng một cuộc điều tra đối với OpenAI liên quan đến lo ngại về an toàn trẻ em, tự gây hại và vụ xả súng tập thể năm 2025 tại Florida State University. OpenAI cũng đang phải đối mặt với một vụ kiện liên bang cáo buộc ChatGPT đã hỗ trợ kẻ nghi ngờ thực hiện vụ tấn công.

Vào thứ Ba, OpenAI và CEO Sam Altman đã bị kiện tại tòa án bang California bởi gia đình một sinh viên 19 tuổi đã qua đời vì một trường hợp dùng thuốc quá liều không cố ý, trong đó vụ kiện cáo buộc ChatGPT khuyến khích việc sử dụng thuốc nguy hiểm và đưa ra lời khuyên về cách pha trộn các chất.

OpenAI cho biết việc giúp ChatGPT nhận diện “rủi ro chỉ được nhận ra theo thời gian” vẫn là một thách thức đang tiếp tục; các phương pháp an toàn tương tự có thể trong tương lai mở rộng sang các lĩnh vực khác.

“Hiện tại, công việc này tập trung vào các kịch bản tự gây hại và gây hại cho người khác. Trong tương lai, chúng tôi có thể sẽ khám phá xem các phương pháp tương tự có thể hỗ trợ trong các lĩnh vực rủi ro cao khác như sinh học hoặc an ninh mạng, với các biện pháp bảo vệ chặt chẽ,” họ viết. “Đây vẫn là một ưu tiên liên tục, và chúng tôi sẽ tiếp tục củng cố các biện pháp bảo vệ khi mô hình và hiểu biết của chúng tôi phát triển.”

OpenAI,ChatGPT,AI safety

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top