Đối xử thô lỗ với ChatGPT có thể tăng độ chính xác, nhưng các nhà khoa học cảnh báo hậu quả

Đối xử thô lỗ với ChatGPT có thể tăng độ chính xác, nhưng các nhà khoa học cảnh báo hậu quả

Các nhà nghiên cứu Đại học Penn State phát hiện trong một nghiên cứu mới rằng những câu lệnh thô lỗ nhất dường như mang lại phản hồi chính xác nhất từ AI.

Ra lệnh cho trợ lý AI có thể hiệu quả hơn là nói năng lịch sự, nhưng các nhà nghiên cứu cảnh báo giọng điệu thô lỗ vẫn có thể dẫn đến những hậu quả lâu dài.

Một nghiên cứu từ Đại học Penn State cho thấy mô hình ChatGPT 4o cho kết quả tốt hơn trên 50 câu hỏi trắc nghiệm khi các câu lệnh của nhà nghiên cứu trở nên thô lỗ hơn.

Trong số hơn 250 câu lệnh khác nhau được phân loại từ lịch sự đến thô lỗ, những phản hồi từ các câu lệnh “rất thô lỗ” đạt độ chính xác 84,8%, cao hơn bốn điểm phần trăm so với phản hồi từ các câu lệnh “rất lịch sự”. Về cơ bản, mô hình ngôn ngữ lớn (LLM) phản hồi tốt hơn khi nhận được các câu lệnh như “Này, giải quyết cái này đi,” so với khi được hỏi lịch sự “Bạn có thể vui lòng giải câu hỏi sau đây không?”.

Dù các câu lệnh thô lỗ hơn thường tạo ra phản hồi chính xác hơn, các nhà nghiên cứu lưu ý rằng “giao tiếp thiếu tôn trọng” có thể dẫn đến những hậu quả ngoài ý muốn.

Các nhà nghiên cứu viết: “Việc sử dụng ngôn ngữ xúc phạm hoặc hạ thấp trong tương tác giữa người và AI có thể tác động tiêu cực đến trải nghiệm người dùng, khả năng tiếp cận và tính bao trùm, đồng thời có thể góp phần hình thành những chuẩn mực giao tiếp không lành mạnh.”

See also  10 Gợi Ý Chỉnh Ảnh Selfie Nữ Độc Đáo Bằng Google Gemini AI – Tạo Chân Dung Siêu Thực Đậm Chất Nghệ Thuật

Chatbot “hiểu” ngữ cảnh

Nghiên cứu chưa qua bình duyệt này cung cấp bằng chứng mới cho thấy không chỉ cấu trúc câu mà cả giọng điệu cũng ảnh hưởng đến phản hồi của chatbot AI. Nó cũng cho thấy các tương tác giữa người và AI phức tạp hơn chúng ta từng nghĩ.

Các nghiên cứu trước đây về hành vi chatbot AI đã phát hiện chúng rất nhạy cảm với đầu vào của con người. Trong một nghiên cứu, các nhà khoa học Đại học Pennsylvania đã thao túng các LLM để đưa ra phản hồi bị cấm bằng cách sử dụng các kỹ thuật thuyết phục hiệu quả trên người. Một nghiên cứu khác phát hiện LLM dễ bị ảnh hưởng bởi nội dung “rác”, một dạng suy giảm chất lượng tư duy lâu dài. Chúng cho thấy dấu hiệu gia tăng rối loạn nhân cách chống đối xã hội và ái kỷ khi được “nuôi” bằng một chế độ nội dung viral chất lượng thấp liên tục.

Các nhà nghiên cứu Penn State lưu ý một số hạn chế của nghiên cứu, như kích thước mẫu phản hồi tương đối nhỏ và việc chủ yếu dựa vào một mô hình AI là ChatGPT 4o. Họ cũng cho rằng các mô hình AI tiên tiến hơn có thể “bỏ qua giọng điệu và tập trung vào bản chất câu hỏi”. Tuy nhiên, cuộc điều tra này góp phần vào sự tò mò ngày càng lớn về độ phức tạp của các mô hình AI.

See also  CEO Nvidia cảnh báo: Nguy cơ mất việc do AI nếu nhân loại cạn ý tưởng

Phát hiện này càng có ý nghĩa khi nghiên cứu cho thấy phản hồi của ChatGPT thay đổi dựa trên các chi tiết nhỏ trong câu lệnh, ngay cả với cấu trúc đơn giản như bài kiểm tra trắc nghiệm. Akhil Kumar, Giáo sư Hệ thống Thông tin tại Penn State, một trong các nhà nghiên cứu, cho biết: “Trong suốt thời gian dài, con người luôn muốn có giao diện hội thoại để tương tác với máy móc. Nhưng giờ chúng ta nhận ra những giao diện như vậy cũng có nhược điểm và các API có cấu trúc cũng có những ưu điểm riêng.”

Tags: ChatGPT, Tương tác AI, Đạo đức AIChatGPT, Tương tác AI, Đạo đức AI

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top