Những người ký tên gồm đồng sáng lập OpenAI, Giám đốc bảo mật Anthropic và nhà khoa học đạt giải Nobel Geoffrey Hinton.
Vào thứ Hai vừa qua, hơn 200 cựu lãnh đạo quốc gia, nhà ngoại giao, nhà khoa học đạt giải Nobel, chuyên gia hàng đầu về AI và nhiều chuyên gia khác đã đồng thuận rằng thế giới cần có một thỏa thuận quốc tế về những “giới hạn đỏ” mà AI tuyệt đối không được vượt qua – chẳng hạn như không cho phép AI giả dạng con người hoặc tự nhân bản.
Cùng với hơn 70 tổ chức chuyên về AI, họ đã ký tên vào sáng kiến Lời Kêu Gọi Toàn Cầu về Giới Hạn Đỏ Cho AI [Global Call for AI Red Lines](https://red-lines.ai/#call), thúc giục các chính phủ đạt được một “thỏa thuận chính trị quốc tế về giới hạn đỏ cho AI trước cuối năm 2026”. Những người ký tên nổi bật gồm Geoffrey Hinton – nhà khoa học máy tính Anh-Canada, đồng sáng lập OpenAI Wojciech Zaremba, Giám đốc bảo mật Anthropic Jason Clinton, nhà nghiên cứu Google DeepMind Ian Goodfellow cùng nhiều nhân vật uy tín khác.
> “Chúng tôi không muốn chờ đến khi xảy ra sự cố nghiêm trọng mới hành động… mà mong muốn ngăn chặn những nguy cơ lớn, có thể không thể đảo ngược, ngay từ đầu,” ông Charbel-Raphaël Segerie, Giám đốc Trung tâm An toàn AI Pháp (CeSIA), chia sẻ tại buổi họp báo hôm thứ Hai.
Ông nói thêm: “Nếu các quốc gia chưa thống nhất được hướng đi cho AI, thì ít nhất cũng cần đồng thuận về những điều AI tuyệt đối không được phép làm.”
Thông báo này được đưa ra ngay trước Tuần lễ cấp cao của Đại hội đồng Liên Hợp Quốc lần thứ 80 tại New York, với sự dẫn dắt từ CeSIA, Future Society và Trung tâm AI Tương thích với Con người thuộc Đại học UC Berkeley.
Nhà báo đạt giải Nobel Hòa bình Maria Ressa cũng đã nhắc tới sáng kiến này trong [bài phát biểu khai mạc](https://webtv.un.org/en/asset/k14/k14a609n83) tại kỳ họp, kêu gọi các nỗ lực nhằm “chấm dứt tình trạng thiếu trách nhiệm của các tập đoàn công nghệ lớn thông qua cơ chế giám sát toàn cầu”.
Trên thực tế, một số khu vực đã đặt ra giới hạn đỏ cho AI. Ví dụ, Đạo luật AI của Liên minh châu Âu đã cấm một số ứng dụng AI bị xem là “không thể chấp nhận” trong khối này. Mỹ và Trung Quốc cũng đã đồng ý rằng [vũ khí hạt nhân](https://www.reuters.com/world/biden-xi-agreed-that-humans-not-ai-should-control-nuclear-weapons-white-house-2024-11-16/) phải luôn do con người kiểm soát, không để AI tự động vận hành. Tuy nhiên, thế giới vẫn chưa có sự đồng thuận chung.
Về lâu dài, chỉ dựa vào “cam kết tự nguyện” là chưa đủ, bà Niki Iliadis – Giám đốc Quản trị Toàn cầu về AI tại Future Society – cho biết. Những quy định do các công ty AI tự đặt ra “vẫn chưa đủ để đảm bảo thực thi hiệu quả”. Theo bà, thế giới cần một tổ chức quốc tế độc lập có quyền lực thực sự để xác định, giám sát và buộc thực hiện các giới hạn đỏ này.
> “Các công ty hoàn toàn có thể tuân thủ bằng cách chưa phát triển AGI (trí tuệ nhân tạo tổng quát) cho đến khi đảm bảo được độ an toàn,” Giáo sư Stuart Russell – chuyên gia AI hàng đầu tại UC Berkeley – nhấn mạnh. “Cũng giống như các kỹ sư năng lượng hạt nhân không xây dựng nhà máy nếu chưa biết cách ngăn ngừa sự cố nổ, ngành AI cần chọn hướng đi công nghệ đảm bảo an toàn ngay từ đầu, và chúng ta phải biết chắc rằng họ thực sự làm vậy.”
Giáo sư Russell khẳng định các giới hạn đỏ này không cản trở phát triển kinh tế hay đổi mới sáng tạo, trái với quan điểm phản đối của một số người. “Bạn hoàn toàn có thể dùng AI để thúc đẩy kinh tế mà không cần AGI vượt ngoài kiểm soát,” ông nói. “Việc cho rằng chỉ có hai lựa chọn: hoặc chẩn đoán y học, hoặc chấp nhận nguy cơ AGI hủy diệt thế giới – đó là một lập luận phi lý.”
Theo dõi chúng tôi tại:
– [Facebook](https://www.facebook.com/verge)
– [Threads](https://www.threads.net/@verge)
– [Instagram](https://www.instagram.com/verge)
– [Youtube](https://www.youtube.com/user/theverge)
– [RSS](https://www.theverge.com/rss/index.xml)
Tham khảo thêm các [gợi ý ChatGPT sáng tạo nội dung hay nhất của tôi](https://aiphogpt.com)




