
Giữa hai thái cực—một bên là nỗi lo “AI tận thế”, bên kia là sự lạc quan mù quáng—có một thứ gọi là “suy đoán đen” (dark speculation): một phương pháp có hệ thống để suy luận về các kịch bản thảm họa, nhưng không để nỗi sợ chi phối.
Làm sao đánh giá rủi ro thảm họa từ AI mà không rơi vào hai cực: либо gạt đi như chuyện thổi phồng, либо hoảng loạn? Câu hỏi này khiến những cuộc thảo luận có ích và đi đến được quyết định gần như bị kẹt: phe hoài nghi cho rằng lo ngại về an toàn AI chỉ là phỏng đoán bị thổi quá lên; trong khi phe cảnh báo nhấn mạnh rằng các kịch bản như tấn công sinh học do AI hỗ trợ, hệ thống AI vượt ngoài tầm kiểm soát, hoặc sự cố gây tê liệt các hạ tầng trọng yếu có thể xảy ra ngay trong vòng một thập kỷ.
Daniel Carpenter—giáo sư ngành Government tại Harvard, chuyên nghiên cứu về điều tiết và các thiết chế chính trị—tin rằng ông đã tìm ra lối đi qua thế bế tắc này. Cùng một nhóm sinh viên, Carpenter phát triển một khung phân tích mà họ gọi là dark speculation: một cách tiếp cận có hệ thống, kết hợp diễn tập mô phỏng kịch bản đối kháng (war gaming) với các phương pháp mà người nhận bảo hiểm/định phí bảo hiểm (insurance underwriters) dùng để ước tính và định giá rủi ro.
Khác với các đánh giá rủi ro truyền thống do nhà thầu quốc phòng hoặc công ty công nghệ thực hiện, dark speculation chủ động mô hình hóa cách các thiết chế sẽ phản ứng khi mối đe dọa mới xuất hiện—chứ không chỉ kể lại thảm họa có thể diễn tiến ra sao. Khung này mở ra một “vùng giữa”: không phủ nhận những khả năng nguy hiểm nhất của AI, nhưng cũng không coi chúng như thảm họa tất yếu.
Dù dark speculation đem lại một cách nghĩ mới về các rủi ro cực đoan từ AI, không phải ai cũng tin rằng hệ thống bảo hiểm và cơ chế trách nhiệm pháp lý hiện nay tự nó đã đủ sức đảm nhiệm việc này. Hai học giả luật Daniel Schwarcz (Đại học Minnesota) và Josephine Wolff (Đại học Tufts) lưu ý rằng nhiều sự cố liên quan đến AI “không bị luật yêu cầu phải báo cáo, nên có thể cũng không được công khai,” khiến các công ty bảo hiểm thiếu dữ liệu đáng tin cậy để phân tích. Chính khoảng trống ấy là nơi các cách tiếp cận như dark speculation muốn lấp vào.
Một số ý kiến khác cho rằng ngay cả những phương pháp có cấu trúc như vậy vẫn đặt quá nhiều trọng tâm vào các kịch bản tệ nhất. Những nhà đầu tư công nghệ như Marc Andreessen từng cảnh báo rằng chủ nghĩa “AI tận thế” (AI doomerism) có thể làm lệch ưu tiên chính sách; còn Yann LeCun—cựu giám đốc khoa học AI của Meta—nhiều lần bác bỏ nỗi sợ AI đe dọa sự tồn vong là thiếu thực tế. Theo góc nhìn này, các khung phân tích nặng về kịch bản có nguy cơ “hợp thức hóa” những lo âu mang tính phỏng đoán và làm tăng rào cản/thủ tục quan liêu, trong khi không giải quyết những vấn đề cấp thiết hơn trước mắt.
Phỏng vấn: Đánh giá rủi ro AI
Tôi đã trao đổi với Carpenter về công trình của ông.
Paulo Carvão: Phần lớn tranh luận công chúng về rủi ro từ AI tiên phong (frontier AI) thường nhanh chóng phân cực giữa lạc quan và nỗi sợ mang tính tồn vong. Bài báo của ông đưa ra khái niệm “dark speculation” như một lựa chọn thay thế có cấu trúc. Ông muốn giải quyết vấn đề gì bằng cách tiếp cận này?
Daniel Carpenter: Trong tranh luận về rủi ro AI, xã hội thường chú ý quá nhiều đến những tiếng nói to nhất hoặc cực đoan nhất. Trong mọi cuộc tranh luận về một công nghệ có thể làm thay đổi cục diện, lúc nào cũng có phe “doomers” phóng đại những điều có thể đi chệch hướng, và một phe đối lập tin rằng công nghệ đó nhìn chung chỉ mang lại điều tốt. Vấn đề không nằm ở chỗ những tiếng nói ấy tồn tại, mà ở chỗ chúng chiếm gần hết diễn đàn và sự chú ý. Thách thức của xã hội là tạo chỗ đứng cho những phân tích thận trọng, chín chắn và dựa trên dữ liệu/thực tế quan sát được.
Dark speculation là một nỗ lực nhằm tạo không gian cho “vùng giữa” ấy. Nó kết hợp việc xây dựng kịch bản định tính với lập luận định lượng, để rủi ro không bị gạt đi cũng không bị giật gân hóa. Mục tiêu không phải là dự đoán thảm họa, mà là suy luận nghiêm túc về các cơ chế thất bại có khả năng xảy ra, cách chúng có thể diễn tiến và những phản ứng thực tế sẽ trông như thế nào nếu điều đó xảy ra.
Carvão: Một điểm rất đáng chú ý trong nghiên cứu của ông là nhấn mạnh việc tưởng tượng không chỉ “mọi thứ có thể hỏng ở đâu”, mà cả cách các thiết chế có thể phản ứng khi rủi ro bắt đầu lộ diện. Vì sao điểm khác nhau này lại quan trọng?
Carpenter: Một khiếm khuyết phổ biến của nhiều kịch bản rủi ro AI là giả định thất bại diễn ra trong chân không. Thực tế thì chính phủ, doanh nghiệp, bên bảo hiểm và cơ quan quản lý đều phản ứng. Họ học hỏi, thích nghi và huy động nguồn lực—thường không hoàn hảo—nhưng hiếm khi đứng yên. Chúng tôi gọi những việc đó là các biện pháp giảm thiểu (mitigation), và chúng tôi cho rằng mọi kịch bản dùng để phân tích đều cần tính đến yếu tố này.
Khi mô hình hóa rõ ràng các chiến lược giảm thiểu hợp lý, chúng ta sẽ có bức tranh rủi ro thực tế hơn nhiều. Bài báo dùng các kịch bản như: một tác nhân ác ý dùng LLM để phát triển một tác nhân sinh học gây chết người, rồi phát tán trong hệ thống tàu điện ngầm vào giờ cao điểm buổi sáng—có thể khiến hàng trăm hoặc hàng nghìn người thiệt mạng—không phải để khuếch đại nỗi sợ, mà để cho thấy nhà chức trách có khả năng sẽ phản ứng thế nào khi các dấu hiệu cảnh báo xuất hiện. Khi tính đến phản ứng của thiết chế, nhiều kịch bản bớt “kiểu tận thế” hơn và giống những khủng hoảng cực kỳ nghiêm trọng nhưng vẫn có thể kiểm soát. Khác biệt đó rất quan trọng đối với chính sách và các quyết định đầu tư hợp lý.
Carvão: Ông cũng cho rằng những người quen với việc định giá rủi ro—chẳng hạn các chuyên gia định phí/nhận bảo hiểm—có thể giữ vai trò then chốt trong tranh luận về quản trị AI. Góc nhìn của họ thay đổi cuộc trò chuyện như thế nào?
Carpenter: Những người làm định phí/nhận bảo hiểm và quản trị rủi ro kiếm sống bằng việc nghĩ về các kết cục xấu. Nhưng điểm mấu chốt là họ được đào tạo để gán xác suất, chứ không chỉ tưởng tượng ra kịch bản tệ nhất. Họ từng đóng vai trò quan trọng khi đánh giá rủi ro khủng bố trong Terrorism Risk Insurance Program (TRIP), được lập sau các vụ tấn công ngày 11/9.
Khi đưa kỷ luật đó vào phân tích rủi ro, điều thú vị xảy ra: nhiều kịch bản cực đoan hoặc khó tin sẽ tự nhiên bị “hạ trọng số”, đơn giản vì khi xem xét theo xác suất, chúng có vẻ rất khó xảy ra. Đồng thời, các rủi ro ít giật gân hơn nhưng thực tế hơn lại hiện ra rõ ràng. Điều này không làm “nhẹ hóa” rủi ro AI; nó làm cho việc hiểu rủi ro trở nên rõ ràng và thấu đáo hơn.
Carvão: Một số độc giả có thể nghĩ khung phân tích như vậy tất yếu dẫn đến việc siết quy định. Nhưng ông lại gợi ý rằng điều ngược lại cũng có thể đúng. Các nhà hoạch định chính sách và lãnh đạo ngành nên hiểu điều này ra sao?
Carpenter: Bài báo này không nhằm kêu gọi tăng điều tiết chỉ vì “tăng điều tiết”. Thực tế, các phương pháp chúng tôi đề xuất cũng có thể củng cố lập luận giảm điều tiết trong một số bối cảnh. Điểm then chốt là: nếu bất kỳ cách tiếp cận chính sách nào—dù là điều tiết hay không—được dẫn dắt bởi phân tích chi phí–lợi ích (cost-benefit analysis), thì cả phần “chi phí” lẫn phần “lợi ích” đều phải được xem xét nghiêm ngặt.
Phân tích chi phí–lợi ích luôn có phần phỏng đoán, đặc biệt với AI, vì dữ liệu còn hạn chế. Trong các lĩnh vực như an ninh mạng, rủi ro từ AI và rủi ro khủng bố, việc lập kế hoạch có hệ thống và chủ động là điều cần thiết. Thực ra, nhiều chính phủ, viện nghiên cứu, giới học thuật và cả ngành bảo hiểm đã làm việc này từ lâu.
Ngay cả trong một thế giới nơi chính phủ không can thiệp, các công ty AI vẫn phải đối mặt với câu hỏi bảo hiểm, mức độ rủi ro bị kiện/tổn thất trách nhiệm pháp lý và rủi ro về uy tín. Dark speculation cung cấp một cách để suy luận có hệ thống về các rủi ro ấy. Đây là công cụ để ra quyết định tốt hơn, chứ không phải một chương trình nghị sự chính sách được định sẵn.
Carvão: Theo ông, khung này phù hợp thế nào với các lập luận rộng hơn rằng năng lực chủ động của con người (human agency)—chứ không phải nỗi sợ mang tính tồn vong—mới nên dẫn dắt tương lai của AI?
Carpenter: Nỗi sợ mang tính tồn vong thường làm tê liệt phán đoán. Trái lại, human agency nói về trách nhiệm, lựa chọn và năng lực của thiết chế. Điều chúng tôi đề xuất là một cách để “vận hành hóa” (operationalize) năng lực chủ động đó trước sự bất định.
Từ rủi ro trừu tượng đến quyết định trong thế giới thực
Việc “vận hành hóa” ấy đang bắt đầu diễn ra. Dự án tiếp theo của Carpenter được tài trợ bởi Coefficient Giving, một quỹ thiện nguyện hỗ trợ các dự án có tác động cao nhằm giảm thiểu những rủi ro thảm họa mang tính toàn cầu. Dự án sẽ xem xét cách các thiết chế khác nhau tổ chức các bài diễn tập mô phỏng (war gaming), và cách kết hợp việc tạo kịch bản với thực hành định phí/nhận bảo hiểm—điều ông gọi là “cách ngành này được tổ chức và vận hành” (the industrial organization of war gaming).
Công trình này xuất hiện đúng lúc các nhà hoạch định chính sách đang vật lộn với chính loại rủi ro “xác suất thấp nhưng tác động lớn” (tail risks) mà dark speculation được thiết kế để đánh giá. Luật AI mới của California—yêu cầu các nhà phát triển hệ thống tiên tiến công bố thực hành an toàn và báo cáo các sự cố nghiêm trọng—phản ánh nỗ lực ngày càng tăng nhằm đối mặt với những sự kiện hiếm gặp: ít xảy ra, nhưng nếu xảy ra có thể gây thiệt hại rất lớn. Khi các bang tiếp tục thúc đẩy và chính quyền liên bang cân nhắc các tiêu chuẩn AI ở cấp quốc gia, năng lực suy luận rõ ràng về những rủi ro xác suất thấp nhưng tác động lớn này có thể giúp định hình các cách tiếp cận điều tiết—giảm nguy cơ thực sự mà không làm đình trệ đổi mới.
Tags: AI risk assessment, dark speculation, AI governance
Tags: AI risk assessment, dark speculation, AI governance







