AI đang dần đóng vai trò như một tác nhân thể chế. Sự chuyển dịch này đòi hỏi những cuộc đối thoại về quản trị phải có cấu trúc và bền bỉ hơn, tập trung vào trách nhiệm giải trình, đạo đức, các khung tin cậy, cơ chế xác minh, động lực quyền lực toàn cầu, tác động xã hội và câu hỏi cốt lõi: “Những giá trị nào sẽ được mã hóa vào các hệ thống luật pháp và chính sách mới?”.
Hiện nay, AI đã vượt ra khỏi phạm vi của một phần mềm đơn thuần để bước vào kỷ nguyên hạ tầng toàn cầu. Khi AI không còn chỉ là công cụ hỗ trợ năng suất mà bắt đầu vận hành như một tác nhân thể chế, chúng ta cần những thảo luận sâu rộng hơn về quản trị. Trọng tâm của các thảo luận này phải là trách nhiệm, khung tin cậy, khả năng xác minh, cán cân quyền lực toàn cầu, tác động xã hội và việc định hình các giá trị cốt lõi cho các hệ thống luật pháp, chính sách đang hình thành.
Trường Luật Stanford, đơn vị được U.S. News xếp hạng là trường luật hàng đầu nước Mỹ, gần đây đã tổ chức hội nghị FutureLaw lần thứ mười ba tại khuôn viên trường thông qua CodeX – trung tâm đổi mới công nghệ pháp lý toàn cầu của mình.
CodeX là một trung tâm đa ngành thuộc Trường Luật và Khoa Khoa học Máy tính của Stanford, chuyên phát triển tin học pháp lý nhằm nâng cao hiệu quả, tính minh bạch và khả năng tiếp cận của các hệ thống tư pháp.
Năm nay, hội nghị quy tụ các nhà lãnh đạo toàn cầu trong lĩnh vực luật pháp, công nghệ, chính sách và học thuật để khám phá những biên giới mới của tin học pháp lý. Cùng với các nhà nghiên cứu, doanh nhân và chuyên gia đang nỗ lực xây dựng các hệ thống có trách nhiệm, tôi đã tham gia thảo luận về cách các thể chế thiết kế khung pháp lý để điều tiết, xác minh và hợp tác với các hệ thống AI ngày càng độc lập, đồng thời định hình các nguyên tắc và giao thức sẽ chi phối thập kỷ tới của luật pháp kỹ thuật số.
Dưới đây là bốn nhận định then chốt từ FutureLaw 2026 của Stanford và những gì chúng tiết lộ về tương lai của AI cùng tác động toàn cầu của nó.
—
1. AI Được Xây Dựng Trên Hai Mô Hình Ra Quyết Định Cạnh Tranh
Trong phiên thảo luận Quy Tắc, Mẫu và Hỗn Hợp thuộc chương trình AI For Good Law Track tại Liên Hợp Quốc, do Jeannette Eicks – Phó Trưởng khoa và Giáo sư Luật tại The Colleges of Law, cùng Oliver Goodenough – Thành viên CodeX Stanford và Giáo sư nghiên cứu tại Trường Luật và Sau đại học Vermont – chủ trì, các đại biểu đã xem xét ranh giới nền tảng trong trí tuệ nhân tạo giữa các hệ thống dựa trên quy tắc và các hệ thống dựa trên xác suất.
Họ chỉ ra rằng AI không suy luận theo một cách duy nhất mà vận hành dựa trên hai logic khác nhau. Một số hệ thống tuân theo các quy tắc rõ ràng, tương tự như lập luận pháp lý truyền thống; trong khi các hệ thống khác lại dựa vào các mô hình xác suất được rút ra từ mẫu dữ liệu.
Sự phân biệt này quyết định phương thức ra quyết định, khả năng giải thích và mức độ tin cậy. Hệ thống dựa trên quy tắc thúc đẩy tính nhất quán và trách nhiệm giải trình nhưng có thể cứng nhắc và khó tiếp cận. Ngược lại, hệ thống dựa trên xác suất mở rộng khả năng tiếp cận nhờ quy mô và tính thích ứng, nhưng lại tiềm ẩn nguy cơ tái tạo các thiên kiến lịch sử đã được nhúng sẵn trong dữ liệu huấn luyện.
Khi AI được tích hợp vào dịch vụ pháp lý, hoạt động doanh nghiệp, hệ thống chính phủ, giáo dục, y tế và các quyết định hằng ngày, thách thức không còn nằm ở tiến bộ kỹ thuật đơn thuần. Vấn đề cốt lõi là cân bằng giữa các nguyên tắc pháp lý có cấu trúc và máy học thích ứng sao cho hiệu quả đạt được không đi kèm với bất công, thiếu minh bạch hay sự suy giảm trong khả năng tiếp cận công lý.
Hiểu rõ tính lưỡng diện này giúp các nhà thiết kế đưa ra những quyết định có chủ đích: khi nào cần ưu tiên quy tắc để đảm bảo công bằng, và khi nào nên tận dụng hệ thống xác suất để đạt quy mô, đồng thời giảm thiểu thiên kiến và sự mơ hồ trong các quyết định quan trọng như phân bổ nguồn lực hay cung cấp dịch vụ.
—
2. Chi Phí, Hiệu Suất và Khả Năng Kiểm Toán Trong Các Hệ Thống AI
Cũng trong phiên Quy Tắc, Mẫu và Hỗn Hợp, các nhà lãnh đạo đã xem xét cách các tác nhân AI đang định hình lại chi phí, hiệu suất và trách nhiệm giải trình trong các hệ thống pháp lý và doanh nghiệp. Chủ đề trung tâm là tầm quan trọng ngày càng tăng của tính kiểm toán, khả năng lý luận dựa trên bối cảnh văn hóa và sự tinh tế trong ra quyết định khi triển khai trên quy mô toàn cầu.
Các tác nhân AI ngày càng được sử dụng để tự động hóa các công việc pháp lý thường nhật, tối ưu hóa dịch vụ công và hỗ trợ phát triển hạ tầng bằng cách giảm bớt gánh nặng hành chính, cải thiện sự phối hợp ở quy mô lớn. Chúng có thể xử lý đơn xin trợ cấp, soạn thảo tài liệu và phân loại yêu cầu của công dân nhanh hơn các hệ thống truyền thống, qua đó mở rộng khả năng tiếp cận các dịch vụ vốn thường bị trì hoãn hoặc thiếu nguồn lực.
Tuy nhiên, những hiệu suất này đặt ra các câu hỏi cấp bách về tính minh bạch và trách nhiệm giải trình trong các lĩnh vực rủi ro cao như sức khỏe tâm thần, nhà ở, truy cập internet, hỗ trợ cộng đồng thiếu nguồn lực và trợ giúp pháp lý. Tại những lĩnh vực này, các quyết định tự động bắt buộc phải được giải thích rõ ràng, có khả năng thích ứng và chịu sự kiểm toán để đảm bảo công bằng, ngăn chặn việc củng cố các bất công hiện hữu.
—
3. Tại Sao AI Cần Sự Giám Sát Liên Ngành
Một thách thức trung tâm là nhiều công ty khởi nghiệp hầu như chỉ dựa vào các kỹ sư, điều này có thể gây hại khi các hệ thống được xây dựng mà thiếu đi sự đóng góp từ các chuyên môn khác. Sonia M. Gipson Rankin – học giả pháp lý, nhà giáo dục, khoa học gia máy tính và luật sư – đã nhấn mạnh tầm quan trọng của các đội ngũ liên ngành trong việc phát triển và kiểm thử AI tại hội thảo UN AI For Good Law Track, được tổ chức cùng với DLA Piper LLP.
Cuộc thảo luận chỉ ra rủi ro khi bỏ qua các yếu tố về thiết kế, tác động và đạo đức trong các hệ thống quyết định kết quả pháp lý, xã hội và thể chế.
Quan điểm này cũng được phản ánh trong panel AI Companions: Design, Safety and Governance (Các đồng hành AI: Thiết kế, An toàn và Quản trị), nơi các diễn giả bàn luận về các rủi ro sức khỏe tâm thần và pháp lý phát sinh khi các công ty chỉ tập trung vào thiết kế kỹ thuật mà không thu hút các chuyên gia chuyên ngành. Ashleigh Golden, PsyD, MSCP của Wayhaven, đã bổ sung quan điểm về cả rủi ro lẫn cơ hội của công nghệ đồng hành, nhấn mạnh sự hợp tác giữa kỹ sư, khoa học gia máy tính và các chuyên gia sức khỏe hành vi nhằm giảm thiểu tác hại, tăng cường niềm tin và bảo vệ những người dùng dễ bị tổn thương (trẻ em, người khuyết tật và người cao tuổi).
Xuyên suốt các cuộc đối thoại, một chủ đề nhất quán đã nổi lên: năng lực kỹ thuật đơn thuần là không đủ để đáp ứng nhu cầu thực tế của người dùng. Hợp tác liên ngành đã trở thành yêu cầu nền tảng cho sự đổi mới có trách nhiệm.
—
4. AI Như Một Hạ Tầng
Tương lai của AI sẽ được định hình bởi cả tiến bộ kỹ thuật và các hệ thống quản trị, thiết kế cùng trách nhiệm giải trình quyết định cách nó được đưa vào xã hội. Khi AI trở nên thiết yếu hơn trong hạ tầng của các hệ thống pháp lý, dịch vụ công và đời sống kinh tế, nó đóng vai trò như một lớp nền tảng của các thể chế hiện đại. Trong bối cảnh này, trách nhiệm không còn thuộc về một tổ chức hay ngành duy nhất.
Thay vào đó, một thách thức công cộng chung đã xuất hiện. Chính phủ, doanh nghiệp, học viện và cộng đồng dân sự phải phối hợp để đảm bảo các hệ thống này hoạt động hiệu quả, có khả năng mở rộng, minh bạch và có trách nhiệm, đồng thời phục vụ lợi ích chung. Điều này đòi hỏi chúng ta phải chuyển từ các quyết định tuyến tính, rời rạc sang các khung chung kết nối thiết kế kỹ thuật với sự giám sát về mặt pháp lý, xã hội và đạo đức.
Con đường phía trước là xây dựng các hệ thống tiên tiến hơn, đáng tin cậy và có thể đo lường được. Điều đó đồng nghĩa với việc thiết lập các cấu trúc quản trị chung thay vì phân tán; củng cố giám sát tại giao điểm giữa luật pháp, chính sách, kinh tế và công nghệ; cũng như đặt ưu tiên vào trách nhiệm giải trình trong cách các hệ thống AI được thiết kế, triển khai và mở rộng trên toàn xã hội.
—
Tags: AI Infrastructure, Legal Tech, FutureLaw







