Một luật chuyên biệt về AI không còn là khái niệm xa lạ trên thế giới, nhưng cách tiếp cận và thiết kế luật ở mỗi quốc gia phản ánh một chiến lược phát triển và quản trị công nghệ riêng biệt. Luật AI của Việt Nam là một minh chứng rõ nét cho nỗ lực không chỉ đón đầu mà còn định hình cách thức công nghệ này phục vụ con người – một nguyên tắc được nhấn mạnh xuyên suốt trong thiết kế khung pháp lý: AI là công cụ hỗ trợ, quyết định cuối cùng vẫn là con người.
Trên thực tế, nhiều nền kinh tế phát triển đều đã và đang triển khai các khung pháp lý về AI theo hướng cân bằng giữa thúc đẩy đổi mới và bảo vệ quyền lợi công dân, nhưng không quốc gia nào có một cách tiếp cận hoàn toàn giống nhau. Ở châu Âu, “EU AI Act” đang dần hình thành một chuẩn mực toàn khối tập trung vào phân loại rủi ro, minh bạch và bảo vệ quyền cơ bản, thậm chí đề xuất các cơ chế chịu trách nhiệm rõ ràng khi AI gây thiệt hại. Theo đó, AI bị coi là “có rủi ro cao” khi nó được triển khai trong các lĩnh vực thiết yếu như tuyển dụng, tín dụng hay giám sát – những ứng dụng có thể ảnh hưởng trực tiếp tới quyền con người. Tổng thể khung này đặt ra tiêu chuẩn rất cao để giảm nguy cơ sai lệch, phân biệt đối xử hoặc xâm phạm thông tin cá nhân, đồng thời thúc đẩy sự minh bạch trong hệ thống AI. Ở Hoa Kỳ, mặc dù không có luật liên bang toàn diện về AI, một số tiểu bang như California và Colorado đã ban hành các đạo luật riêng biệt yêu cầu công khai dữ liệu huấn luyện, minh bạch rủi ro và giới hạn một số ứng dụng AI để bảo vệ người tiêu dùng khỏi hành vi phân biệt đối xử hoặc thiệt hại nghiêm trọng.
Trong bức tranh đa dạng này, Luật AI của Việt Nam có điểm nhấn riêng biệt và đáng chú ý. Thay vì một khung “xin phép trước khi triển khai”, luật áp dụng nguyên tắc quản lý theo mức độ rủi ro, cho phép doanh nghiệp tự đánh giá hệ thống AI của mình trước khi đưa vào sử dụng và chịu trách nhiệm sau đó khi cơ quan quản lý tiến hành hậu kiểm để xác minh tính an toàn và minh bạch. Đây là một cách tiếp cận kết hợp giữa giảm thủ tục hành chính nhằm khuyến khích sáng tạo – điều rất cần thiết trong một thời đại mà đổi mới AI diễn ra với tốc độ chưa từng có – với cơ chế giám sát hiệu quả để không bỏ sót rủi ro tiềm ẩn.
Điểm cộng đáng kể khác là luật xác định rõ những hành vi bị cấm tuyệt đối, bao gồm việc sử dụng AI để thao túng nhận thức con người, tạo nội dung giả mạo có mục đích lừa đảo, hay lợi dụng các nhóm yếu thế như trẻ em và người cao tuổi – những lĩnh vực mà các khung pháp lý tiến và sâu ở châu Âu và Bắc Mỹ cũng tập trung bảo vệ. Việc cấm tuyệt đối các hành vi vi phạm đạo đức và pháp luật này giúp tạo một hàng rào bảo vệ quyền con người, danh dự và an ninh xã hội, phản ánh một tư duy quản trị AI dựa trên giá trị xã hội chứ không thuần túy kỹ thuật.
So sánh với các cơ chế trên thế giới, Luật AI Việt Nam có sự dung hòa giữa khuôn khổ giám sát theo rủi ro của EU và sự linh hoạt để thúc đẩy sáng tạo giống như các đạo luật ở Hoa Kỳ, trong đó có California yêu cầu tính minh bạch về dữ liệu huấn luyện và Colorado đặt trọng tâm vào bảo vệ người dân khỏi các hệ thống AI “rủi ro cao”. Cách tiếp cận này phù hợp với đặc thù phát triển công nghệ của Việt Nam – một thị trường mạnh về ứng dụng, với nhiều doanh nghiệp SME và startup AI đang nổi lên, nhưng vẫn cần môi trường pháp lý đủ mở để tạo động lực đổi mới và thu hút đầu tư.
Tuy nhiên, khung pháp lý hiện tại của Việt Nam cũng đối mặt một số thách thức mang tính công nghệ sâu sắc. Một trong những thách thức lớn nhất khi triển khai AI là quản trị trách nhiệm pháp lý sau khi hệ thống AI gây thiệt hại thực tế, đặc biệt trong các hệ thống quyết định phức tạp. Nhiều học giả quốc tế chỉ ra rằng trong một bối cảnh AI xuyên biên giới và phức hệ như hiện nay, các khung trách nhiệm pháp lý địa phương vẫn khó bao quát được các rủi ro vượt khỏi biên giới quốc gia – đòi hỏi các đối tác quốc tế cùng phối hợp một tiêu chuẩn toàn cầu về minh bạch, trách nhiệm và bồi thường khi cần thiết. Dù luật của Việt Nam đã phân loại mức rủi ro, nhưng các quy định chi tiết hơn về truy trách nhiệm và giải quyết tranh chấp vẫn cần được hoàn thiện trong các nghị định hướng dẫn thi hành.
Từ góc nhìn công nghệ, Luật Trí tuệ nhân tạo của Việt Nam đặt ra một tiền đề quan trọng cho việc hình thành một hệ sinh thái AI đáng tin cậy và lành mạnh: không chỉ thúc đẩy tích hợp AI vào nền kinh tế số mà còn bảo vệ quyền lợi công dân, trật tự xã hội và lợi ích quốc gia. Nguyên tắc “AI là công cụ hỗ trợ, quyết định cuối cùng vẫn là con người” chính là kim chỉ nam phù hợp với triết lý phát triển công nghệ có trách nhiệm. Điều này đặt Việt Nam vào nhóm các quốc gia tiên phong trong khu vực về quản trị AI – một bước đi cần thiết khi công nghệ này ngày càng thâm nhập vào mọi ngõ ngách của đời sống.
Trong tương lai gần, để luật phát huy hiệu quả tối đa, Việt Nam cần tiếp tục cụ thể hóa các tiêu chuẩn kỹ thuật cho từng mức độ rủi ro, thiết lập các cơ chế giám sát độc lập, và thúc đẩy hợp tác quốc tế về tiêu chuẩn AI. Điều này không chỉ giúp doanh nghiệp nội địa yên tâm đầu tư và triển khai AI một cách an toàn, mà còn góp phần tạo dựng một mô hình quản trị AI có thể chia sẻ và học hỏi trên bình diện toàn cầu.