Khi Luật Trí tuệ nhân tạo của Việt Nam chính thức có hiệu lực từ 1/3/2026, đánh dấu một bước ngoặt pháp lý quan trọng theo hướng chủ động quản trị công nghệ nền tảng, Việt Nam chính thức gia nhập nhóm quốc gia ban hành luật chuyên biệt về AI – gồm Liên minh châu Âu (EU) và Hàn Quốc – với cách tiếp cận mang dấu ấn chiến lược riêng trong bối cảnh AI đang tái định hình mọi mặt kinh tế, xã hội và công nghệ toàn cầu.
Luật AI của Việt Nam đặt con người ở vị trí trung tâm, xác định AI là công cụ hỗ trợ quyết định, không thay thế vai trò chủ thể của con người và yêu cầu giám sát con người trong các quyết định quan trọng do AI tham gia. Khung này kết hợp giữa thúc đẩy đổi mới và kiểm soát rủi ro bằng cách phân loại hệ thống AI theo mức độ rủi ro (thấp, trung bình, cao) và tập trung quản lý hành vi đầu ra và cách sử dụng AI, thay vì can thiệp sâu vào thuật toán nội bộ của doanh nghiệp. Đồng thời, luật yêu cầu rõ ràng các hành vi bị cấm như tạo nội dung gây hại hay vi phạm đạo đức, và đặt ra cơ chế hậu kiểm nhằm giảm chi phí tuân thủ cho doanh nghiệp.
So sánh với Liên minh châu Âu, EU AI Act – đạo luật AI toàn diện đầu tiên trên thế giới – lại xây dựng một mô hình quy định rất nghiêm ngặt và chi tiết theo nguyên tắc phân loại rủi ro, bao gồm các hệ thống bị cấm hoàn toàn (ví dụ như các hệ thống giám sát xã hội xâm phạm quyền riêng tư), các hệ thống rủi ro cao (như AI trong y tế, tuyển dụng, tín dụng) phải tuân thủ loạt tiêu chuẩn kỹ thuật, minh bạch dữ liệu, đánh giá tác động xã hội và báo cáo định kỳ, cũng như có thể chịu mức phạt rất lớn (lên tới 7% doanh thu toàn cầu) nếu không tuân thủ các quy định này. EU AI Act cũng có phạm vi ngoại biên, áp dụng với các công ty bên ngoài EU nếu sản phẩm AI của họ được đưa ra thị trường EU.
Trong khi đó, Luật AI Hàn Quốc – AI Basic Act được thông tin là khung pháp lý toàn diện đầu tiên được thi hành sớm nhất trên thế giới, với mục tiêu không chỉ kiểm soát mà còn xây dựng niềm tin xã hội vào AI và thúc đẩy ngành này trở thành trọng tâm cạnh tranh quốc gia. Luật Hàn Quốc hợp nhất nhiều đạo luật rời rạc trước đây, đặt ra trách nhiệm minh bạch đối với các hệ thống AI “có tác động cao”, yêu cầu dán nhãn nội dung AI và thông báo trước với người dùng khi dịch vụ sử dụng AI. Hàn Quốc cũng thiết kế các biện pháp như báo cáo an toàn đối với mô hình cực mạnh, cùng với giai đoạn miễn trừ xử phạt kéo dài ít nhất một năm, nhằm giúp doanh nghiệp thích ứng.
Nhìn từ góc độ chiến lược, ba khung pháp lý này phản ánh ba cách tiếp cận khác nhau trên trục quản trị AI toàn cầu: EU đặt quyền cơ bản và an toàn lên hàng đầu với các tiêu chuẩn kỹ thuật chi tiết và trừng phạt nặng; Hàn Quốc theo đuổi một mô hình “niềm tin – minh bạch” toàn diện, đi đôi với thúc đẩy đổi mới; còn Việt Nam chọn cách cân bằng linh hoạt giữa thúc đẩy đổi mới và quản lý rủi ro, phù hợp với bối cảnh doanh nghiệp công nghệ nội địa đang phát triển mạnh nhưng quy mô chưa đủ lớn để gánh chịu mô hình siêu nghiêm ngặt.
Điểm mạnh của chiến lược Việt Nam là giảm thiểu gánh nặng thủ tục hành chính, khuyến khích mô hình hậu kiểm và tự đánh giá rủi ro thay vì giấy phép trước khi triển khai, đồng thời giữ nguyên tắc con người kiểm soát quyết định cuối cùng. Đặc biệt, luật cũng định hướng xây dựng quỹ phát triển AI quốc gia, ưu tiên các dataset quốc gia và ngôn ngữ bản địa, thúc đẩy đào tạo và nghiên cứu nội địa, nhằm tăng tính tự chủ công nghệ theo hướng bền vững.
Tuy nhiên, học hỏi từ kinh nghiệm quốc tế cho thấy Việt Nam vẫn còn các khoảng trống cần hoàn thiện trong chi tiết thực thi. Chẳng hạn, EU yêu cầu các hệ thống AI rủi ro cao phải tuân thủ các tiêu chuẩn rõ ràng về tính minh bạch, chất lượng dữ liệu, an toàn và bảo mật, điều này giúp giảm nguy cơ thiệt hại cho người dùng ở các lĩnh vực nhạy cảm. Hàn Quốc cũng đưa ra các nghĩa vụ minh bạch và dán nhãn đối với nội dung AI, tạo sự tin cậy hơn trong mắt công chúng. Những biện pháp này nếu được bổ sung vào hệ thống các nghị định hướng dẫn thi hành ở Việt Nam sẽ giúp tăng độ tin cậy, tính nhất quán pháp lý và giảm rủi ro bị lạm dụng đối với các hệ thống AI rộng rãi.
Một ví dụ cụ thể là việc yêu cầu gắn nhãn nội dung AI và minh bạch tương tác với người dùng – điều mà cả EU và Hàn Quốc đều quy định trong khung của họ để chống thông tin sai lệch và deepfake. Trong khi Luật AI Việt Nam cũng yêu cầu minh bạch khi AI được dùng, việc thể chế hóa các tiêu chuẩn kỹ thuật, phương pháp đánh giá và cách thức giám sát sẽ là yếu tố quyết định hiệu quả quản trị trong thực tế. Học hỏi từ Hàn Quốc, việc gắn nhãn rõ ràng các nội dung tạo sinh và công khai tính năng AI của dịch vụ sẽ giúp người dùng hiểu rõ họ đang tương tác với hệ thống máy móc, giảm nguy cơ nhầm lẫn và bị thao túng dữ liệu.
Cùng với đó, Việt Nam có thể cân nhắc phát triển các nhóm tiêu chuẩn “high-impact AI” mang tính quốc gia, lấy cảm hứng từ EU và Hàn Quốc, nhằm xác định rõ ràng những hệ thống AI nào phải chịu quy định kiểm tra nghiêm ngặt hơn – chẳng hạn AI trong lĩnh vực y tế, tài chính, pháp lý hoặc an ninh công cộng. Điều này không chỉ tạo ra môi trường vận hành an toàn hơn cho người dân mà còn tạo dựng lòng tin đối với công nghệ, từ đó thu hút vốn đầu tư và nguồn lực chất lượng cao vào lĩnh vực AI trong nước.
Trong bối cảnh AI trở thành động lực công nghệ chiến lược toàn cầu, việc so sánh và học hỏi từ các mô hình pháp lý tiên tiến như của EU và Hàn Quốc không chỉ giúp Việt Nam hoàn thiện khung pháp luật hiện tại, mà còn đặt nền móng cho một hệ sinh thái AI phát triển bền vững, minh bạch và đáng tin cậy hơn. Đây là điều kiện tiên quyết để khiến doanh nghiệp công nghệ Việt Nam không chỉ tuân thủ pháp luật mà còn chủ động hội nhập sâu hơn vào thị trường quốc tế – nơi quy tắc công nghệ đang nhanh chóng trở thành quy tắc kinh doanh và quyền cơ bản của công dân số trong thế kỷ XXI.