Luật Trí tuệ nhân tạo chính thức có hiệu lực từ ngày 1/3/2026, đánh dấu lần đầu tiên Việt Nam xây dựng một khuôn khổ pháp lý chuyên biệt cho công nghệ AI – lĩnh vực vừa được kỳ vọng trở thành động lực tăng trưởng mới, vừa tiềm ẩn nhiều thách thức đối với an toàn xã hội, quyền riêng tư và hệ thống pháp luật hiện hành.
Không dừng lại ở việc “theo kịp xu hướng công nghệ”, Luật Trí tuệ nhân tạo cho thấy cách tiếp cận chủ động của Nhà nước: không để công nghệ phát triển vượt trước pháp luật, đồng thời cũng không biến pháp luật thành rào cản đối với đổi mới sáng tạo. Thay vào đó, Luật hướng tới việc tạo dựng một hành lang pháp lý rõ ràng, minh bạch để doanh nghiệp, tổ chức và cá nhân yên tâm đầu tư, nghiên cứu và triển khai AI một cách an toàn, có trách nhiệm và bền vững.
![]() |
| Luật Trí tuệ nhân tạo có hiệu lực từ 1/3/2026: Đặt AI trong khuôn khổ pháp quyền |
Quản lý AI bằng tiếp cận rủi ro – tư duy quản trị hiện đại
Điểm cốt lõi của Luật Trí tuệ nhân tạo là việc áp dụng phương thức quản lý dựa trên phân loại rủi ro, thay vì quản lý đồng loạt mọi hệ thống AI. Theo đó, các hệ thống trí tuệ nhân tạo được phân nhóm dựa trên mức độ tác động và nguy cơ đối với con người, xã hội và trật tự pháp lý.
Phần lớn các hệ thống AI tạo sinh hiện nay – từ hỗ trợ sáng tạo nội dung, xử lý công việc đến giải trí – được xếp vào nhóm rủi ro trung bình, do khả năng tạo ra thông tin sai lệch, gây nhầm lẫn hoặc bị lợi dụng cho các mục đích xấu. Với cách tiếp cận này, Luật không “siết chặt bằng mệnh lệnh hành chính”, mà đặt trọng tâm vào trách nhiệm của nhà cung cấp, nhà phát triển và bên triển khai AI.
Cách làm này phản ánh tư duy quản lý hiện đại, tương đồng với nhiều quốc gia và khu vực tiên tiến, trong đó có Liên minh châu Âu, khi vừa khuyến khích đổi mới sáng tạo, vừa kiểm soát chặt các rủi ro tiềm ẩn.
Từ cảnh báo công nghệ sang chế tài pháp lý: Siết chặt deepfake
Một trong những điểm nhấn chính sách đáng chú ý của Luật Trí tuệ nhân tạo là quy định nghiêm cấm việc sử dụng công nghệ deepfake để lừa đảo hoặc thực hiện các hành vi vi phạm pháp luật. Luật không dừng lại ở những nguyên tắc mang tính đạo đức hay khuyến cáo chung, mà cụ thể hóa bằng các nghĩa vụ kỹ thuật bắt buộc.
Theo đó, nội dung do AI tạo ra hoặc chỉnh sửa phải được gắn nhãn thông báo rõ ràng; các sản phẩm AI phải tích hợp watermark hoặc dấu hiệu nhận dạng nhằm phục vụ việc truy vết, xác minh và xử lý vi phạm khi cần thiết. Đây được xem là bước chuyển quan trọng, đưa quản lý AI từ mức “cảnh báo người dùng” sang buộc các chủ thể phát triển và vận hành AI phải chịu trách nhiệm pháp lý ngay từ khâu thiết kế hệ thống.
Trao quyền can thiệp trực tiếp cho cơ quan quản lý
Luật Trí tuệ nhân tạo cũng lần đầu tiên trao cho cơ quan quản lý nhà nước thẩm quyền can thiệp trực tiếp đối với các hệ thống AI có dấu hiệu rủi ro cao. Bộ Khoa học và Công nghệ được xác định là đầu mối quản lý, có quyền yêu cầu tạm dừng hoạt động, thu hồi hoặc đánh giá lại các hệ thống AI khi phát hiện nguy cơ gây thiệt hại nghiêm trọng cho xã hội, thay vì chỉ dừng ở vai trò kiến nghị hay hướng dẫn như trước đây.
Cùng với đó, Luật quy định rõ các chế tài xử lý đối với hành vi vi phạm. Đối với những hành vi đặc biệt nghiêm trọng, như tạo deepfake khiêu dâm trẻ em, gây rối trật tự xã hội hoặc xâm phạm quyền con người, tổ chức và cá nhân vi phạm không chỉ bị xử phạt hành chính mà còn có thể bị truy cứu trách nhiệm hình sự và buộc bồi thường thiệt hại theo quy định của pháp luật.
Việc Luật Trí tuệ nhân tạo có hiệu lực từ ngày 1/3/2026 được đánh giá là bước đi quan trọng, đặt nền móng pháp lý cho quản lý rủi ro AI tại Việt Nam. Qua đó, khẳng định rõ thông điệp xuyên suốt: công nghệ có thể đi nhanh, nhưng không đứng ngoài khuôn khổ pháp quyền.