Dự án Luật Trí tuệ nhân tạo (AI) đặt AI làm động lực tăng trưởng nhanh, bền vững, bảo đảm chủ quyền số quốc gia, đồng thời thiết lập cơ chế quản lý minh bạch, an toàn và trách nhiệm, ứng phó các tác động xã hội do AI mang lại.

Tiếp tục chương trình Kỳ họp thứ 10, ngày 21/11, Quốc hội nghe trình bày Tờ trình và Báo cáo thẩm tra về dự án Luật Trí tuệ nhân tạo (AI).
Trình bày Tờ trình, Bộ trưởng Bộ KH&CN Nguyễn Mạnh Hùng cho biết, dự án Luật Trí tuệ nhân tạo gồm 8 chương, 36 điều, nhằm thể chế hóa đầy đủ chủ trương của Đảng và Nhà nước về phát triển AI; đồng thời xây dựng hành lang pháp lý đột phá để thúc đẩy đổi mới sáng tạo, nâng cao năng lực cạnh tranh quốc gia và bảo đảm chủ quyền số.
Theo Bộ trưởng Nguyễn Mạnh Hùng, Luật Trí tuệ nhân tạo là luật khung, linh hoạt và thích ứng với sự phát triển của công nghệ. Luật quy định một cách có hệ thống, toàn diện các biện pháp nhằm cân bằng giữa quản lý và thúc đẩy hoạt động nghiên cứu, phát triển, triển khai và ứng dụng trí tuệ nhân tạo tại Việt Nam.
Luật Trí tuệ nhân tạo đặt con người làm trung tâm với nguyên tắc tối cao là AI phục vụ con người, không thay thế con người, con người giám sát trí tuệ nhân tạo ở những quyết định trọng yếu; trí tuệ nhân tạo phải minh bạch, trách nhiệm và an toàn.
Luật Trí tuệ nhân tạo quản lý hệ thống trí tuệ nhân tạo theo mức độ rủi ro, khuyến khích phát triển trí tuệ nhân tạo trong nước và tự chủ về trí tuệ nhân tạo, lấy trí tuệ nhân tạo làm động lực tăng trưởng nhanh, bền vững và bảo đảm chủ quyền số quốc gia.
Dự án Luật đồng thời kế thừa và bãi bỏ những quy định về AI trong Luật Công nghiệp công nghệ số (Luật số 71/2025/QH15), bổ sung các “khoảng trống” pháp lý hiện nay và tham khảo có chọn lọc kinh nghiệm quốc tế để phù hợp với điều kiện Việt Nam.
Luật Trí tuệ nhân tạo quy định về thúc đẩy hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo; quyền, nghĩa vụ của tổ chức, cá nhân có liên quan; và quản lý nhà nước đối với các hoạt động trí tuệ nhân tạo tại Việt Nam.
Đối tượng áp dụng của Luật Trí tuệ nhân tạo là cơ quan, tổ chức, cá nhân Việt Nam và tổ chức, cá nhân nước ngoài có hoạt động phát triển, cung cấp, triển khai, sử dụng hệ thống trí tuệ nhân tạo tại Việt Nam hoặc có hệ thống trí tuệ nhân tạo tạo ra kết quả được sử dụng tại Việt Nam.

Trình bày Báo cáo thẩm tra, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải cho biết, Ủy ban nhất trí với sự cần thiết ban hành Luật Trí tuệ nhân tạo để bổ sung và hoàn thiện khung pháp lý hiện có, thiết lập cơ chế quản lý thống nhất, đồng bộ, toàn diện và linh hoạt hơn, phù hợp với đặc thù của lĩnh vực trí tuệ nhân tạo; thúc đẩy hội nhập, công nhận lẫn nhau về công nghệ. Qua đó nâng cao vị thế của Việt Nam trong chuỗi giá trị toàn cầu và mở rộng hợp tác quốc tế trong lĩnh vực trí tuệ nhân tạo.
Về phân loại và quản lý hệ thống AI theo rủi ro, Ủy ban cơ bản nhất trí với việc phân loại rủi ro thành 4 mức (rủi ro thấp, trung bình, cao và không chấp nhận được).
Tuy nhiên, dự thảo Luật chưa xác định rõ tiêu chí định lượng hoặc định tính để xác định và phân loại rủi ro, chưa có các quy định về biện pháp quản lý, công cụ và phương pháp đánh giá rủi ro nên việc phân loại, tự phân loại rủi ro gặp khó khăn, dẫn đến lo ngại về trách nhiệm pháp lý trong triển khai.
Về cơ sở dữ liệu quốc gia hệ thống trí tuệ nhân tạo, và cơ sở dữ liệu phục vụ trí tuệ nhân tạo, Ủy ban đề nghị bổ sung nguyên tắc cốt lõi để đảm bảo chất lượng đối với dữ liệu phục vụ AI như: Dữ liệu phải "đúng - đủ - sạch - sống" và thống nhất dùng chung; có cơ chế kết nối liên thông, chia sẻ dữ liệu không để dữ liệu bị phân tán tạo điểm nghẽn trong nghiên cứu, phát triển AI; có quy định nguyên tắc bắt buộc về đảm bảo an ninh mạng, bảo mật dữ liệu và phòng vệ đối với hạ tầng AI quốc gia, chống nguy cơ chiếm quyền điều khiển, rò rỉ dữ liệu.
Về trách nhiệm pháp lý, do AI có thể thực hiện những hành vi mà con người thực hiện, trong khi trách nhiệm của bản thân AI còn nhiều tranh luận, Luật cần bổ sung nguyên tắc phân định rõ trách nhiệm giữa các chủ thể, kể cả tổ chức nước ngoài cung cấp dịch vụ xuyên biên giới, và phân biệt các trường hợp cố ý, vô ý hoặc lỗi kỹ thuật không thể tiên lượng.
Về trách nhiệm pháp lý của các bên liên quan, những hành vi và lỗi do con người thực hiện thì AI cũng có thể thực hiện. Trong khi đó, trách nhiệm pháp lý của bản thân AI còn nhiều quan điểm rất khác nhau nên rất khó xác định trách nhiệm theo nghĩa truyền thống. Khi có vụ việc phát sinh sẽ gây tranh chấp về trách nhiệm hành chính, dân sự, hình sự.
Do vậy, cần bổ sung nguyên tắc để phân biệt trách nhiệm giữa các chủ thể, các bên liên quan kể cả đối với nhà cung cấp nước ngoài khi cung cấp dịch vụ AI xuyên biên giới và phân biệt giữa các trường hợp cố ý, không cố ý hoặc lỗi do giới hạn kỹ thuật, không tiên lượng được trước.
Bên cạnh đó, Ủy ban đề nghị bổ sung một mục riêng về việc sử dụng AI trong đào tạo, nghiên cứu và đổi mới sáng tạo. Dự thảo Luật chưa có quy định về nội dung này.
Tuy nhiên, đây đang là khu vực tạo ra những đột phá, giá trị vượt trội mà con người chưa thể vươn tới được theo cách truyền thống, chẳng hạn như AI đã hỗ trợ thiết kế protein, tìm ra vật liệu mới mà con người chưa từng biết đến, nhưng vấn đề vẫn còn bỏ ngỏ như: Quyền tác giả, bảo vệ dữ liệu nghiên cứu, cơ chế chia sẻ dữ liệu nghiên cứu và cơ chế thử nghiệm có kiểm soát (sandbox) đối với các dự án có giá trị khoa học cao, miễn trừ trách nhiệm đối với rủi ro trong quá trình thử nghiệm khi tổ chức, cá nhân đã tuân thủ đúng quy định…
Ngoài ra, AI phát triển sẽ ảnh hưởng mạnh đến cơ hội việc làm của con người, đến quyền riêng tư và nhiều giá trị văn hóa, đạo đức. Do đó, cần bổ sung quy định về nguyên tắc đối với việc đánh giá tác động xã hội của AI kèm theo biện pháp để ứng phó với sự thay đổi xã hội do AI mang lại.