
Chỉ đạo mới về Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao (Công văn 1101/BKHCN-CNS&CĐS) (Hình từ Internet)
Ngày 03/3/2026, Bộ Khoa học và Công nghệ đã ban hành Công văn 1101/BKHCN-CNS&CĐS về việc đề xuất Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.
![]() |
Công văn 1101/BKHCN-CNS&CĐS năm 2026 |
Theo đó, thực hiện Luật Trí tuệ nhân tạo 2025 và nhiệm vụ được Thủ tướng Chính phủ giao tại Quyết định 2835/QĐ-TTg năm 2025 về ban hành Danh mục và phân công cơ quan chủ trì soạn thảo văn bản quy định chi tiết thi hành các luật, nghị quyết được Quốc hội khoá XV thông qua tại Kỳ họp thứ 10.
Bộ Khoa học và Công nghệ (Bộ KHCN) đã chủ trì, phối hợp với các cơ quan liên quan xây dựng dự thảo Quyết định của Thủ tướng Chính phủ ban hành Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.
Nhằm mục đích xây dựng danh mục, Bộ KHCN trân trọng đề nghị Quý cơ quan, đơn vị căn cứ Luật Ban hành văn bản quy phạm pháp luật 2025 và Luật Trí tuệ nhân tạo 2025 (cụ thể Điều 9, Điều 14) để đề xuất Danh mục hệ thống trí tuệ nhân tạo rủi ro cao và Danh mục hệ thống trí tuệ nhân tạo phải chứng nhận sự phù hợp trước khi đưa vào sử dụng (theo Biểu mẫu 01 và Biểu mẫu 02 tại Phụ lục I đính kèm Công văn 1101/BKHCN-CNS&CĐS năm 2026).
Để đề xuất được sát với văn bản quy phạm pháp luật cấp cao hơn sẽ được ban hành trước là Nghị định Quy định chi tiết một số điều và biện pháp để tổ chức, hướng dẫn thi hành Luật Trí tuệ nhân tạo, Bộ KHCN đề nghị Quý cơ quan, đơn vị nghiên cứu thêm Điều 7, Điều 8 của Dự thảo Nghị định Quy định chi tiết một số điều và biện pháp để tổ chức, hướng dẫn thi hành Luật Trí tuệ nhân tạo 2025 (trích gửi tại Phụ lục II kèm theo Công văn 1101/BKHCN-CNS&CĐS năm 2026) trong quá trình đề xuất. Văn bản đề xuất các hệ thống cho 02 Danh mục xin gửi về Bộ KHCN trước 17h00, ngày 06/03/2026 theo địa chỉ: Viện Công nghệ số và Chuyển đổi số Quốc gia, Tầng 6 - Số 115 Trần Duy Hưng, Cầu Giấy, Hà Nội.
Thông tin chi tiết xin liên hệ: Ông Đặng Chiến Công, số điện thoại: 0915979474, địa chỉ thư điện tử: dccong@mst.gov.vn .
Theo quy định tại Điều 3 Luật Trí tuệ nhân tạo 2025 thì việc phân loại mức độ rủi ro của hệ thống trí tuệ nhân tạo được thực hiện như sau:
- Hệ thống trí tuệ nhân tạo được phân loại theo các mức độ rủi ro sau đây:
+ Hệ thống trí tuệ nhân tạo có rủi ro cao là hệ thống có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia;
+ Hệ thống trí tuệ nhân tạo có rủi ro trung bình là hệ thống có khả năng gây nhầm lẫn, tác động hoặc thao túng người sử dụng do không nhận biết được chủ thể tương tác là hệ thống trí tuệ nhân tạo hoặc nội dung do hệ thống tạo ra;
+ Hệ thống trí tuệ nhân tạo có rủi ro thấp là hệ thống không thuộc trường hợp quy định tại điểm a và điểm b khoản 1 Điều 3 Luật Trí tuệ nhân tạo 2025.
- Việc phân loại rủi ro của hệ thống trí tuệ nhân tạo được xác định trên cơ sở các tiêu chí về mức độ tác động đến quyền con người, an toàn, an ninh; lĩnh vực sử dụng của hệ thống, đặc biệt là lĩnh vực thiết yếu hoặc liên quan trực tiếp đến lợi ích công cộng; phạm vi người sử dụng và quy mô ảnh hưởng của hệ thống.
Xem thêm tại Công văn 1101/BKHCN-CNS&CĐS ban hành ngày 03/03/20256.