DNews

Luật AI 2025: "Lá chắn" bảo vệ văn hóa và chủ quyền số quốc gia

Nam Đoàn

(Dân trí) - Luật Trí tuệ nhân tạo 2025 chính thức đi vào cuộc sống đã đánh dấu một bước ngoặt quan trọng trong quá trình chuyển đổi số của Việt Nam.

Luật AI 2025: "Lá chắn" bảo vệ văn hóa và chủ quyền số quốc gia

Khi các hoạt động của trí tuệ nhân tạo (AI) giờ đây không còn là những khuyến nghị mang tính đạo đức mà được luật hóa chính thức, một “màng lọc” cần thiết đã hình thành để bảo vệ chủ quyền số.

Trong bối cảnh các mô hình ngôn ngữ lớn từ những tập đoàn công nghệ lớn toàn cầu đang thống trị, sự ra đời của các quy định (trong luật AI) ưu tiên phát triển AI tiếng Việt và ngôn ngữ dân tộc thiểu số được xem là "lá chắn" bảo vệ văn hóa quốc gia.

Đồng thời, những cơ chế về trách nhiệm pháp lý nghiêm ngặt cũng đặt ra bài toán mới cho cộng đồng doanh nghiệp công nghệ trong nước.

Giải bài toán "định kiến văn hóa" trong kỷ nguyên trí tuệ nhân tạo

 Một trong những điểm sáng từ khung pháp lý mới là sự ưu tiên dành cho việc phát triển các mô hình ngôn ngữ dành riêng cho người Việt, trong đó có tiếng dân tộc thiểu số.

Chia sẻ với phóng viên báo Dân trí, chuyên gia công nghệ Trương Đức Lượng, Chủ tịch Hội đồng quản trị Công ty cổ phần an ninh mạng Việt Nam VESC (Tập đoàn G-Group) đánh giá, đây là một nhu cầu thực tế và là mong muốn chung của nhiều quốc gia trên toàn cầu để thoát khỏi sự lệ thuộc vào các nền tảng xuyên biên giới.

Ông Trương Đức Lượng phân tích, hiện nay có sự phân cực rõ rệt giữa các tập đoàn công nghệ lớn (Microsoft, Google, Anthropic của Mỹ) hay các công ty AI từ Trung Quốc và nhu cầu nội địa của mỗi quốc gia. Việc luật hóa ưu tiên phát triển AI tiếng Việt và tiếng dân tộc thiểu số không chỉ dừng lại ở khía cạnh công nghệ mà còn là câu chuyện bảo tồn văn hóa ở quy mô khác.

"Khi chúng ta sử dụng công cụ nước ngoài, ngôn ngữ thường được xử lý qua một lớp trung gian, ví dụ như tiếng Anh. Điều này khiến AI khó có thể hiểu được những tầng sâu văn hóa, những phương ngữ hay sắc thái biểu cảm đặc thù của người Việt", Chủ tịch VESC chia sẻ.

Vị chuyên gia dẫn chứng: “Ví dụ với các từ ngữ đa nghĩa của tiếng Việt như từ "má" (có thể hiểu là mẹ ở miền Nam hoặc là bộ phận trên mặt ở miền Bắc), các AI nội địa nếu được làm chủ về dữ liệu sẽ xử lý chính xác hơn nhiều so với các công cụ AI nước ngoài.

Đặc biệt, đối với các dân tộc thiểu số như Mường, việc AI có thể giao tiếp bằng chính ngôn ngữ của họ sẽ giúp gìn giữ sự đa dạng dân tộc và giúp họ tiếp cận công nghệ một cách an toàn hơn”.

Luật AI 2025: Lá chắn bảo vệ văn hóa và chủ quyền số quốc gia - 1
Văn hóa ở đâu thì chủ quyền ở đó. Việc làm chủ ngôn ngữ trực tiếp chính là cách để bảo vệ chủ quyền số hiệu quả nhất.
Ông Trương Đức Lượng Chủ tịch Hội đồng quản trị Công ty cổ phần an ninh mạng Việt Nam.

Chuyên gia Trương Đức Lượng cũng nhấn mạnh đến khái niệm "chủ quyền số". Theo ông, trên môi trường số, chủ quyền không hiển thị một cách vật lý mà dựa trên những ý niệm tương đối, trong đó văn hóa là yếu tố then chốt: "Văn hóa ở đâu thì chủ quyền ở đó. Việc làm chủ ngôn ngữ trực tiếp chính là cách để bảo vệ chủ quyền số hiệu quả nhất”.

Bên cạnh câu chuyện văn hóa, Luật AI cũng mở ra cơ hội lớn cho các doanh nghiệp khởi nghiệp thông qua việc Nhà nước đầu tư hạ tầng tính toán và dữ liệu dùng chung. Chủ tịch VESC đánh giá đây là một "đòn bẩy" thực tế vì hiện nay các doanh nghiệp vừa và nhỏ thường vướng vào bài toán thiếu nguồn lực kinh phí để xây dựng hạ tầng AI đắt đỏ.

Tuy nhiên, ông cũng lưu ý rằng, Việt Nam cần có các văn bản hướng dẫn chi tiết về cơ chế phân phối nguồn lực này vì nhu cầu chắc chắn sẽ rất lớn trong khi hạ tầng quốc gia luôn có hạn.

Trách nhiệm nghiêm ngặt

 Ở góc độ pháp lý, Luật sư Trần Xuân Tiền, Trưởng văn phòng luật sư Đồng Đội (Đoàn luật sư TP Hà Nội) đánh giá, điểm mới quan trọng nhất trong luật chính là nguyên tắc “trách nhiệm nghiêm ngặt” đối với các hệ thống AI rủi ro cao, có nghĩa là bên triển khai vẫn phải bồi thường ngay cả khi đã tuân thủ quy định, nếu thiệt hại thực tế xảy ra.

Luật sư Trần Xuân Tiền giải thích: “Về mặt bảo vệ người dùng, đây là cơ chế tiến bộ, vì AI rủi ro cao thường ảnh hưởng trực tiếp đến sức khỏe, tài chính, danh dự hoặc cơ hội nghề nghiệp của cá nhân. Người bị thiệt hại không phải gánh nghĩa vụ chứng minh lỗi kỹ thuật phức tạp của hệ thống.

Tuy nhiên, với doanh nghiệp, đây là áp lực không nhỏ. Họ buộc phải đầu tư mạnh vào quản trị rủi ro, bảo hiểm trách nhiệm, kiểm thử độc lập và hệ thống giám sát hậu triển khai. Tôi cho rằng đây không phải là rào cản, mà là động lực để hình thành một thị trường AI chuyên nghiệp và có trách nhiệm hơn”.

Bên cạnh đó, luật cũng đưa ra khái niệm "Người bị ảnh hưởng" bao gồm cả những người bị tác động gián tiếp đến cơ hội tiếp cận dịch vụ hoặc uy tín.

Theo luật sư, quy định này sẽ dẫn đến sự xuất hiện của các tranh chấp mới trong tương lai. Ví dụ, một cá nhân có thể kiện doanh nghiệp nếu họ bị từ chối cơ hội việc làm do hệ thống sàng lọc hồ sơ tự động có định kiến hoặc bị đánh giá tín nhiệm thấp bởi thuật toán mà không được giải thích minh bạch.

Luật AI 2025: Lá chắn bảo vệ văn hóa và chủ quyền số quốc gia - 2

Quốc hội thông qua Luật AI 2025 (Ảnh: Bộ Khoa học và Công nghệ).

Để hỗ trợ quá trình này, “Khung đạo đức trí tuệ nhân tạo quốc gia” đóng vai trò như một kim chỉ nam. Luật sư Tiền nhận định, mặc dù khung đạo đức không phải văn bản luật chặt chẽ, nhưng trong thực tiễn tố tụng, tòa án có thể xem xét việc doanh nghiệp có tuân thủ khung này hay không để đánh giá mức độ cẩn trọng và trách nhiệm.

Về mặt kỹ thuật, việc phân loại mức độ rủi ro (thấp, trung bình, cao) cho hệ thống AI cũng là một thách thức. Ông Trương Đức Lượng bổ sung thêm, AI là công nghệ sáng tạo, có tính chất thay đổi rất nhanh. Một hệ thống có thể chuyển từ mức rủi ro trung bình lên cao chỉ dựa trên đối tượng tác động hoặc phạm vi ảnh hưởng. Do đó, việc giám sát không thể chỉ dựa vào các bộ công cụ hành chính mà cần áp dụng chính công nghệ để theo dõi và phát hiện rủi ro theo thời gian thực.

Một quy định khác trong luật cũng đang thu hút sự quan tâm là yêu cầu gắn nhãn nội dung do AI tạo ra. Đại diện VESC cho rằng việc gắn nhãn là vô cùng cần thiết để người dùng có cách ứng xử phù hợp khi tiếp cận thông tin, tránh những hiểu lầm không đáng có như ghép ảnh sai sự thật được lan truyền nhanh hay các thông tin giả mạo để thực hiện lừa đảo.

Tuy nhiên, ông cũng thẳng thắn thừa nhận việc thực thi trên diện rộng rất khó khăn do các nhãn dán dễ bị gỡ bỏ hoặc sao chép sang định dạng khác.

Để thích ứng với hành lang pháp lý mới, Luật sư Trần Xuân Tiền khuyến nghị các doanh nghiệp, đặc biệt là trong các lĩnh vực nhạy cảm như y tế, tài chính, giáo dục cần chuẩn bị ngay hồ sơ pháp lý bao gồm:

- Báo cáo đánh giá tác động rủi ro của hệ thống AI.

- Chính sách quản trị và bảo vệ dữ liệu cá nhân.

- Quy trình giải thích quyết định tự động cho người dùng.

- Cơ chế tiếp nhận và xử lý khiếu nại.

Đặc biệt, về vấn đề cung cấp mã nguồn hay dữ liệu huấn luyện cho cơ quan chức năng - một điểm "nhạy cảm" về bí mật kinh doanh - Luật sư Tiền nhấn mạnh cần có cơ chế bảo mật nghiêm ngặt từ phía cơ quan kiểm tra để cân bằng giữa quản lý nhà nước và bảo vệ quyền sở hữu trí tuệ của doanh nghiệp.

Các chuyên gia đồng tình rằng, luật AI nếu được thực thi đúng sẽ tạo ra một môi trường pháp lý minh bạch, nâng cao trách nhiệm, nhưng đồng thời cũng đòi hỏi doanh nghiệp phải chuyển từ tư duy “phát triển nhanh” sang “phát triển có kiểm soát và chịu trách nhiệm”.