Bệnh nhân nguy kịch vì tin "bác sĩ AI", người bán thuốc có phạm luật?
(Dân trí) - Đại biểu Quốc hội cảnh báo rủi ro khi AI được dùng trong y tế mà chưa có khung pháp lý đầy đủ, đề nghị luật cần quy định riêng cho lĩnh vực có mức độ rủi ro cao.
AI trong y tế: tiềm năng lớn nhưng rủi ro không nhỏ
Phát biểu tại phiên thảo luận về dự án Luật Trí tuệ nhân tạo chiều 27/11, đại biểu Trần Khánh Thu (Hưng Yên) cho rằng trí tuệ nhân tạo (AI) đang tạo ra những chuyển biến sâu rộng trong đời sống, đặc biệt là ngành y tế - một trong những lĩnh vực được đánh giá có tiềm năng ứng dụng AI lớn nhất hiện nay. Công nghệ học máy, học sâu hay dữ liệu lớn đang mở ra hướng tiếp cận mới, hỗ trợ chẩn đoán, điều trị và quản lý bệnh nhân hiệu quả hơn.
Tuy nhiên, thực tế cho thấy việc sử dụng AI thiếu kiểm soát có thể dẫn đến hậu quả nghiêm trọng.
Đại biểu dẫn một trường hợp vừa xảy ra tại TPHCM, một bệnh nhân 55 tuổi được đưa vào bệnh viện cấp cứu trong tình trạng lơ mơ, không nhận biết xung quanh. Trước đó, người con gái thấy mẹ chóng mặt, khó thở nên đã sử dụng một công cụ AI để "chẩn đoán", và kết quả gợi ý tình trạng tăng huyết áp. Khi tự đo huyết áp cho mẹ thấy chỉ số cao, cô càng tin tưởng và ra hiệu thuốc mua thuốc cho mẹ uống.
Tuy nhiên, sau khi dùng thuốc, tình trạng bệnh nhân nhanh chóng xấu đi, mệt nhiều, nôn ói liên tục và dần mất nhận thức, khi đó gia đình mới đưa bà đến bệnh viện. Tại đây, bác sĩ xác định người bệnh bị đột quỵ, tổn thương não; dù được cứu qua nguy kịch nhưng di chứng để lại là khó tránh khỏi.
Theo đại biểu, Internet và AI là nguồn tham khảo tốt giúp người dân hiểu về bệnh lý và chuẩn bị câu hỏi cho bác sĩ. Nhưng "tuyệt đối không được sử dụng kết quả tìm kiếm hoặc gợi ý của AI để tự chẩn đoán hay kê đơn thuốc", bởi điều này không chỉ gây nguy hiểm mà còn đặt ra câu hỏi liệu người bán thuốc theo "đơn AI" có vi phạm pháp luật hay không.

Đại biểu Trần Khánh Thu (Hưng Yên) (Ảnh: Media QH).
Làm rõ trách nhiệm và cơ chế kiểm soát
Theo đại biểu Trần Khánh Thu, dù Luật Khám bệnh, chữa bệnh 2023 và Luật Dược đã điều chỉnh nhiều hoạt động liên quan đến y tế, nhưng Việt Nam vẫn chưa có khung pháp lý riêng cho trí tuệ nhân tạo trong lĩnh vực này.
Ngoài ra, một số vấn đề như trách nhiệm pháp lý trong trường hợp trí tuệ nhân tạo mắc sai sót, bảo mật dữ liệu y tế, bảo đảm an toàn cho bệnh nhân cũng chưa được quy định rõ ràng trong các văn bản quy phạm pháp luật hiện hành.
"Tôi rất hi vọng trong dự thảo Luật Trí tuệ nhân tạo lần này sẽ có thêm điều khoản khung pháp lý cụ thể hơn để quản lý các sản phẩm trí tuệ nhân tạo trong y tế, đặc biệt là về trách nhiệm của các bên liên quan", đại biểu nhấn mạnh.
Cùng quan tâm đến vấn đề này, đại biểu Lê Văn Khảm (TPHCM) cho rằng cách tiếp cận phân loại và kiểm soát rủi ro trong dự thảo Luật Trí tuệ nhân tạo là hướng đi đúng, phù hợp thông lệ quốc tế và không cản trở đổi mới sáng tạo.
Tuy nhiên, ông chỉ ra rằng các tiêu chí phân loại hiện mới mang tính định tính, chưa có ngưỡng kỹ thuật hay quy chuẩn định lượng, dễ gây lúng túng khi áp dụng.
Vì vậy, đại biểu đề nghị bổ sung các quy định mang tính nguyên tắc và những tiêu chí có thể đo lường, quan sát và theo dõi được; đồng thời xây dựng nguyên tắc đánh giá độ chính xác, độ tin cậy, tính an toàn và mức độ chấp nhận sai số của từng hệ thống AI.

Đại biểu Lê Văn Khảm (TPHCM) (Ảnh: Media QH).
Ông Khảm nhấn mạnh mỗi lĩnh vực có mức độ rủi ro khác nhau và không thể áp dụng một cơ chế chung cho tất cả. Một số lĩnh vực như y tế, tài chính hay giao thông có yêu cầu an toàn cao, nguy cơ sai số lớn nên cần cơ chế quản lý riêng.
"AI trong y tế phải được kiểm định như thiết bị y tế, có danh mục các hệ thống AI bắt buộc kiểm định khi hỗ trợ ra quyết định lâm sàng, như AI chẩn đoán, AI dự đoán nguy cơ tử vong hoặc biến chứng, robot phẫu thuật có sử dụng AI, AI hỗ trợ kê đơn hay đề xuất phác đồ điều trị", đại biểu Khảm đề xuất.
Ngoài kiểm định, ông Khảm cho rằng cần có cơ chế giám sát lưu hành riêng đối với AI trong y tế, như yêu cầu báo cáo định kỳ, báo cáo nhanh khi xảy ra sự cố, kiểm toán thuật toán và theo dõi sai số theo thời gian thực. Khi luật quy định rõ các nguyên tắc này, cơ quan quản lý sẽ có cơ sở để ban hành văn bản dưới luật và xây dựng công cụ giám sát phù hợp.
Ông cũng đề nghị làm rõ trách nhiệm quản lý nhà nước về AI trong y tế, giao Bộ Y tế chủ trì và phối hợp chặt chẽ với Bộ Khoa học và Công nghệ trong việc ban hành quy chuẩn, tiêu chuẩn và hướng dẫn đánh giá mức độ rủi ro.
Đại biểu đồng thời lưu ý không nên để nhà cung cấp tự phân loại rủi ro đối với AI y tế như trong dự thảo hiện nay, bởi đây là lĩnh vực đòi hỏi tiêu chuẩn an toàn đặc biệt nghiêm ngặt.











