AI: loài người tiến thoái lưỡng nan?
Hãy thử tưởng tượng hai phạm nhân trong hai phòng giam biệt lập, mỗi người phải đối mặt với một lựa chọn sống còn: hợp tác với cảnh sát hoặc im lặng. Trong tình huống kinh điển của lý thuyết trò chơi có tên "song đề tù nhân" (Prisoner's Dilemma), chúng ta biết rằng cả hai phạm nhân đang mắc kẹt trong tình thế tiến thoái lưỡng nan: nếu hợp tác sẽ không có cơ hội được tha bổng, song nếu im lặng thì gần như chắc chắn sẽ nhận mức án nặng nhất. Không có lựa chọn tốt, chỉ có lựa chọn tồi và rất tồi mà thôi.
Loài người dường như đang đối mặt với một tình huống lưỡng nan tương tự trước sự phát triển của trí tuệ nhân tạo (AI): chặn đà phát triển của AI thì bất khả thi nhưng nếu để AI phát triển "tự do", thảm họa có lẽ sẽ khó tránh khỏi.
Đây không phải là một lời nhận xét chủ quan. "Bố già AI" Geoffrey Hinton, người được xem như cha đẻ của nền AI hiện đại nhờ những đóng góp quan trọng trong việc phát triển kỹ thuật học sâu (deep learning) - vốn là nền tảng của các sản phẩm AI tân tiến nhất như ChatGPT hay Bard - mới đây đã lên tiếng cảnh báo về mối đe dọa mà AI có thể đặt ra cho loài người trong một tương lai không xa. Theo ông, kiểm soát quỹ đạo phát triển của AI là vấn đề cấp bách hơn cả chống biến đổi khí hậu, bởi với biến đổi khí hậu chúng ta ít nhiều đã có phương hướng giải quyết, còn với AI, chưa ai rõ nên làm gì ở thời điểm này.
Một trong những lo ngại hàng đầu hiện nay là các công cụ AI tạo sinh (generative AI) sẽ nhanh chóng khiến mạng Internet tràn ngập ảnh giả, video giả và các loại tin giả khác. Với đại bộ phận người dùng, đây sẽ là một nỗi ác mộng bởi khi đó lằn ranh giữa thật và giả gần như sẽ bị xóa bỏ hoàn toàn. Từ một kho tàng thông tin miễn phí khổng lồ, mạng Internet đối mặt với nguy cơ trở thành một bãi mìn tràn ngập những cạm bẫy sinh ra để đánh lừa con người. Về lâu dài, điều này sẽ khuyến khích tâm lý hoài nghi thái quá, ngăn cản chúng ta tiếp cận với những thông tin thiết yếu một cách kịp thời (ví dụ như công dụng của khẩu trang trong việc chống dịch), để lại nhiều hậu quả đáng tiếc.
Một vấn đề đáng lo không kém là chúng ta sẽ đánh mất kiểm soát với đà phát triển AI như hiện nay. Đây là một mối lo ngại có cơ sở bởi trên thực tế, những mô hình ngôn ngữ lớn do OpenAI và Google phát triển đã cho thấy một số hành vi có tính "tự diễn biến", ví dụ như: tự học tiếng Bengali trong khi không hề được huấn luyện dựa trên ngôn ngữ này hay đoán tên phim dựa trên emoji (biểu tượng cảm xúc), v.v. Nhìn chung, một khi những mô hình này đã vượt một ngưỡng nhất định về độ lớn và độ phức tạp, chúng sẽ tự phát triển được một số tính năng mà không được lập trình từ đầu.
Mối đe dọa ở đây không nhất thiết là AI sẽ trở nên thông minh hơn con người và một ngày nào đó sẽ hủy diệt chúng ta. Điều mà người ta lo sợ là khi AI đã vượt quá tầm hiểu biết của con người, chúng có thể vô tình hoặc hữu ý thao túng chúng ta và khi đó con người sẽ đánh mất hoàn toàn khả năng kiểm soát vận mệnh của mình, với tư cách là một giống loài. Đó là một viễn cảnh hết sức đáng sợ.
Chúng ta sẽ không đối mặt với tình thế lưỡng nan hiện nay nếu AI chỉ tiềm ẩn rủi ro, nguy hiểm và không đem lại nhiều lợi ích. Trên thực tế, sự phát triển của AI sẽ là một xu thế gần như không thể đảo ngược được bởi chúng mang lại quá nhiều tiện ích cho cuộc sống của con người.
Trong viễn cảnh tốt đẹp nhất, trí tuệ nhân tạo sẽ đóng vai trò then chốt trong việc nghiên cứu, phát triển các loại thuốc mới và liệu trình điều trị mới cho những căn bệnh từ trước đến giờ được coi là nan y. AI có thể sẽ biến giấc mơ xe tự lái trở thành hiện thực, giải phóng con người khỏi việc phải điều khiển phương tiện giao thông hàng ngày và giúp tránh vô số các vụ tai nạn đáng tiếc. Hơn hết, AI hứa hẹn sẽ tạo ra một môi trường giáo dục phù hợp với nhu cầu học tập, năng lực tư duy và tốc độ tiếp thu của mọi học sinh, mọi lúc, mọi nơi. Một ngày nào đó, sẽ không còn con cá nào bị bắt phải leo cây nữa.
Nói cách khác, bài toán kiểm soát AI có thể không quá khó nhưng chúng ta có động lực quá lớn để cho phép AI phát triển ở mức độ tối đa có thể. Câu hỏi đặt ra là: cần làm gì để phần nào hóa giải tình thế lưỡng nan này?
Một trong những việc làm đặc biệt cấp thiết hiện nay để ngăn chặn tình huống xấu nhất xảy ra là cần có sự đầu tư tương xứng cho những biện pháp "an toàn AI". Với mỗi một khoản tiền được đầu tư để phát triển năng lực của các phần mềm AI, cần có một khoản tiền tương đương được đầu tư cho các nghiên cứu và biện pháp kỹ thuật nhằm khiến AI trở nên an toàn hơn, thân thiện với con người hơn và ít định kiến hơn.
Thay vì chỉ lo lắng về tình huống con người đánh mất khả năng kiểm soát AI, chúng ta cần phải phòng bị từ sớm, từ xa bằng việc chủ động, tích cực đầu tư cho các nỗ lực hoạch định theo kịch bản từ khả dĩ cho đến xa vời, và tính các phương án đối phó ngay từ bây giờ. Các nỗ lực này không nên là những nỗ lực của từng quốc gia mà nên là một nỗ lực tập thể của nhiều quốc gia bởi AI đang và sẽ trở thành một trong những vấn đề xuyên biên giới hàng đầu.
Cuối cùng và quan trọng hơn hết, cần nhanh chóng triển khai những chiến dịch tuyên truyền và giáo dục nhằm phổ cập kiến thức AI cơ bản cho toàn dân, đặc biệt là học sinh phổ thông và những người đang trong độ tuổi đi làm. Điều này sẽ nâng cao khả năng thích ứng của người dân và khiến cho cả xã hội trở nên sẵn sàng hơn trước những tác động sâu rộng của AI.
Con đường phía trước sẽ vừa thú vị, vừa đầy khó khăn. Những lợi ích tiềm năng của AI có thể mang tính đột phá nhưng thách thức cũng hết sức đáng gờm. Khi đó chúng ta buộc phải theo đuổi mục tiêu kép: phát triển năng lực của AI đồng thời củng cố các biện pháp an toàn.
Chủ động lên kế hoạch dài hạn, và thúc đẩy các nỗ lực hợp tác toàn cầu sẽ rất quan trọng. Nhưng, trên hết, giáo dục thế hệ trẻ sẽ là tối quan trọng. Trao quyền cho họ với sự hiểu biết sâu sắc về AI sẽ trang bị cho toàn xã hội khả năng để thích ứng và biến làn sóng thay đổi công nghệ này trở thành động lực thúc đẩy sự tiến bộ vượt bậc.
Tác giả: Ngô Di Lân là Tiến sĩ ngành Quan hệ Quốc tế tại Đại học Brandeis, Mỹ. Anh là một trong năm ứng viên xuất sắc được Đại học Brandeis cấp học bổng tiến sĩ toàn phần ở tuổi 21. Các vấn đề nghiên cứu lớn của anh bao gồm: xung đột vũ trang, chính sách ngoại giao nước lớn và ứng dụng của AI trong hoạch định chính sách an ninh quốc gia.
Chuyên mục TÂM ĐIỂM mong nhận được ý kiến của bạn đọc về nội dung bài viết. Hãy vào phần Bình luận và chia sẻ suy nghĩ của mình. Xin cảm ơn!