Trí tuệ nhân tạo tổng hợp: Niềm tự hào hay nỗi lo của nhân loại?
(Dân trí) - Nhắc đến trí tuệ nhân tạo tổng hợp, nó hứa hẹn sẽ tái tạo khả năng nhận thức của con người, nhưng chúng ta đã tiến gần đến mục tiêu lịch sử này đến mức nào?
Chúng ta đang đến gần hơn những điều mà chỉ vài năm trước cũng chỉ là khoa học viễn tưởng, trí tuệ nhân tạo tổng hợp (AGI) - một "cỗ máy" có khả năng nhận thức chung tương tự, thậm chí vượt trội hơn con người.
Ngày 5/12, OpenAI đã chính thức phát hành mô hình AI ChatGPT o1. Công ty OpenAI cho biết mô hình này "có khả năng lập luận, được thiết kế để suy nghĩ kỹ hơn trước khi đưa ra phản hồi".
Một số chuyên gia đã trải nghiệm và đánh giá o1 đang dần đạt đến "cảnh giới" AGI.
Có thể nói AGI dần trở thành hiện thực nhờ các mô hình ngôn ngữ tiên tiến, nhưng vẫn còn nhiều câu hỏi lý thuyết và thực tiễn cần được giải quyết.
Giấc mơ của AGI
Trong nhiều thập kỷ, trí tuệ nhân tạo tổng hợp (AGI) luôn là Eldorado - miền đất hứa của các nhà nghiên cứu trí tuệ nhân tạo.
Ý tưởng tạo ra một cỗ máy có khả năng suy luận và vượt qua nhận thức của con người trong mọi lĩnh vực vừa mê hoặc vừa đáng sợ.
Những thế hệ AI tiếp theo sẽ có khả năng tự động giải quyết các vấn đề cực kỳ phức tạp như biến đổi khí hậu, các đại dịch trong tương lai, tìm ra phương pháp chữa trị những căn bệnh thế kỷ như ung thư và bệnh Alzheimer.
Điều này có thể thúc đẩy sự phát triển của khoa học và công nghệ với tốc độ chưa từng có, cách mạng hóa các lĩnh vực như khám phá không gian, năng lượng sạch, giao thông và giáo dục.
Mặt khác, trí tuệ nhân tạo siêu tổng hợp sẽ có sức mạnh to lớn và có khả năng không thể kiểm soát được nếu chúng không phù hợp đúng mức với các giá trị của con người.
Cha đẻ của deep learning (học máy), người tiên phong nghiên cứu AGI, Yoshua Bengio cảnh báo: "Những điều khủng khiếp có thể xảy ra nếu chúng ta lạm dụng AI hoặc mất kiểm soát nó".
Nhắc đến điều này, chúng ta lại nhớ đến những kịch bản ngày tận thế được tưởng tượng bởi các nhà khoa học tầm cỡ như Stephen Hawking.
AlphaGo và những hạn chế của hệ thống AI hiện tại
Chỉ vài năm trước, AGI dường như là một ảo ảnh xa vời, những tiến bộ trong AI rất ấn tượng nhưng chỉ giới hạn ở các nhiệm vụ cụ thể.
Ví dụ như AlphaGo, hệ thống AI do Google DeepMind phát triển có khả năng đánh bại các nhà vô địch thế giới trong trò chơi cờ vây. Tuy nhiên, một kết quả mang tính lịch sử không khiến AlphaGo trở nên thông minh theo nghĩa chung: nó chỉ biết chơi cờ vây, không thể ứng biến với tư cách là một nhà văn, nhà soạn nhạc hay nhà khoa học.
Đây là giới hạn của các hệ thống AI hiện tại, thậm chí là tiên tiến nhất: chúng là những kẻ "biết ngu" cực kỳ giỏi nhưng không thể chuyển những kỹ năng này sang các lĩnh vực khác.
AI hiện tại thiếu khả năng khái quát hóa và trừu tượng, vốn là hình tượng của trí thông minh con người.
Cuộc cách mạng của mô hình ngôn ngữ
Những cuộc cách mạng gần đây của các mô hình ngôn ngữ như GPT-3 của OpenAI, LaMDA của Google, DALL-E cho chúng ta thấy sự thể hiện chính xác hơn về diện mạo của trí thông minh nhân tạo nói chung so với những gì chúng ta nghĩ.
Đặc điểm khiến những mô hình này trở nên hứa hẹn là tính đa chức năng của chúng, không giống như các hệ thống AI hiện tại vốn "bị hạn chế" khi chúng chỉ có khả năng giải quyết các nhiệm vụ như viết văn bản, tạo hình ảnh... Tính đa chức năng này gợi nhớ đến trí tuệ con người.
Đặc biệt, thông báo gần đây về o1 - mô hình OpenAI mới nhất - có phần khả năng lý luận và học tập giống con người nhiều hơn so với các mô hình tiền nhiệm, đã khơi lại cuộc tranh luận.
Những thách thức cần giải quyết đối với trí tuệ nhân tạo tổng hợp
Nhà khoa học máy tính François Chollet, người tạo ra khung Keras AI nhấn mạnh: "Các mô hình ngôn ngữ chính hiện tại vẫn gặp phải những hạn chế lớn khiến chúng "không đủ để đạt được AGI".
Một trong những vấn đề chính là tính khái quát hóa: Mặc dù các hệ thống AI được đào tạo trên lượng dữ liệu khổng lồ (hàng terabyte văn bản và hình ảnh), chúng vẫn gặp khó khăn trong việc áp dụng những gì chúng đã học được vào các tình huống, thậm chí hơi khác so với những tình huống mà chúng được đào tạo.
Giáo sư Chollet giải thích: "Các mô hình ngôn ngữ không thể thực sự thích ứng với tính mới vì chúng không có khả năng kết hợp lại kiến thức của mình một cách nhanh chóng để áp dụng vào bối cảnh mới.
Cho đến nay, các mô hình ngôn ngữ đòi hỏi một lượng dữ liệu khổng lồ và việc đào tạo tốn kém để "học" các nhiệm vụ mới, trong khi con người chúng ta có thể nắm bắt được một khái niệm từ một hoặc rất ít ví dụ".
Những con đường bất khả thi đến với trí tuệ nhân tạo nói chung
Như một số thực nghiệm đã chứng minh, "những biểu hiện bên trong" mà các mô hình ngôn ngữ xây dựng từ thực tế thường mang tính hời hợt và thiếu nhất quán.
Ví dụ, một nhóm các nhà nghiên cứu của Đại học Harvard đã đào tạo một mô hình về các tuyến taxi ở New York, khiến nó dự đoán thành công điểm đến dựa trên điểm xuất phát với độ chính xác cao.
Tuy nhiên, khi kiểm tra "bản đồ tư duy" do hệ thống phát triển, các nhà nghiên cứu phát hiện ra rằng chúng vô nghĩa.
Đối với chúng ta, các phản ứng hiện diện trong não người - nơi thông tin truyền hai chiều giữa các lớp tế bào thần kinh khác nhau - cho phép bạn nhận thức, lý luận và hành động.
Cơ chế này vẫn còn thiếu trong các mô hình hiện tại, nhưng trí tuệ nhân tạo tổng hợp (AGI) có thể nhìn thấy "ánh sáng" trong tương lai gần.
Một số chức năng này hiện chỉ có thể đạt được theo cách thô sơ, bằng cách "thêm bên ngoài" các module đặc biệt, được gọi là "trình kiểm tra" vào các mô hình đánh giá và sửa kết quả.
Nhưng đó là một cách tiếp cận không có khả năng mở rộng và kém hiệu quả đối với tâm trí con người.
Bất chấp những hạn chế này, con đường hướng tới trí tuệ nhân tạo tổng hợp ngày nay có vẻ rõ ràng và khả thi hơn.
Từ quan điểm lý thuyết, dường như không có trở ngại nào không thể vượt qua: "Con người và một số loài động vật là bằng chứng sống cho thấy điều này có thể đạt được", Giáo sư AGI Mélanie Mitchell, Viện Santa Fe nhấn mạnh.
Các nhà khoa học đang nghiên cứu các hệ thống AI thế hệ tiếp theo nhằm khắc phục những hạn chế hiện tại và tích hợp các tính năng giống trí tuệ con người.
Như Giáo sư Yoshua Bengio đang nghiên cứu các kiến trúc mạng thần kinh mới mà ông gọi là "mạng dòng chảy tổng hợp", có khả năng học cách đồng thời xây dựng các mô hình của thế giới và các module để sử dụng chúng cho việc suy luận và lập kế hoạch. Đây là cách tiếp cận phần nào đó giống với hoạt động của bộ não con người.
Các nhà nghiên cứu khác như Jeff Hawkins của Numenta, đang cố gắng triển khai các nguyên tắc của bộ nhớ sinh học vào các hệ thống AI, với các cấu trúc riêng biệt cho quá trình củng cố và truy xuất thông tin cũng như trí nhớ ngắn hạn và dài hạn.
Giả thuyết cho rằng điều này có thể giúp giải quyết các vấn đề suy luận khái quát hóa và trừu tượng.
Hay như nhà khoa học thần kinh lý thuyết Karl Friston (Đại học College London) đề xuất rằng, chìa khóa để giải quyết AGI là xây dựng các hệ thống không chỉ "tiếp thu" dữ liệu đào tạo một cách thụ động mà còn chủ động quyết định số lượng và loại dữ liệu đào tạo.
Các vấn đề đạo đức và an ninh của AGI
Về mặt lý thuyết, nếu việc xây dựng trí tuệ nhân tạo nói chung là có thể thực hiện được, điều đó không có nghĩa là nó không có rủi ro và các vấn đề nghiêm trọng.
Khi siêu trí tuệ nhân tạo vượt quá tầm kiểm soát hoặc không phù hợp với các giá trị của con người, nó có thể gây ra mối đe dọa hiện hữu cho loài người chúng ta.
Đó là chưa kể những tác động có thể xảy ra đối với nền kinh tế, công việc, sự bất bình đẳng, đời sống riêng tư và việc thao túng thông tin.
Vì lý do này, các nhà nghiên cứu như Stuart Russell (UC Berkeley) nhấn mạnh tầm quan trọng của việc phát triển các kỹ thuật "liên kết giá trị" ngay từ đầu để đảm bảo rằng hệ thống AGI có mục tiêu và hành vi phù hợp với đạo đức và hạnh phúc của con người.
Phương pháp tiếp cận đầy hứa hẹn này giúp AI sẽ tự học tập các hành vi và giá trị đạo đức mà không cần áp đặt chúng từ bên ngoài.
Một đề xuất thú vị khác là "học tập tăng cường nghịch đảo cộng tác" (CIRL).
Với CIRL, tác nhân AI được khen thưởng khi đáp ứng được sở thích của con người, nhưng bản thân những sở thích đó một phần được suy ra từ hành vi của tác nhân và được tinh chỉnh theo thời gian.
Các nhà nghiên cứu khác tin rằng điều cần thiết là sự phát triển của AGI phải diễn ra dần dần để tính bảo mật của hệ thống có thể được kiểm tra và xác thực ở từng giai đoạn, nó giống như những gì xảy ra trong quá trình phát triển của bộ não con người, trải qua các giai đoạn ngày càng phức tạp từ khả năng vận động và nhận thức cơ bản đến ngôn ngữ và khả năng nhận thức cao hơn.
Cuối cùng là câu hỏi về quy định và quản trị: Ai và làm thế nào để kiểm soát sự phát triển của những công nghệ mạnh mẽ như AGI? Chỉ các công ty tư nhân và phòng thí nghiệm hay cả Chính phủ và các tổ chức quốc tế?
Chúng ta đã tiến gần đến mục tiêu trí tuệ nhân tạo tổng hợp có thể so sánh hoặc vượt trội hơn trí tuệ con người đến mức nào? Thật khó để nói một cách chắc chắn; các ước tính của chuyên gia có thể thay đổi từ vài năm đến vài thập kỷ.
Điều chắc chắn là những tiến bộ trong những năm gần đây đã khiến AGI trở thành một mục tiêu hữu hình hơn và mang lại sự thúc đẩy ấn tượng cho lĩnh vực này.
Con đường đầy cạm bẫy, nhưng mục tiêu dường như chưa bao giờ dễ tiếp cận đến thế. Và nếu một ngày nào đó, hy vọng không xa, trí tuệ nhân tạo sẽ có thể đặt câu hỏi cho chúng ta, kiểm tra các giả thuyết, rút kinh nghiệm và thậm chí cảm nhận được cảm xúc.