Chuyên gia cảnh báo A.I có thể trở thành "thảm họa chết chóc" cho nhân loại
(Dân trí) - Một nhà khoa học máy tính và chuyên gia về trí tuệ nhân tạo (A.I) đã đưa ra cảnh báo về tương lai của A.I khiến nhiều người phải rùng mình.
Nhân loại đang chứng kiến một cuộc chạy đua phát triển trí tuệ nhân tạo (A.I) của giới công nghệ. Hàng loạt mô hình A.I và máy học được phát triển một cách nhanh chóng, ngày càng trở nên thông minh và được tích hợp vào nhiều lĩnh vực trong đời sống, từ sản xuất công nghiệp đến đời sống hàng ngày…
Không thể phủ nhận rằng các hệ thống trí tuệ nhân tạo đang giúp ích rất nhiều cho cuộc sống hiện tại. Tuy nhiên, nhiều chuyên gia lại đang lo ngại rằng A.I sẽ trở thành thảm họa cho nhân loại một khi chúng vượt qua tầm kiểm soát của con người. Một trong số đó là Paul Christiano, nhà khoa học máy tính và chuyên gia về trí tuệ nhân tạo người Mỹ.
Trong một bài trả lời phỏng vấn trên chương trình Bankless Podcast, Paul Christiano đã bày tỏ lo ngại về sự phát triển của trí tuệ nhân tạo và cho rằng A.I sẽ có khả năng vượt qua tầm kiểm soát của con người, khi đó nó sẽ trở thành thảm họa với nhân loại.
"Tôi nghĩ sẽ có khoảng 50% khả năng A.I vượt qua tầm kiểm soát của con người và trở thành thảm họa của nhân loại. Sẽ có khoảng từ 10 đến 20% khả năng A.I trở thành thảm họa chết chóc, gây ra rất nhiều cái chết cho con người", Paul Christiano nhận định.
Paul Christiano từng là chuyên gia nghiên cứu trí tuệ nhân tạo tại OpenAI - "cha đẻ" của chatbot ChatPGT nổi tiếng. Hiện Paul Christiano đang là người đứng đầu Trung tâm Nghiên cứu Căn chỉnh, một tổ chức phi lợi nhuận nhằm điều chỉnh sự phát triển của các hệ thống trí tuệ nhân tạo để phù hợp với lợi ích của con người. Rõ ràng, với công việc đã và đang làm, Paul Christiano hoàn toàn có đủ kiến thức để hiểu rõ về những mối nguy hại mà A.I có thể gây ra.
Theo Paul Christiano, trí tuệ nhân tạo cũng như một đứa trẻ sơ sinh, có thể tự phát triển dựa vào "kinh nghiệm sống" của chính nó. Giống như một đứa trẻ sẽ khóc khi đói để bố mẹ đáp ứng bằng cách cho bú, hệ thống A.I cũng sẽ cố gắng đạt được mục tiêu nhất định của nó bằng cách thử nhiều giải pháp khác nhau cho đến khi đạt được kết quả.
Một khi A.I được kết nối vào dữ liệu Internet, nó có thể tăng được lượng cơ sở dữ liệu của mình thông qua dữ liệu khổng lồ từ Internet, thay vì những dữ liệu cố định trong phạm vi do nhà phát triển cung cấp. Paul Christiano tin rằng điều này sẽ giúp A.I trở nên thông minh nhưng cũng khó đoán hơn.
Đáng chú ý, Paul Christiano không phải là chuyên gia duy nhất bày tỏ mối lo ngại về sự phát triển của trí tuệ nhân tạo.
Cách đây không lâu, các chuyên gia của Microsoft cũng đưa ra cảnh báo khi nhận thấy rằng trí tuệ nhân tạo đang có khả năng tư duy, lập luận và suy nghĩ giống con người. Điều này khiến các chuyên gia lo ngại rằng đến một thời điểm A.I sẽ vượt qua tầm kiểm soát của con người.
Cuối tháng 3 vừa qua, một nhóm các nhà khoa học và chuyên gia A.I trên toàn thế giới đã cùng ký một bức thư kêu gọi tạm dừng cuộc đua phát triển A.I trong vòng 6 tháng để đánh giá những mức độ rủi ro có thể xảy ra trong tương lai với những khả năng mà trí tuệ nhân tạo có thể đạt được và con người có thêm thời gian để xây dựng các chiến lược thích ứng. Bất chấp lời kêu gọi này, các "ông lớn công nghệ" như Microsoft, Google… vẫn tiếp tục phát triển các hệ thống A.I của riêng mình.
Vào năm 2019, khi đến dự lễ thành lập Viện Nghiên cứu Trí tuệ Nhân tạo vì Con người của đại học Stanford, tỷ phú Bill Gates đã từng so sánh sự nguy hiểm của A.I với vũ khí hạt nhân.
"Thế giới chưa có nhiều công nghệ vừa hứa hẹn nhưng lại vừa nguy hiểm như A.I. Chúng ta đã có vũ khí hạt nhân và năng lượng nguyên tử, và ít nhất đến bây giờ mọi chuyện vẫn ổn", Bill Gates phát biểu tại sự kiện với hàm ý so sánh trí tuệ nhân tạo và vũ khí hạt nhân.
Vào năm 2014, tỷ phú Elon Musk từng viết trên trang Twitter cá nhân: "Chúng ta cần phải hết sức cảnh giác với trí tuệ nhân tạo. Có khả năng nó sẽ trở nên nguy hiểm hơn cả vũ khí hạt nhân". Đến năm 2017, Elon Musk nhận định rằng trí tuệ nhân tạo có thể là nguyên do dẫn đến chiến tranh thế giới lần thứ III, khi các quốc gia lớn chạy đua phát triển các hệ thống A.I để cạnh tranh với nhau.
Theo độc giả Dân trí, chúng ta có cần phải quá lo lắng về nguy cơ A.I vượt quá tầm kiểm soát của con người? Hãy chia sẻ cảm nghĩ của mình ở phần bình luận bên dưới.
Theo DTrends/SoMag