1. Dòng sự kiện:
  2. Giải thưởng VinFuture 2024

Trí tuệ nhân tạo, làm sao để kiểm soát con dao hai lưỡi?

(Dân trí) - Trí tuệ nhân tạo (AI) có thể chơi cờ, lái xe hoặc chẩn đoán các vấn đề y khoa. Một số ví dụ của trí tuệ nhân tạo là phần mềm DeepMind’s AlphaGo của Google, các thiết bị tự lái của Tesla và dịch vụ Watson của IBM.

Loại AI này được gọi là trí tuệ nhân tạo có giới hạn, đây là những hệ thống máy móc có khả năng thực hiện một công việc cụ thể. Chúng ta vẫn gặp loại trí tuệ này trong cuộc sống hàng ngày và ngày càng có nhiều người sử dụng chúng, nhưng bên cạnh khả năng ưu việt của AI, chúng ta cũng bắt đầu nhận thấy một số vấn đề. Trường hợp xấu nhất đã từng xảy ra là một chiếc ô tô tự lái đã đâm vào một người đi bộ vào tháng 3/2018. Người đi bộ đã thiệt mạng và vụ việc vẫn đang trong quá trình điều tra.

tri tue.jpg

Thế hệ sắp tới của trí tuệ nhân tạo

Thế hệ sắp tới của AI sẽ không còn chỉ là trí tuệ nhân tạo có giới hạn nữa mà sẽ là trí tuệ nhân tạo tổng hợp. Với thế hệ này, số tiền đặt cược gần như chắc chắn sẽ cao hơn nhiều cho trò chơi được – mất.

Trí tuệ nhân tạo tổng hợp (AGI) sẽ có khả năng tính toán ưu việt và trí thông minh ngang tầm con người. Những hệ thống này sẽ có khả năng học tập, giải quyết vấn đề, thích ứng và tự nâng cấp bản thân. Chúng thậm chí còn biết làm những việc mà ban đầu chúng không được thiết kế để làm những việc đó.

Điều hết sức quan trọng là tốc độ nâng cấp của chúng có thể tăng theo cấp số nhân khi chúng đã trở nên thông minh hơn nhiều so với con người đã tạo ra chúng. Nếu đưa trí tuệ nhân tạo tổng hợp vào sử dụng thì chẳng mấy chốc sẽ sinh ra trí tuệ nhân tạo siêu phàm.

Hiện nay các AGI chưa hoàn toàn đi vào thực tế nhưng người ta ước tính rằng chúng sẽ bắt đầu “sống” cùng con người từ năm 2029 hoặc muộn nhất thì cũng trước khi kết thúc thế kỉ này.

Điều gần như chắc chắn sẽ xảy ra là sớm muộn gì chúng cũng sẽ đi vào cuộc sống con người. Khi đó điều hiển nhiên và đáng quan ngại là chúng ta sẽ không thể kiểm soát chúng.

Những nguy cơ đi kèm với trí tuệ nhân tạo tổng hợp

Không nghi ngờ gì nữa, chắc chắc AGI sẽ làm thay đổi loài người. Một số ứng dụng tiên tiến bao gồm chữa bệnh, giải quyết những thách thức phức tạp của toàn thế giới như biến đổi khí hậu và an ninh lương thực, và khởi phát sự bùng nổ công nghệ toàn cầu.

Nhưng đi kèm đó, nếu con người không thể kiểm soát chúng thì những hậu quả khôn lường chắc chắn sẽ xảy ra.

Trong những bộ phim Hollywood, thảm họa do trí tuệ nhân tạo gây ra cũng chỉ dừng lại ở mức những người máy giết người. Theo giáo sư Max Tegmark của Viện Công nghệ Massachusette (MIT) thì trên thực tế, vấn đề không nằm ở sự ác tâm mà chính là ở trí thông minh. Điều này đã được ông luận bàn trong cuốn sách của mình có tên “Cuộc sống 3.0: làm người trong kỉ nguyên trí tuệ nhân tạo”

Vấn đề ở đây là khoa học về những hệ thống “máy như người” sẽ nắm quyền lãnh đạo, chúng sẽ biết xác định thêm nhiều các hiệu quả hơn để thực hiện các công việc, pha trộn các biện pháp để có cách đạt được mục tiêu nhắm đến và thậm chí chúng còn biết phát triển, xây dựng thêm những mục tiêu của chính mình.

Hãy thử hình dung những trường hợp sau làm ví dụ:

- Một hệ thống AGI được phân công ngăn ngừa HIV và quyết định xử lí vấn đề bằng cách giết luôn tất cả những người mang căn bệnh đó, hoặc được phân công chữa bệnh ung thư thì quyết định giết luôn tất cả những người có bất cứ bẩm chất di truyền nào có thể mắc bệnh ung thư.

- Một máy bay quân sự không người lái AGI điều khiển bằng trí tuệ nhân tạo tổng hợp tự quyết định cách duy nhất để đảm bảo nhắm trúng mục tiêu là quét sạch toàn bộ khu vực.

- Một AGI có chức năng bảo vệ môi trường quyết định rằng cách duy nhất để làm chậm hay đảo ngược quá trình biến đổi khí hậu là loại bỏ tất cả máy móc công nghệ và con người đã chế tạo ra các máy móc công nghệ đó.

Những kịch bản này cho thấy nguy cơ một cuộc chiến giữa các hệ thống trí tuệ nhân tạo tổng hợp khác nhau, chúng không còn lấy mục đích của con người làm nhiệm vụ trung tâm của chúng nữa.

Trong những tình huống tương lai như thế, con người sẽ trở thành lạc hậu và hậu quả cuối cùng là sự tuyệt chủng không thể cứu vãn của loài người.

Ở một số kịch bản khác, tương lai đỡ cực đoan hơn nhưng cũng vẫn cực kì đen tối, khi mà trí tuệ nhân tạo tổng hợp được sử dụng vào những mục đích ác tâm như là khủng bố và tấn công mạng, loại bỏ nhu cầu sức lao động của con người, và theo dõi hàng loạt, v.v.

Vì vậy tìm ra biện pháp an toàn nhất để thiết kế và quản lí AGI để giảm thiểu nguy cơ và tối đa hóa lợi ích là điều vô cùng quan trọng.

Làm thế nào để kiểm soát trí tuệ nhân tạo tổng hợp

Kiểm soát AGI không đơn giản chỉ là áp dụng những biện pháp kiểm soát như kiểm soát con người.

Nhiều biện pháp kiểm soát hành vi của con người dựa vào nhận thức, cảm xúc của con người và dựa vào việc áp dụng các giá trị đạo đức của con người. AGI không cần những thuộc tính này, vì thế chúng hoàn toàn có thể gây hại cho con người. Những dạng kiểm soát hiện nay là không đủ để áp dụng cho chúng.

Có ba tập hợp các biện pháp kiểm soát hiện đang được tranh luận và rất cần được phát triển và thử nghiệm ngay tức thì, đó là:

- Kiểm soát để đảm bảo các nhà thiết kế hệ thống AGI tạo ra các hệ thống này an toàn.

- Kiểm soát được gắn vào ngay trong chính bản thân các AGI, như là “ý thức”, giá trị đạo đức, qui trình vận hành, nguyên tắc ra quyết định, v.v.

- Kiểm soát được đưa vào trong những hệ thống bao trùm mà AGI sẽ hoạt động trong đó, như là qui định, mã thực hành, qui trình vận hành tiêu chuẩn, hệ thống giám sát và cơ sở hạ tầng.

Yếu tố con người và công thái học đưa ra những phương pháp xác định, thiết kế và kiểm nghiệm các cách kiểm soát đó rất tốt trước khi có các hệ thống AGI.

Ví dụ: hoàn toàn có thể chạy mô hình các cách kiểm soát của một hệ thống cụ thể để làm mô hình cho hành vi của các hệ thống AGI trong phạm vi cơ chế kiểm soát đó và xác định các rủi ro về độ an toàn.

Điều này sẽ cho phép chúng ta xác định cần áp dụng các cách kiểm soát mới vào đâu, rồi thiết kế các cách kiểm soát đó, và lên mô hình lại để xem đã loại bỏ được các rủi ro hay chưa.

Ngoài ra, các mô hình về nhận thức và ra quyết định của chúng ta cũng có thể đem dùng để đảm bảo các AGI hành xử đúng mực và có các giá trị nhân văn.

Hành động ngay chứ không trì hoãn

Các nghiên cứu này đang được tiến hành rồi nhưng vẫn chưa đủ và vẫn chưa nhận được sự quan tâm cần thiết.

Thậm chí doanh nhân công nghệ có uy tín là Elon Musk đã cảnh báo về “khủng hoảng hiện sinh” mà con người đang đối mặt do sự tiến bộ của AI và ông cũng đã lên tiếng về sự cần thiết phải điều tiết AI trước khi quá muộn.

Thập kỉ tới đây chính là giai đoạn quyết định. Có một cơ hội để tạo ra các hệ thống AGI an toàn và hiệu quả để phục vụ xã hội loài người. Đồng thời, nếu vẫn chỉ “làm việc như bình thường” tức là chúng ta cứ đuổi theo các tiến bộ nhanh chóng của công nghệ mà không hề chuẩn bị trước cho các tình huống sau này thì sẽ dẫn đến sự tuyệt chủng của loài người. Quả bóng đang ở trên sân chơi của chúng ta, nhưng sẽ chẳng được bao lâu nữa đâu.

Phạm Hường (Theo The Conversation)