5 cách Stephen Hawking hình dung về ngày tận thế của loài người
(Dân trí) - Ngoài những công trình nghiên cứu về hố đen, nhà khoa học Stephen Hawking còn có những nhận xét mang tính cảnh báo và nhắc nhở về ngày tận thế.

Dù tin rằng nhân loại có thể vượt qua nhiều mối nguy hiểm, đặc biệt bằng cách mở rộng sự sống ra ngoài Trái Đất, Stephen Hawking cũng cho rằng con người cần hết sức thận trọng trong thế kỷ tới, cho đến khi việc thuộc địa hóa các hành tinh khác trở nên khả thi.
Khi toàn bộ nhân loại vẫn sống trên một hành tinh, chỉ một sự kiện thảm họa như tiểu hành tinh va chạm, đại dịch nghiêm trọng hoặc chiến tranh hạt nhân cũng có thể đẩy loài người đến bờ vực tuyệt diệt.
Theo Hawking, để bảo vệ mình trước các mối đe dọa hiện tại và tương lai, trước hết nhân loại cần nhận thức rõ những nguy cơ đó. Đây cũng là lý do ông dành nhiều thời gian suy ngẫm về các kịch bản có thể dẫn tới sự diệt vong của loài người và chia sẻ những cảnh báo này với công chúng.
Dưới đây là một số kịch bản tận thế mà ông từng hình dung.
1. Hiện tượng nóng lên toàn cầu

Nhà vật lý Stephen Hawking nhiều lần cảnh báo về hiện tượng nóng lên toàn cầu và sự chậm trễ của nhân loại trong việc ứng phó với mối đe dọa này. Năm 2017, ông công khai chỉ trích quyết định rút Mỹ khỏi Thỏa thuận khí hậu Paris của Tổng thống Mỹ Donald Trump, cho rằng bước đi đó sẽ “gây ra những thiệt hại môi trường không đáng có cho hành tinh xinh đẹp của chúng ta”.
Dù thỏa thuận này từng gây tranh luận, với ý kiến cho rằng các mục tiêu hiện tại khó đủ để giữ nhiệt độ toàn cầu dưới ngưỡng đề ra, Hawking cho rằng giá trị cốt lõi của nó nằm ở sự tham gia của phần lớn các quốc gia trong nỗ lực chung nhằm kiểm soát phát thải khí nhà kính.
Theo ông, khi một trong những quốc gia phát thải lớn nhất thế giới rút khỏi thỏa thuận, không chỉ các nỗ lực hiện tại bị chậm lại mà sự đồng thuận toàn cầu cũng có nguy cơ bị phá vỡ, trong khi sự đoàn kết về vấn đề khí hậu vốn rất mong manh.
Những cảnh báo này tiếp tục được nhắc lại khi Tổng thống Donald Trump đưa Mỹ rút khỏi Thỏa thuận Paris thêm một lần nữa vào tháng 1/2026. Hawking từng cho rằng nhân loại đang tiến gần “điểm bùng phát” khiến quá trình nóng lên toàn cầu trở nên khó đảo ngược, thậm chí có thể dẫn tới kịch bản cực đoan khi Trái Đất trở nên giống sao Kim, với nhiệt độ bề mặt hơn 400 độ C và mưa axit sulfuric.
Một số nhà khoa học cho rằng cách so sánh này mang tính cường điệu vì khí hậu Trái Đất khó tiến tới trạng thái như sao Kim. Tuy vậy, nhiều chuyên gia vẫn đồng tình rằng ngay cả khi kịch bản đó không xảy ra, xu hướng nóng lên hiện nay cũng đủ khiến môi trường sống của con người ngày càng khắc nghiệt.
2. Trí tuệ nhân tạo đang dần chiếm lĩnh mọi thứ

Giống như nhiều nhà khoa học khác, Giáo sư Stephen Hawking luôn tỏ ra thận trọng với trí tuệ nhân tạo (AI). Ông từng nhận định: “Sự xuất hiện của trí tuệ nhân tạo siêu thông minh có thể là điều tốt nhất hoặc cũng có thể là điều tồi tệ nhất từng xảy ra với nhân loại”.
Hawking đặc biệt cảnh báo về nguy cơ “không tương thích mục tiêu”: một hệ thống AI siêu thông minh có thể rất hiệu quả trong việc hoàn thành mục tiêu của nó, nhưng nếu những mục tiêu đó không phù hợp với lợi ích của con người, hậu quả sẽ rất khó lường.
Nói cách khác, ngay cả khi AI không công khai chống lại con người, nó vẫn có thể phát triển vượt xa chúng ta đến mức không còn coi con người là yếu tố quan trọng. Khi đó, tình huống có thể giống cách con người đối xử với động vật hoang dã ngày nay: không phải vì ác ý mà tiêu diệt chúng, nhưng các dự án phát triển của con người lại phá hủy môi trường sống và khiến nhiều loài khó tồn tại hơn.
Hawking qua đời trước khi ChatGPT ra đời và làn sóng AI bùng nổ mạnh mẽ như hiện nay. Tuy vậy, ông đã sớm nhận thấy xu hướng này. Năm 2015, ông là một trong những nhà khoa học ký “Thư ngỏ về trí tuệ nhân tạo”, trong đó nhấn mạnh cả lợi ích lẫn rủi ro tiềm tàng của công nghệ này. Mục tiêu của bức thư là kêu gọi thúc đẩy nghiên cứu nghiêm túc về AI và an toàn AI, nhằm phát triển các hệ thống tối đa hóa lợi ích đồng thời giảm thiểu rủi ro.
Chúng ta không thể biết Hawking sẽ đánh giá thế nào về làn sóng AI hiện nay, nhưng nhiều khả năng ông sẽ tiếp tục nhấn mạnh yêu cầu phát triển AI theo hướng an toàn, có kiểm soát và phục vụ lợi ích lâu dài của nhân loại.
3. Kỹ thuật di truyền

Stephen Hawking cũng nhiều lần đề cập đến kỹ thuật di truyền trong các bài luận của mình. Ông dự đoán trong thế kỷ này con người có thể “khám phá ra cách sửa đổi cả trí thông minh lẫn bản năng, chẳng hạn như sự hung hăng”. Dù các quy định pháp lý chắc chắn sẽ được đặt ra để kiểm soát công nghệ này, Hawking cho rằng những người giàu vẫn có thể tìm cách cải thiện gen cho bản thân và con cái, từ đó hình thành một nhóm người có năng lực vượt trội.
Theo ông, điều này có thể tạo ra sự chia rẽ sâu sắc trong xã hội giữa con người được cải tiến và con người bình thường. Những xung đột tiềm tàng giữa hai nhóm này đã nhiều lần được mô tả trong các tác phẩm khoa học viễn tưởng, nơi các cuộc cạnh tranh về quyền lực và lợi thế sinh học có thể dẫn tới những kịch bản khó lường.
Bên cạnh việc chỉnh sửa gen con người, Hawking cũng cảnh báo về nguy cơ từ các loại virus biến đổi gen. Hiện nay, nghiên cứu trong lĩnh vực này chủ yếu phục vụ mục tiêu tích cực như điều trị ung thư và các bệnh nguy hiểm khác. Tuy nhiên, khi công nghệ trở nên phổ biến và dễ tiếp cận hơn, khả năng bị lạm dụng cũng tăng lên.
Nếu một loại virus nguy hiểm được chỉnh sửa để vừa có khả năng lây lan mạnh vừa gây chết người, nguy cơ bị sử dụng sai mục đích sẽ trở thành mối đe dọa nghiêm trọng đối với nhân loại.
4. Người ngoài hành tinh đang gây rắc rối cho chúng ta

Stephen Hawking không khẳng định cũng không phủ nhận sự tồn tại của sự sống thông minh ngoài Trái Đất. Thay vào đó, ông suy ngẫm về nhiều kịch bản khác nhau: sự sống có thể tồn tại nhưng ở quá xa để con người tiếp cận, hoặc trí thông minh trong vũ trụ thực ra rất hiếm và nhân loại có thể là loài đầu tiên đạt tới trình độ này.
Dù thừa nhận còn nhiều điều chưa chắc chắn, Hawking vẫn tỏ ra thận trọng với việc con người chủ động tìm cách liên lạc với người ngoài hành tinh. Theo ông, nếu tồn tại một nền văn minh có khả năng nhận tín hiệu hoặc đến được Trái Đất, họ gần như chắc chắn phải tiên tiến hơn nhân loại rất nhiều. Trong trường hợp đó, việc phát tín hiệu có thể khiến con người vô tình tự đặt mình vào tình thế nguy hiểm.
Hawking cho rằng một nền văn minh đủ khả năng du hành xuyên không gian có thể mang theo động cơ chinh phục hoặc thuộc địa hóa. Vì vậy, ông cảnh báo việc phát tín hiệu chủ động có thể giống như “tự giới thiệu vị trí” của nhân loại trong vũ trụ.
Dù vậy, Hawking vẫn chia sẻ sự tò mò của giới khoa học. Năm 2015, ông tham gia khởi động dự án tìm kiếm sự sống ngoài Trái Đất mang tên Breakthrough Listen. Khác với nhiều chương trình trước đó, dự án này chỉ tập trung lắng nghe tín hiệu từ vũ trụ thay vì gửi thông điệp ra ngoài.
Sự khác biệt này đặc biệt quan trọng đối với Hawking. Tại buổi họp báo công bố dự án, ông cảnh báo: “Một nền văn minh có thể đọc được thông điệp của chúng ta có thể đã phát triển trước chúng ta hàng tỷ năm. Nếu vậy, họ sẽ mạnh mẽ hơn rất nhiều và có thể không coi chúng ta có giá trị hơn cách chúng ta nhìn nhận vi khuẩn".
5. Thất bại trong việc thuộc địa hóa các hành tinh khác

Stephen Hawking từng đưa ra nhiều cảnh báo về các kịch bản có thể dẫn tới sự diệt vong của nhân loại. Tuy nhiên, điều quan trọng không phải là tin tuyệt đối vào từng dự đoán cụ thể của ông. Thông điệp cốt lõi mà Hawking muốn nhấn mạnh là: có rất nhiều con đường có thể dẫn tới thảm họa, và việc phớt lờ những nguy cơ đó chỉ khiến khả năng xảy ra sớm hơn.
Theo ông, dù tồn tại bao nhiêu kịch bản tận thế, nhân loại vẫn có một hướng giải quyết mang tính lâu dài: mở rộng sự sống ra ngoài Trái Đất.
Lập luận của Hawking về việc thuộc địa hóa không gian khá đơn giản. Càng mở rộng sự hiện diện của mình trong vũ trụ, khả năng sống sót của loài người càng cao. Nếu toàn bộ nhân loại chỉ tồn tại trên một hành tinh, sự sụp đổ của hành tinh đó có thể xóa sổ chúng ta. Nhưng nếu con người sinh sống trên nhiều hành tinh khác nhau, nguy cơ tuyệt chủng sẽ giảm đáng kể.
Tuy vậy, rời khỏi Trái Đất không có nghĩa là từ bỏ hành tinh này. Theo Hawking, việc mở rộng ra không gian có thể giúp giảm áp lực lên Trái Đất, tạo cơ hội để môi trường tự phục hồi. Đồng thời, vì con người không thể mang theo toàn bộ hệ sinh thái của hành tinh, việc mở rộng ra ngoài vũ trụ trước khi Trái Đất bị tàn phá nghiêm trọng cũng có thể giúp các loài khác có cơ hội tồn tại lâu dài.
Hawking tin rằng trong khoảng 100 năm tới, nhân loại có thể bắt đầu tìm kiếm những “ngôi nhà” mới ngoài Trái Đất. Ông cho rằng quá trình này cần được thúc đẩy sớm, bởi nguy cơ một cuộc chiến tranh hạt nhân hoặc thảm họa môi trường có thể tàn phá hành tinh trong vòng 1.000 năm tới.












