Trí tuệ nhân tạo dùng trong xung đột quân sự nguy hiểm như thế nào?
(Dân trí) - Sự xuất hiện của các mô hình AI chuyên dụng cho tác chiến đang phá vỡ những "lằn ranh đỏ" trong xung đột.

Dùng AI xây dựng kế hoạch tác chiến đang dấy lên nhiều lo ngại (Ảnh minh hoạ: ST).
Trong khi những công ty công nghệ về AI như Anthropic đang tranh luận gắt gao về việc đặt ra các "lằn ranh đỏ" cho trí tuệ nhân tạo trong quân sự, ở một góc khác Smack Technologies lại chọn con đường thực dụng hơn.
Công ty đang huấn luyện các mô hình để trực tiếp lập kế hoạch tác chiến. Sự xuất hiện của Smack không chỉ là một dự án công nghệ đơn thuần, mà còn là minh chứng cho một làn sóng startup (khởi nghiệp) mới đang xây dựng AI tiên tiến dành riêng cho các ứng dụng quốc phòng, bất chấp những lo ngại về kiểm soát rủi ro.
Mới đây, Smack Technologies đã gây chú ý khi huy động thành công 32 triệu USD để phát triển các mô hình được kỳ vọng sẽ sớm vượt xa Claude của Anthropic trong việc thực hiện các hoạt động quân sự đặc biệt.
Khác với lập trường thận trọng của các phòng thí nghiệm AI truyền thống, CEO Smack Technologies, Andy Markoff - một cựu chỉ huy đặc nhiệm Thủy quân lục chiến từng tham chiến tại Iraq và Afghanistan - tin rằng trách nhiệm đạo đức thuộc về những người thực thi.
"Khi phục vụ trong quân đội, bạn tuyên thệ tuân thủ các quy tắc chiến tranh. Với tôi, những người triển khai công nghệ và đảm bảo nó được sử dụng đạo đức cần phải mặc quân phục (người trực tiếp chịu ràng buộc bởi luật pháp và kỷ luật quân đội - PV)", Markoff khẳng định.
Cách tiếp cận của Smack mang hơi hướng của AlphaGo năm 2017, nơi AI học hỏi thông qua quá trình thử sai không ngừng nghỉ. Thay vì chỉ tóm tắt văn bản, mô hình này được chạy qua hàng triệu kịch bản chiến tranh khác nhau, nhận phản hồi trực tiếp từ các nhà phân tích, chuyên gia để tinh lọc những chiến lược tối ưu nhất.
Dù không có ngân sách khổng lồ như các công ty lớn ở Mỹ, Smack Technologies vẫn sẵn sàng chi hàng triệu USD cho việc huấn luyện mô hình AI với mục tiêu duy nhất: Tự động hóa những quy trình lập kế hoạch tẻ nhạt vốn vẫn đang dựa vào bảng trắng và sổ tay.
Chính sự khác biệt trong tư duy này đã tạo nên những vết rạn nứt lớn tại Thung lũng công nghệ Silicon.
Điển hình như một hợp đồng trị giá 200 triệu USD giữa Bộ Chiến tranh Mỹ và Anthropic đã đổ vỡ khi các quan chức xung đột trực tiếp với ban lãnh đạo công ty về các điều khoản sử dụng.
Việc Anthropic muốn hạn chế dùng mô hình của mình trong vũ khí tự động đã khiến Bộ trưởng Bộ Chiến tranh Pete Hegseth gọi đây là một "rủi ro đối với chuỗi cung ứng".
Tuy nhiên, Markoff lại cho rằng sự tranh cãi này đang che khuất một thực tế kỹ thuật: Các mô hình ngôn ngữ lớn hiện nay (như Claude) vốn không được tối ưu hóa cho quân sự. Chúng thiếu sự hiểu biết về thế giới vật chất và hoàn toàn không có khả năng nhận dạng mục tiêu để điều khiển phần cứng vật lý.
Dẫu vậy, viễn cảnh AI tham gia sâu hơn vào việc ra quyết định vẫn là một "con dao hai lưỡi". Markoff lập luận rằng, nếu Mỹ đối đầu với một đối thủ ngang tầm như Nga hay Trung Quốc, ưu thế đưa ra quyết định tự động sẽ là yếu tố sống còn.
Thế nhưng, tính đáng tin cậy của AI vẫn là một dấu hỏi lớn. Một thí nghiệm gần đây tại Đại học King's College London đã gióng lên hồi chuông cảnh báo khi các mô hình ngôn ngữ lớn có xu hướng leo thang xung đột hạt nhân trong các cuộc diễn tập giả định.
Đồng quan điểm, nhà phân tích Anna Hehir từ Viện Tương lai Cuộc sống (một tổ chức phi lợi nhuận phản đối việc phát triển vũ khí tự hành điều khiển bằng AI) cho rằng, AI hiện nay vẫn quá khó đoán và khó giải thích để có thể tham gia vào quân sự. Những hệ thống này không thể nhận biết ai là chiến binh và ai là trẻ em, chứ đừng nói đến việc nhận diện hành động đầu hàng.
Giữa bối cảnh các cuộc xung đột đang phơi bày sức mạnh của công nghệ thương mại trên chiến trường, cuộc đua AI quân sự đang đứng trước một ngã rẽ lớn khiến các chuyên gia phải đặt câu hỏi: Liệu chúng ta đang tạo ra những trợ lý chiến lược tài ba, hay tước đi quyền làm chủ trước những vũ khí hủy diệt nằm ngoài tầm kiểm soát?





