ChatGPT bị cáo buộc thúc đẩy hung thủ sát hại mẹ ruột
(Dân trí) - Công cụ chat tích hợp trí tuệ nhân tạo ChatGPT đã bị cáo buộc có liên quan và đóng vai trò thúc đẩy một người đàn ông sát hại chính mẹ ruột của mình trước khi tự sát.
Gia đình một nạn nhân trong vụ án mạng xảy ra tại bang Connecticut (Mỹ) đã nộp đơn kiện Công ty OpenAI lên Tòa án Tối cao San Francisco. Đơn kiện cho rằng chatbot ChatGPT đã có vai trò thúc đẩy, kích động hành vi bạo lực của hung thủ, dẫn đến cái chết của nạn nhân.
Theo hồ sơ vụ việc, tháng 8 vừa qua, Stein Erik Soelberg, 56 tuổi, từng giữ vị trí giám đốc tiếp thị trong lĩnh vực công nghệ, đã hành hung mẹ ruột là bà Suzanne Adams, 83 tuổi. Nạn nhân bị thương nghiêm trọng và tử vong sau đó. Sau khi gây án, Soelberg được xác định đã tự sát.

ChatGPT bị cáo buộc làm trầm trọng chứng hoang tưởng của người dùng dẫn đến vụ án mạng (Ảnh minh họa: Getty).
Trước khi xảy ra vụ án mạng, Stein Erik Soelberg thường xuyên đăng tải trên các tài khoản Instagram và YouTube cá nhân những nội dung cho thấy ông đã sử dụng ChatGPT để tìm lời khuyên nhằm vượt qua khủng hoảng tâm lý. Gia đình bà Suzanne Adams cho rằng các phản hồi từ chatbot này đã góp phần thúc đẩy hành vi bạo lực của Soelberg.
Trong đơn kiện nộp lên Tòa án Tối cao San Francisco, phía nguyên đơn nhận định ChatGPT đã củng cố những suy nghĩ hoang tưởng của một người có dấu hiệu bất ổn tâm thần, khiến ông trở nên kích động và hướng hành vi bạo lực vào chính mẹ ruột của mình.
Theo điều tra của cảnh sát, vụ việc xảy ra sau khi Soelberg phát hiện chiếc máy in trong nhà mẹ mình nhấp nháy. Ông đã hỏi ChatGPT về hiện tượng này và nhận được phản hồi cho rằng đó có thể là một thiết bị theo dõi, thậm chí gợi ý mẹ của ông là người đứng sau việc giám sát.
Đơn kiện cáo buộc những phản hồi trên đã làm gia tăng trạng thái hoang tưởng của Soelberg, khi chatbot bị cho là khẳng định ông “đang bị nhắm đến” và “có lý do để lo lắng”.
Gia đình bà Adams yêu cầu tòa án buộc OpenAI cung cấp thêm lịch sử trò chuyện để phục vụ điều tra, đồng thời yêu cầu công ty chịu trách nhiệm bồi thường và tăng cường các biện pháp an toàn nhằm ngăn chặn những sự việc tương tự.
Phản hồi trước đơn kiện, OpenAI cho biết công ty đang tiếp tục huấn luyện ChatGPT nhằm cải thiện khả năng nhận diện các dấu hiệu căng thẳng, khủng hoảng tâm lý và hướng người dùng tìm đến sự trợ giúp từ các chuyên gia sức khỏe tâm thần.
Trường hợp của Stein Erik Soelberg không phải là lần đầu tiên các hệ thống trí tuệ nhân tạo bị đặt câu hỏi về rủi ro khi đưa ra những lời khuyên không phù hợp, dẫn đến hậu quả nghiêm trọng ngoài đời thực.
Vào tháng 4/2023, một người đàn ông 30 tuổi sống tại Bỉ đã tự kết liễu đời mình sau khi một chatbot AI có tên Eliza khuyên anh này hãy hy sinh bản thân để cứu nhân loại và ngăn chặn biến đổi khí hậu.
Vào tháng 7 vừa qua, một cuộc điều tra của tạp chí The Atlantic (Mỹ) đã phơi bày những lỗ hổng đáng báo động trong hệ thống bảo mật của ChatGPT, khi công cụ AI này khuyến khích người dùng tự làm hại chính mình, thậm chí giết người, để thực hiện một nghi lễ cổ xưa.











