1. Dòng sự kiện:
  2. Tranh cãi về Pi Network
  3. Đánh giá sản phẩm
  4. Hướng dẫn thủ tục hành chính online

Hoảng loạn khi bị ghép mặt vào clip sex để tống tiền

Nam Đoàn Quyết Thắng

(Dân trí) - Nhiều người dùng mạng xã hội là nạn nhân của việc bị ghép vào clip nhạy cảm. Chiêu trò này ngày càng tinh vi trong thời đại của trí tuệ nhân tạo.

Hoảng loạn khi bị ghép mặt vào clip sex để tống tiền - 1

Ảnh chụp nạn nhân Hoàng Anh bị một tài khoản Facebook nhắn tin đe dọa chuyển tiền sau khi bị ghép vào clip nhạy cảm (Ảnh: Quyết Thắng).

Chiêu trò nở rộ dưới thời đại AI

Anh Nguyễn Hoàng Anh (tên nhân vật đã được thay đổi), 24 tuổi, sinh sống tại Hà Nội, là một trong những nạn nhân của việc ghép clip sex tống tiền.

Đáng chú ý, kẻ lừa đảo đã thuyết phục anh nhấp vào đường link lạ, dẫn đến hậu quả anh bị xâm nhập vào tài khoản mạng xã hội mà không hề hay biết, làm lộ thông tin danh bạ điện thoại, lịch sử trò chuyện trên Facebook.

Từ đó, chúng lấy làm cơ sở để đe dọa gửi clip sex giả mạo tới các người thân của nạn nhân, buộc anh phải chuyển tiền.

Chia sẻ với phóng viên báo Dân trí, anh Nguyễn Hoàng Anh không quên được những ngày tháng mình bị đe dọa tâm lý: "Tôi được một tài khoản nữ chủ động kết bạn và nhắn tin, người này thường xuyên đề cập đến vấn đề tình dục và gửi ảnh nóng, khiến tôi cảm thấy hứng thú.

Tôi truy cập vào tài khoản này và có lòng tin đây là người dùng thật, do thấy tài khoản được sử dụng trong một thời gian dài. Sau khi trao đổi hình ảnh, tài khoản này chủ động gọi video, làm tăng thêm sự tin tưởng của tôi".

Theo anh Hoàng Anh, sau một thời gian trò chuyện, trong một cuộc gọi video, người này yêu cầu nạn nhân thực hiện những hành động không đúng đắn và nạn nhân đã làm theo. 

Ngay sau khi kết thúc cuộc trò chuyện video, kẻ lừa đảo gửi một đường link đến một tài khoản Facebook khác, nói rằng đó là tài khoản thật của họ.

"Vì tin tưởng, tôi đã ấn vào link và bị lộ thông tin như danh bạ điện thoại và cuộc trò chuyện trên Facebook mà tôi không hề phát hiện. Sau đó, một tài khoản thứ ba nhắn tin đe dọa và gửi hình ảnh, video chat sex (giả mạo) cho bạn bè tôi," anh Hoàng Anh cho biết.

Theo đó, những video chat sex giả mạo được kẻ lừa đảo ghép từ những video mà nạn nhân gọi trò chuyện với chúng trong một thời gian dài, sử dụng công nghệ Deepfake để ghép mặt nạn nhân.

"Trước những lời đe dọa của chúng, tôi đã chuyển khoản một số tiền với hy vọng được yên ổn, nhưng đối tượng lừa đảo vẫn tiếp tục tống tiền và đe dọa. Mục đích của chúng là tống được càng nhiều tiền càng tốt," anh chia sẻ thêm.

Nạn nhân đã chuyển tiền nhiều lần với tổng số tiền hơn 10 triệu đồng, song những kẻ lừa đảo vẫn không buông tha. 

Trước tình hình lừa đảo tống tiền bằng clip nhạy cảm, Bộ Công an mới đây đã đưa ra cảnh báo tới tất cả người dân: Xuất hiện tình trạng tội phạm lợi dụng các hình ảnh, video của người dân được công khai trên không gian mạng để chỉnh sửa, cắt, ghép tạo nội dung nhạy cảm nhằm đe dọa, tống tiền.

Bộ Công an khuyến cáo người dân: Cảnh giác khi nhận được các tin nhắn, cuộc gọi có nội dung như trên; không chuyển tiền khi bị đe dọa; khi phát hiện dấu hiệu bị lừa đảo, cưỡng đoạt tài sản cần nhanh chóng trình báo Cơ quan Công an nơi gần nhất và phản ánh qua ứng dụng VNeID.

Hoảng loạn khi bị ghép mặt vào clip sex để tống tiền - 2

Các đối tượng giả danh bệnh nhân để cắt ghép hình ảnh nhạy cảm tống tiền bác sĩ (Ảnh: Chụp màn hình).

Lừa đảo, tống tiền qua clip nhạy cảm không chỉ mới diễn ra gần đây. Cuối năm 2023, hàng loạt bác sĩ đã phải kêu cứu vì họ trở thành nạn nhân của hành vi này.

Các đối tượng sử dụng thủ đoạn tinh vi, vào trang cá nhân Facebook của các bác sĩ để đóng giả làm bệnh nhân và nhờ khám, tư vấn…

Sau đó, các đối tượng gọi video nhờ tư vấn khám bệnh để lấy hình các bác sĩ, cắt ghép video thành clip sex, đe dọa tống tiền.

AI tham gia vào Deepfake để lừa đảo

Sự phát triển của trí tuệ nhân tạo giúp kẻ xấu ghép khuôn mặt nạn nhân vào hình ảnh, video xấu một cách nhanh chóng và chân thực để thực hiện thao túng tâm lý, từ đó cưỡng ép, chiếm đoạt tài sản của họ.

Chia sẻ với phóng viên báo Dân trí, ông Vũ Ngọc Sơn, Trưởng ban Công nghệ và Hợp tác Quốc tế (Hiệp hội An ninh mạng Quốc gia) cho biết: "Bên cạnh việc AI có thể trích xuất các dữ liệu đằng sau các bức ảnh, kẻ xấu cũng có thể dùng AI để tạo ra các clip mạo danh, hình ảnh giả mạo bằng Deepfake. Càng nhiều bức ảnh có khuôn mặt của người dùng thì các clip Deepfake được tạo ra càng sắc nét, giống như thật.

Nếu các clip và hình ảnh tạo ra bằng Deepfake này được dùng vào các mục đích lừa đảo, tống tiền thì có thể đe dọa danh tiếng và đời sống cá nhân của người bị hại. Có thể nói với những bức ảnh thu thập được, AI sẽ là một công cụ mạnh mẽ tiếp tay cho những kẻ lừa đảo".

Ông Sơn thông tin thêm, các hình ảnh, clip dựng bằng Deepfake thường được kẻ xấu phát tán qua các nền tảng mạng xã hội nhiều người dùng như Facebook, Instagram, Twitter hay qua các ứng dụng nhắn tin như Zalo, WhatsApp hoặc Telegram.

Lý do là các nền tảng này dễ dàng chia sẻ video và hình ảnh, đồng thời có thể tạo điều kiện cho việc phát tán thông tin nhanh chóng và rộng rãi. Sự thiếu kiểm soát chặt chẽ về nội dung video trên mạng xã hội khiến Deepfake dễ dàng lan truyền.

Hoảng loạn khi bị ghép mặt vào clip sex để tống tiền - 3

Đồng quan điểm với ông Vũ Ngọc Sơn, chuyên gia công nghệ Nguyễn Việt Hùng, CEO Color Me cảnh báo: "Chỉ cần một vài hình ảnh từ nạn nhân hay một video bất kỳ, công nghệ Deepfake có thể thay đổi gương mặt người bên trong clip thành gương mặt nạn nhân. Trên thực tế, đã có rất nhiều người nổi tiếng, ngôi sao cũng đã trở thành nạn nhân từ Deepfake".

Theo đại diện Trung tâm An toàn thông tin Tập đoàn VNPT, AI sẽ giúp tin tặc thực hiện nhiều hình thức lừa đảo mới, trong đó có công nghệ Deepfake giả mạo giọng nói, video; tin tặc sử dụng AI giả mạo giọng nói, khuôn mặt không chỉ để ghép vào clip nhạy cảm mà còn ghép những khuôn mặt của người thân nạn nhân để lừa chuyển tiền.

Các chuyên gia cho biết, lỗ hổng có thể bị khai thác bởi Deepfake là lỗ hổng trong công nghệ nhận diện khuôn mặt: Các công nghệ nhận diện khuôn mặt không đủ mạnh, không có khả năng phân biệt người và clip giả, có thể bị kẻ xấu lợi dụng để qua mặt khi xác thực sinh trắc học.

Người dùng cần trang bị kỹ năng để nhận biết và phòng tránh lừa đảo Deepfake như:

Xác minh nguồn gốc video: Luôn kiểm tra các video bất thường bằng cách kiểm chứng từ nhiều nguồn tin cậy trước khi tin vào nội dung của nó.

Cảnh giác với thông tin gây tò mò, khó hiểu, gây sốc hoặc yêu cầu hành động ngay lập tức: Các video Deepfake thường được sử dụng để gây sự hoảng loạn hoặc yêu cầu hành động khẩn cấp.

Hạn chế chia sẻ thông tin cá nhân: Càng ít thông tin cá nhân chia sẻ trực tuyến, càng khó cho kẻ xấu tạo ra video Deepfake thuyết phục.