Mất hàng chục ngàn USD vì bị A.I giả giọng người thân để gọi điện lừa tiền

T.Thủy

(Dân trí) - Một cặp đôi người Canada đã bị mất hơn 15.000 USD vì cuộc gọi điện giả mạo, trong đó A.I đã giả giọng con trai của họ để lừa đảo. Trước đó, một cụ bà 73 tuổi cũng mắc phải trò lừa tương tự.

Mọi chuyện xảy ra khi cha mẹ của Benjamin Perkin, sống tại Canada, nhận được một cuộc gọi từ người tự xưng là luật sư của Benjamin, cho biết anh này vừa gây ra một vụ tai nạn chết người và yêu cầu cha mẹ của Benjamin phải chuyển tiền để trang trải các chi phí về pháp lý.

Để tăng tính tin cậy, kẻ lừa đảo đã sử dụng phần mềm trí tuệ nhân tạo giả giọng nói của Benjamin để nói chuyện với ba mẹ của anh qua điện thoại. Khi nghe giọng nói của con mình, mà thực chất do trí tuệ nhân tạo nhái theo, cha mẹ của Benjamin đã không còn nghi ngờ gì và lập tức gửi số tiền 21.000 đô la Canada (tương đương 15.400 USD) theo yêu cầu của kẻ lừa đảo.

"Giọng nói do phần mềm trí tuệ nhân tạo tạo ra giống đến mức cha mẹ tưởng rằng họ đang nói chuyện trực tiếp với tôi", Benjamin Perkin chia sẻ.

Trí tuệ nhân tạo có thể tạo ra giọng nói giả mạo giống như thật để thực hiện các cuộc gọi lừa đảo (Ảnh minh họa: Washington Post).

Trí tuệ nhân tạo có thể tạo ra giọng nói giả mạo giống như thật để thực hiện các cuộc gọi lừa đảo (Ảnh minh họa: Washington Post).

Cha mẹ của Benjamin chỉ nhận ra mình đã bị lừa sau khi chính anh này gọi điện về nhà. Tuy nhiên, khi nhận ra sự thật thì mọi chuyện đã quá muộn vì tiền đã chuyển đến tài khoản kẻ lừa đảo.

"Tiền đã gửi đi mất. Chúng tôi không có bảo hiểm và không thể lấy lại được", Benjamin Perkin cho biết thêm. Gia đình của Perkin đã thông báo sự việc với cảnh sát Canada, nhưng không hy vọng có thể lấy lại được tiền.

Benjamin không biết những kẻ lừa đảo đã tìm thấy giọng nói của anh ở đâu để có thể nhái theo, nhưng trước đó anh đã đăng lên Youtube một video mình chơi trượt tuyết. Nhiều khả năng, những kẻ lừa đảo đã lọc giọng nói của anh trong đoạn video này để bắt chước theo.

Đáng chú ý, gia đình Perkin không phải là nạn nhân duy nhất của những kẻ giả mạo giọng nói bằng trí tuệ nhân tạo để thực hiện những cuộc gọi lừa đảo.

Trước đó, cụ bà Ruth Card, 73 tuổi, sống tại thành phố Regina (tỉnh Saskatchewan, Canada) cũng là nạn nhân của trò lừa đảo tương tự.

Mọi chuyện bắt đầu khi cụ bà này nhận được cuộc gọi từ một người tự nhận là Brandon, cháu trai của bà. Người này cho biết mình đang bị bắt tạm giam mà không cầm theo ví tiền, điện thoại di động và cần một số tiền để được bảo lãnh.

"Cảm giác của tôi lúc đó là hoảng sợ và muốn làm mọi cách để cứu cháu trai của mình", bà Ruth Card chia sẻ.

Bà Ruth cùng chồng của mình, ông Greg Grace, 75 tuổi, vội vàng lao đến ngân hàng để rút số tiền 3.000 đô la Canada (tương đương 2.207 USD), số tiền tối đa có thể rút mỗi ngày tại chi nhánh ngân hàng.

Cụ bà Ruth Card suýt chút nữa trở thành nạn nhân của cuộc gọi lừa đảo (Ảnh: Postmedia).

Cụ bà Ruth Card suýt chút nữa trở thành nạn nhân của cuộc gọi lừa đảo (Ảnh: Postmedia).

Cặp đôi này vội vã đến một chi nhánh khác để rút thêm tiền. Tuy nhiên, giám đốc của chi nhánh này khi nghe câu chuyện do bà Ruth kể lại đã kéo họ vào văn phòng để nói chuyện. Người này cho biết một khách hàng quen của ngân hàng cũng vừa đến để rút tiền sau khi nhận được một cuộc gọi từ người thân với lý do tương tự. Điều này khiến bà Ruth hoài nghi về danh tính thực sự của người đã gọi điện cho mình.

"Chúng tôi đã bị hút vào trò lừa đảo đó. Chúng tôi cứ nghĩ chắc rằng chính Brandon đã gọi điện cho mình", bà Ruth Card chia sẻ.

May mắn hơn gia đình Perkin, vợ chồng bà Ruth Card đã được cảnh báo kịp thời để tránh trở thành nạn nhân của những kẻ lừa đảo.

Sự gia tăng của những phần mềm trí tuệ nhân tạo mạnh mẽ đang dẫn đến sự gia tăng của các vụ lừa đảo liên quan đến mạo danh người khác. Theo Ủy ban Thương mại Liên bang (FTC), số vụ lừa đảo được báo cáo phổ biến nhất tại Mỹ trong năm 2022 là những vụ lừa đảo mạo danh. FTC cho biết đã nhận được báo cáo từ 2,4 triệu người về các vụ lừa đảo mạo danh, với số tiền bị mất lên đến 8,8 tỷ USD.

Không chỉ sử dụng cho mục đích lừa đảo, trí tuệ nhân tạo còn có thể bị kẻ xấu lợi dụng để giả giọng nói của những người nổi tiếng nhằm đưa ra những phát biểu sai trái, kích động và mang tính phân biệt chủng tộc, điều này có thể dẫn đến những hậu quả nghiêm trọng.

Hiện FTC đã thành lập Văn phòng Công nghệ mới để điều tra tiềm năng sử dụng A.I và giảm thiểu những rủi ro do A.I mang lại.

"Chúng tôi đang lo ngại về công nghệ trí tuệ nhân tạo, những thứ trở nên phổ biến và dễ tiếp cận hơn", phát ngôn viên của FTC Juliana Gruenwald, chia sẻ. "Các công cụ trí tuệ nhân tạo giúp tạo ra video, hình ảnh và âm thanh giống như thật đang làm gia tăng đáng kinh ngạc các vụ lừa đảo trên mạng xã hội".

2 trường hợp kể trên được xem là những minh chứng rõ nét cảnh báo người dùng mạng xã hội, đừng vội vàng tin vào những hình ảnh hay video được chia sẻ lên mạng xã hội, bởi lẽ rất có thể đó chỉ là những sản phẩm của A.I được tạo ra nhằm mục đích đánh lừa người khác hoặc để lan truyền các thông tin giả mạo.

Theo WP/Insider