“Bị bạn lừa với phần mềm deepfake, người đàn ông bị vấy bẩn danh dự”

#TròlừađảoDeepfakebùngnổtrêntoànthếgiới
Một người đàn ông tại Trung Quốc vừa trở thành nạn nhân của một vụ lừa đảo deepfake, khi tin tặc sử dụng công nghệ trí tuệ nhân tạo để tái tạo chân dung và giọng nói của người bạn của anh ta, thuyết phục anh ta chuyển số tiền lớn vào tài khoản của kẻ lừa đảo. Vụ lừa đảo này đã làm tăng lo ngại về sức mạnh của công nghệ AI và khả năng của tin tặc trong việc đánh cắp thông tin tài chính.
Các vụ lừa đảo deepfake đang gia tăng mạnh trên toàn thế giới, với các tin tặc sử dụng công nghệ trí tuệ nhân tạo tái tạo giọng nói và chân dung của người khác để gây ra các cuộc gọi lừa đảo.
Từ Weibo đến Bộ An ninh Nội địa, mọi người đang cảnh báo về mối đe dọa lớn từ các vụ lừa đảo deepfake và những tác hại của sự lan truyền thông tin sai lệch trên Internet.
Để tránh trở thành nạn nhân, người dùng cần tăng cường ý thức và nhận ra các yêu cầu lừa đảo phổ biến bao gồm yêu cầu chuyển tiền và cung cấp thông tin tài khoản cá nhân.
Với sự phát triển không ngừng của công nghệ, người dùng cần cẩn trọng để đảm bảo sự an toàn và bảo vệ thông tin cá nhân của mình.
#Deepfake #LừađảoAI #Anntoànnhânviên #TechModo

Nguồn: https://gizmodo.com/deepfake-ai-scammer-money-wiring-china-1850461160

Một vụ lừa đảo deepfake ở Trung Quốc đã làm gia tăng lo ngại rằng trí tuệ nhân tạo sẽ cho phép tin tặc dễ dàng có được thông tin tài chính. Tin tặc sử dụng phần mềm AI tiên tiến đã thuyết phục một người đàn ông ở miền bắc Trung Quốc chuyển tiền cho bạn của anh ta, nhưng thay vào đó lại chuyển số tiền đó đến một tài khoản lừa đảo.

Thuyết âm mưu và thông tin sai lệch vượt khỏi tầm kiểm soát trên Internet như thế nào | TechModo

Nạn nhân sống ở Baotou, một khu vực ở nội Mông Cổ và cảnh sát địa phương cho biết tin tặc đã sử dụng AI để tái tạo chân dung của người bạn trong một cuộc gọi video bao gồm cả khuôn mặt và giọng nói của anh ta. Vụ lừa đảo deepfake khiến nạn nhân tin rằng anh ta đang chuyển 4,3 triệu Nhân dân tệ (622.000 USD) cho bạn mình để đặt cọc đấu thầu. Khi người bạn nói với nạn nhân rằng anh ta không biết về vụ việc, người đàn ông đã báo cáo vụ lừa đảo với chính quyền. Họ nói rằng họ đã có thể lấy lại được phần lớn số tiền bị đánh cắp nhưng vẫn đang làm việc để lấy lại phần còn lại. Reuters báo cáo.

Weibo, một trang tiểu blog của Trung Quốc, đang được sử dụng như một diễn đàn để thảo luận về mối đe dọa liên tục của các vụ lừa đảo deepfake, với thẻ bắt đầu bằng #, “Trò lừa đảo #AI đang bùng nổ trên toàn quốc” đang lan truyền với hơn 120 triệu lượt xem vào thứ Hai. “Điều này cho thấy rằng tất cả ảnh, giọng nói và video đều có thể bị những kẻ lừa đảo sử dụng,” một người dùng viết. “Các quy tắc bảo mật thông tin có thể theo kịp các kỹ thuật của những người này không?”

Sự cố gần đây này xảy ra khi các vụ lừa đảo AI đã gia tăng mạnh mẽ trên toàn thế giới, với các báo cáo về những kẻ lừa đảo sử dụng công nghệ AI tái tạo giọng nói để nhận tiền qua cuộc gọi điện thoại. Bộ An ninh Nội địa đã công bố một báo cáo cảnh báo về các trò gian lận deepfake, nói rằng: “Rõ ràng là mức độ nghiêm trọng và cấp bách của mối đe dọa hiện tại từ phương tiện tổng hợp phụ thuộc vào mức độ tiếp xúc, quan điểm và vị trí của người bạn hỏi. Các mối lo ngại trải dài từ ‘mối đe dọa khẩn cấp’ đến ‘đừng hoảng sợ, chỉ cần chuẩn bị sẵn sàng’”.

Tại Vương quốc Anh, Giám đốc điều hành của một công ty năng lượng địa phương đã chuyển 220.000 € (tương đương 243.000 USD) vào tài khoản ngân hàng của nhà cung cấp Hungary sau khi nhận được một cuộc điện thoại từ ông chủ được cho là của mình. Giọng nói thực sự thuộc về một kẻ lừa đảo đã sử dụng công nghệ giọng nói AI để sao chép giọng nói của ông chủ, và CEO nói Tạp chí Phố Wall rằng anh ấy đã nhận ra giọng Đức tinh tế và nói rằng nó mang “giai điệu” trong giọng nói của anh ấy.

Trong khi đó, tại Mỹ, một sở cảnh sát ở miền nam Wisconsin đã cảnh báo người dân vào đầu tháng này về những vụ lừa đảo tương tự sau khi nhận được báo cáo từ một người cho biết họ nhận được cuộc gọi từ một người “có vẻ giống như người thân của họ”. NBCChicago báo cáo. Mặc dù cảnh sát cho biết họ không thể chính thức xác minh rằng đó là giọng nói do AI tạo ra, nhưng họ đã viết trên Facebook bưu kiện“Chúng tôi muốn cộng đồng của mình biết rằng công nghệ này đã có sẵn.”

Bộ An ninh Nội địa cho biết các kịch bản này “chắc chắn sẽ tăng lên khi chi phí và các nguồn lực khác cần thiết để tạo ra các giả mạo sâu có thể sử dụng đồng thời giảm xuống”. Để tránh trở thành nạn nhân, DHS khuyến nghị gọi cho người được cho là đã yêu cầu tiền để xác minh và nhận thức được các yêu cầu lừa đảo phổ biến bao gồm yêu cầu “các nạn nhân chuyển tiền, gửi tiền điện tử hoặc mua thẻ quà tặng và cung cấp cho họ số thẻ và mã PIN.”


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *