Deepfake trở thành cơn ác mộng đối với toàn xã hội, tội phạm mạng hiện đang khai thác trí tuệ nhân tạo để thực hiện các hành vi đánh cắp thông tin, lừa đảo.
Một cụ bà ở Hà Nội vừa bị đối tượng giả danh Công an gọi điện đe dọa nhằm lừa đảo 2 cuốn sổ tiết kiệm khoảng 300 triệu đồng. Tuy nhiên, khi đang trò chuyện bằng công nghệ “deepfake” thì bất ngờ gặp ngay… Công an thật.
Sử dụng công nghệ deepfake, một người tạo nội dung Douyin đã đăng nội dung bịa đặt về cuộc chiến tại Ukraine. Nghi ngờ nảy sinh khi người dùng tìm thấy địa chỉ IP của anh ta ở tỉnh Hà Nam, Trung Quốc.
(NLĐO) - Đã xảy ra nhiều vụ lừa đảo bằng cách cắt ghép hình ảnh, giọng nói y như thật để lừa đảo. Ngô Minh Hiếu (Hiếu PC) - người sáng lập Dự án Chống Lừa Đảo, đã "vạch rõ" chiêu trò mới này.
Nhận được cuộc gọi, nghe được giọng nói và thấy được hình ảnh qua video call của người thân, tuy nhiên một số người vẫn bị lừa chuyển khoản mất tiền, vì đó là do công nghệ, chứ không phải là người thật.