Deepfake và video call: Lợi dụng công nghệ để lừa đảo

14/03/2023, 14:30
Theo dõi Giáo dục Thủ đô trên

Nhận được cuộc gọi, nghe được giọng nói và thấy được hình ảnh qua video call của người thân, tuy nhiên một số người vẫn bị lừa chuyển khoản mất tiền, vì đó là do công nghệ, chứ không phải là người thật.

Chuyên gia Ngô Minh Hiếu lưu ý một dấu hiệu để nhận biết và phòng tránh cuộc gọi Deepfake, đó là khuôn mặt của nhân vật trong video thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.

Những điều này có thể sẽ là điểm rất đáng nghi ngờ, chúng ta nên dừng lại để suy nghĩ. Bên cạnh đó, chúng ta cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí… tất cả điều này khiến video trông rất giả tạo và không tự nhiên.

Âm thanh cũng là một vấn đề có thể xảy ra trong video, có thể âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Cuối cùng, có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng cuộc gọi, bảo là mất sóng, sóng yếu...

"Các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Vì vậy, người sử dụng cần luôn cảnh giác và tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao, dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này", chuyên gia Ngô Minh Hiếu chia sẻ.

Trong tương lai, không thể lường trước được tội phạm mạng ở Việt Nam sẽ biết nhiều hơn cách làm, cách đánh cắp video, hình ảnh, rồi cắt ghép và dùng công cụ để tạo Deepfake. Lúc đó sẽ tạo ra một làn sóng lừa đảo thế hệ 4.0 mà sẽ khiến nhiều người lâu nay rất khó bị lừa, cũng sẽ dễ dàng là đối tượng bị lừa, nhất là những người ở độ tuổi trung niên trở niên vì họ thiếu nhận thức về an toàn thông tin và khó nhận biết kiểu lừa này, nếu không có được sự chia sẻ hướng dẫn an toàn trên không gian mạng.

Làm gì để dữ liệu khuôn mặt và giọng nói không bị lợi dụng cho Deepfake?

Theo ông Ngô Minh Hiếu, cách tốt nhất để tránh bị làm giả Deepfake, người sử dụng nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao.

Nếu bị làm giả Deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.

Nếu chia sẻ video hay clip trên mạng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật của mình.


Theo baochinhphu.vn
https://baochinhphu.vn/deepfake-va-video-call-loi-dung-cong-nghe-de-lua-dao-102230314111848426.htm
Copy Link
https://baochinhphu.vn/deepfake-va-video-call-loi-dung-cong-nghe-de-lua-dao-102230314111848426.htm
Bài liên quan

(0) Bình luận
Nổi bật Giáo dục thủ đô
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Deepfake và video call: Lợi dụng công nghệ để lừa đảo