Trào lưu tạo mô hình bằng những AI tân tiến như ChatGPT đang được nhiều bạn trẻ hưởng ứng. Dù có vẻ vô hại, trend này vẫn tiềm ẩn nguy cơ về bảo mật mà không phải ai cũng biết.
Gần đây, trên các nền tảng mạng xã hội tràn ngập hình ảnh bạn bè, người nổi tiếng hay các thương hiệu “hóa thân” thành mô hình đồ chơi chỉ với một vài câu lệnh từ ChatGPT.
Xu hướng này bắt đầu nổi lên từ LinkedIn, sau đó nhanh chóng lan rộng khắp các nền tảng khác. Chỉ cần tải ảnh chân dung và nhập một vài yêu cầu đơn giản, bạn sẽ nhận được phiên bản mô hình thu nhỏ của chính mình — trông không khác gì các nhân vật đồ chơi trong hộp.
Trào lưu này được nhiều người hưởng ứng vì tính giải trí cao, dễ thực hiện và hoàn toàn miễn phí. Tuy nhiên, các chuyên gia khuyến cáo rằng người dùng cần hiểu rõ nguy cơ về việc lộ thông tin cá nhân khi chia sẻ những hình ảnh do AI tạo ra từ ảnh gốc của mình.
Chia sẻ quá nhiều sở thích cá nhân có thể biến bạn thành mục tiêu lý tưởng cho các cuộc tấn công mạng.
Càng chia sẻ nhiều thông tin với ChatGPT như các phụ kiện, sở thích và công việc, mô hình đồ chơi của bạn sẽ càng chân thật và ấn tượng. Nhưng chính điều đó lại tiềm ẩn một rủi ro lớn nếu bạn đăng tải chúng lên mạng xã hội.
Theo chuyên gia an ninh mạng Dave Chronister, CEO của công ty Parameter Security, những món đồ đi kèm với mô hình ảo của bạn có thể tiết lộ nhiều thông tin riêng tư hơn bạn nghĩ: “Việc bạn công khai những điều bản thân quan tâm nhất ở thời điểm hiện tại, rồi đăng lên mạng cho cả thế giới thấy, vô tình khiến bạn trở thành mục tiêu dễ dàng cho các cuộc tấn công lừa đảo. Kỹ thuật social engineering (khai thác tâm lý và thông tin cá nhân ) vẫn là hình thức tấn công mạng phổ biến và hiệu quả nhất hiện nay.”
Theo ông Chronister, cảm xúc là “điểm yếu” mà hacker thường nhắm tới. Khi biết bạn thích gì, họ hoàn toàn có thể dựng nên một kịch bản giả mạo như email thông báo trúng quà cho đến tin nhắn khẩn cấp, để khiến bạn mất cảnh giác và bấm vào đường link chứa mã độc.
Chẳng hạn, nếu mô hình ảo bạn tạo có phụ kiện là đĩa nhạc của một ca sĩ nổi tiếng, rất có thể bạn sẽ nhận được email mời tham gia concert “trông có vẻ thật”. Dựa vào sở thích cá nhân bạn công khai, hacker có thể dễ dàng tạo ra những cú lừa được thiết kế riêng, đánh trúng tâm lý và khiến bạn mất cảnh giác.
Vì vậy, dù trào lưu AI này trông thú vị đến đâu, hãy cân nhắc trước khi chia sẻ lên các nền tảng mạng xã hội, do đây là “địa bàn” hoạt động chủ yếu của những tên lừa đảo.
Việc chia sẻ với AI giờ đã được coi là bình thường, và đó mới là điều đáng lo ngại.
Một rủi ro khác cũng đáng quan ngại là việc ảnh của bạn có thể được lưu trữ và sử dụng để đào tạo các mô hình AI trong tương lai. Theo bà Jennifer King, chuyên gia chính sách dữ liệu tại Viện Trí tuệ Nhân tạo (ĐH Stanford), bất kỳ công cụ AI nào có khả năng tạo ảnh từ dữ liệu người dùng đều tiềm ẩn nhiều nguy cơ về quyền riêng tư.
Cô cho biết, với OpenAI (đơn vị phát triển ChatGPT), người dùng phải chủ động vào phần cài đặt và chọn "không cho phép sử dụng nội dung để huấn luyện AI". Khi đó, dữ liệu được cung cấp sẽ không bị tận dụng cho mục đích đào tạo sau này. Tuy nhiên, phần lớn người dùng lại không biết tính năng này tồn tại, hoặc đơn giản là không quan tâm.
Vậy điều gì khiến việc chia sẻ ảnh cá nhân một nền tảng AI trở thành vấn đề? Theo các chuyên gia, hệ quả lâu dài của việc để AI học từ gương mặt bạn vẫn còn là dấu hỏi lớn. Trên website chính thức, OpenAI khẳng định không dùng dữ liệu người dùng để quảng cáo hay xây hồ sơ tiếp thị, mà để “cải thiện chất lượng mô hình”. Tuy nhiên, dữ liệu của bạn sẽ “được cải thiện” ra sao, và sẽ phục vụ cho điều gì trong tương lai.
“Bạn cần tự hỏi bản thân có thoải mái khi giúp các công ty AI phát triển và kiếm tiền từ chính dữ liệu của mình hay không. Có người thấy ổn, có người không,” bà King nêu ý kiến. Còn với ông Chronister, xu hướng tạo mô hình từ AI là một “con dốc trơn” khiến chúng ta quen dần với việc chia sẻ dữ liệu cá nhân mà không cần suy nghĩ. “Bạn sẽ bắt đầu với một bức ảnh, vài thông tin nhỏ, rồi đến một lúc nào đó, chính bạn cũng không biết mình đã tiết lộ những gì đáng lẽ nên giữ riêng,” ông cảnh báo.