Theo Cơ quan Cảnh sát Quốc gia Hàn Quốc, trẻ vị thành niên chiếm gần 60% số nạn nhân của loại hình tội phạm sử dụng công nghệ deepfake thực hiện video giả mạo có nội dung khiêu dâm và phát tán trên mạng xã hội.
Deepfake là thuật ngữ chỉ việc sử dụng công nghệ kỹ thuật số, đặc biệt là Trí tuệ Nhân tạo (AI), để tạo ra các bức ảnh, video hoặc tệp âm thanh đã bị chỉnh sửa.
Tội phạm thường dùng công nghệ deepfake để tạo ra nội dung lừa đảo và khiêu dâm sau đó phát tán trên mạng xã hội mà không có sự đồng ý của những cá nhân liên quan.
Số liệu được cơ quan trên công bố ngày 30/8 cho thấy trong số 527 vụ tội phạm deepfake được báo cáo với cảnh sát từ năm 2021 đến năm 2023, có 315 nạn nhân (chiếm 59,8%) được xác định là thanh thiếu niên.
Đăng thảo luận