Tội phạm tình dục số tăng vọt tại Hàn Quốc vì deepfake, AI
Hơn 1.300 vụ tội phạm tình dục số liên quan đến công nghệ deepfake được ghi nhận tại Hàn Quốc năm 2024, phần lớn nạn nhân là thanh thiếu niên, thậm chí có cả trẻ em dưới 10 tuổi.
27 kết quả phù hợp
Hơn 1.300 vụ tội phạm tình dục số liên quan đến công nghệ deepfake được ghi nhận tại Hàn Quốc năm 2024, phần lớn nạn nhân là thanh thiếu niên, thậm chí có cả trẻ em dưới 10 tuổi.
Một nhóm nam sinh ở Singapore tạo hình ảnh deepfake khiêu dâm của bạn bè và giáo viên để tung lên mạng. Hiện, cảnh sát đang điều tra, làm rõ vụ việc.
Có hơn 4 triệu người dùng/tháng sử dụng các công cụ "cởi đồ" cho ảnh của phụ nữ bằng AI. Telegram vừa xóa hôm trước, hôm sau các bot này lại tiếp tục xuất hiện.
Cảnh sát Hàn Quốc bắt giữ hàng trăm nghi phạm deepfake khiêu dâm, phần lớn trong số đó là thanh, thiếu niên, thậm chí nhiều người chưa đến 15 tuổi.
Ban tổ chức cuộc thi Hoa hậu Hàn Quốc 2024 hứng chịu chỉ trích khi đưa ra câu hỏi liên quan đến công nghệ deepfake cho các thí sinh vào chung kết.
Tội phạm deepfake khiêu dâm tại Hàn Quốc vẫn đang bành trướng, khiến nhiều nữ sinh và giáo viên hoảng sợ, mất ngủ và buộc phải khóa mạng xã hội để bảo vệ chính mình.
Thay vì đổ lỗi cho công nghệ, sự gia tăng của tội phạm deepfake Hàn Quốc bắt nguồn từ một xã hội coi thường phụ nữ và khoan dung với các tội phạm tình dục.
Một khảo sát mới nhất cho thấy hàng trăm học sinh, giáo viên và nhân viên giáo dục tại Hàn Quốc bị ảnh hưởng bởi nạn deepfake khiêu dâm bất hợp pháp.
Hàng loạt nữ sinh các cấp ở Hàn Quốc đồng loạt kêu gọi bạn bè khóa tài khoản mạng xã hội vì ảnh cá nhân của các em bị người khác sử dụng để tạo nội dung deepfake khiêu dâm.
Với công nghệ deepfake và AI, phụ nữ Hàn Quốc đang đối diện với nạn bóc lột tình dục số hóa đầy tinh vi. Họ phải tìm đến các nền tảng mạng xã hội toàn cầu, tuyệt vọng tìm kiếm sự giúp đỡ.
Tổng thống Hàn Quốc Yoon Suk Yeol đã ra lệnh triển khai chiến dịch loại bỏ các nội dung khiêu dâm bị làm giả bởi deepfake hiện tràn lan trên Internet nước này.
Chẳng có nơi nào ở Mỹ tên là Núi Hollywood.
Nội dung khiêu dâm do AI tạo ra, được thúc đẩy bởi sự khinh thường phụ nữ, đang tràn ngập Internet. Taylor Swift chỉ là một trong rất nhiều nạn nhân của hình thức lạm dụng này.
Karine Jean-Pierre, thư ký báo chí Nhà Trắng cho rằng Taylor Swift bị ghép mặt vào hình ảnh khiêu dâm là tình trạng “rất đáng báo động” và kêu gọi Quốc hội có hành động cứng rắn.
Nhiều người, kể cả ngôi sao và người thường bị ghép hình vào các video khiêu dâm, khiến cuộc sống khốn khổ. Liệu có giải pháp công nghệ nào chống được deepfake?
AI đang tạo ra vô số clip deepfake. Sau nhóm diễn viên, ca sĩ nổi tiếng, đến lượt các ngôi sao mạng trở thành nạn nhân.
Nhiều sao nữ Trung Quốc đang bị tội phạm công nghệ deepfake khai thác hình ảnh, danh tính để sản xuất video khiêu dâm. Hành vi này khiến người bị lạm dụng bức xúc.
Phóng viên Joanna Stern của WSJ đã thử dùng AI để tạo ra một phiên bản mô phỏng chính mình. Kết quả, bản sao này đánh lừa được cả gia đình cô và hệ thống ngân hàng.
Loạt video người lớn xuất hiện gương mặt của Lai Lai bị lan truyền trên mạng xã hội. Cô cho biết bản thân là nạn nhân của sản phẩm deepfake khiêu dâm.
Với những nạn nhân, đấu với deepfake khiêu dâm là một cuộc chiến không thể giành chiến thắng. Họ mất nhiều năm liên hệ với nhiều website để có thể gỡ hình ảnh bị ghép.