Thủ đoạn lừa đảo mới 'nhờ chuyển tiền làm việc thiện'
Đây là một trong những thủ đoạn lừa đảo mới vừa được Cục An toàn thông tin, Bộ Thông tin và Truyền thông (TT&TT), đưa ra nhằm khuyến cáo người dùng cảnh giác.
230 kết quả phù hợp
Thủ đoạn lừa đảo mới 'nhờ chuyển tiền làm việc thiện'
Đây là một trong những thủ đoạn lừa đảo mới vừa được Cục An toàn thông tin, Bộ Thông tin và Truyền thông (TT&TT), đưa ra nhằm khuyến cáo người dùng cảnh giác.
Ai cũng có thể là nạn nhân của deepfake khiêu dâm
Nhiều người, kể cả ngôi sao và người thường bị ghép hình vào các video khiêu dâm, khiến cuộc sống khốn khổ. Liệu có giải pháp công nghệ nào chống được deepfake?
Phương Mỹ Chi trình báo cơ quan chức năng vụ clip nhạy cảm
Phương Mỹ Chi cho biết cô và ê-kíp đã tập hợp chứng cứ liên quan đến vụ lộ clip nhạy cảm để gửi đơn trình báo đến cơ quan chức năng và được tiếp nhận.
Châu Âu thông qua bộ luật về AI đầu tiên trên thế giới
Sau nhiều phiên họp kín kéo dài 3 ngày, các nhà lập pháp châu Âu đã thống nhất những quy tắc cơ bản trong việc quản lý và sử dụng trí tuệ nhân tạo.
Từ của năm 2023? (Không phải AI)
"Authentic" được chọn làm từ của năm trong bối cảnh AI, deepfake bùng nổ khiến mọi thứ trở nên khó phân định thật giả.
Vạch trần thủ đoạn lừa đảo kích hoạt định danh tài khoản ngân hàng
Giả công an lợi dụng công nghệ trí tuệ nhân tạo bằng kỹ thuật giả mạo, thực hiện cuộc gọi hình ảnh, giọng nói với kịch bản chi tiết, tình huống dựng sẵn, để kích hoạt tài khoản.
Clip nhạy cảm do AI dàn dựng tràn lan trên Twitter
AI đang tạo ra vô số clip deepfake. Sau nhóm diễn viên, ca sĩ nổi tiếng, đến lượt các ngôi sao mạng trở thành nạn nhân.
Nghi phạm hack Facebook thường nhắm đến các Việt kiều hoặc người Việt Nam đang sinh sống, học tập ở nước ngoài.
Mất 30.000 USD vì cài app mua sắm giả
Sau khi cài đặt ứng dụng lạ trên mạng, Zheng (30 tuổi), nhân viên văn phòng, mất ngay 30.000 USD trong tài khoản.
Những đoạn deepfake gây ám ảnh trên TikTok
Xu hướng sử dụng trí tuệ nhân tạo để làm nội dung TikTok về nạn nhân của các vụ thảm sát, đặc biệt là trẻ em, bị nhiều người phản đối.
Chủ tịch Microsoft nêu mối nguy lớn nhất của AI
Ông khẳng định cần phải có ai đó chịu trách nhiệm cho các nội dung AI để bảo vệ con người trước những nguồn thông tin giả mạo, tránh bị lừa đảo bởi công nghệ cao.
Người đàn ông bị lừa hơn 600.000 USD vì chiêu gọi deepfake
Mặc dù đã gọi video với bạn để làm bằng chứng, người này vẫn bị lừa tiền vì deepfake làm giả quá giống thật.
TP.HCM thanh tra 6 nhà mạng về SIM rác, thông tin thuê bao
Sở TT&TT đang triển khai 6 đoàn thanh tra 6 doanh nghiệp viễn thông về SIM số, lưu trữ bảo vệ thông tin cá nhân.
Minh tinh Trung Quốc điêu đứng vì bị ghép mặt vào phim khiêu dâm
Nhiều sao nữ Trung Quốc đang bị tội phạm công nghệ deepfake khai thác hình ảnh, danh tính để sản xuất video khiêu dâm. Hành vi này khiến người bị lạm dụng bức xúc.
Nga bác cáo buộc can thiệp bầu cử Thổ Nhĩ Kỳ
Điện Kremlin phủ nhận việc can thiệp vào chiến dịch bầu cử của tổng thống Thổ Nhĩ Kỳ, sau khi đối thủ chính của ông Recep Tayyip Erdogan cáo buộc Moscow phát tán "deepfake".
Nói băng sex là deepfake, ứng viên tổng thống Thổ Nhĩ Kỳ vẫn rút lui
Ông Muharrem İnce - ứng viên tổng thống Thổ Nhĩ Kỳ - quyết định rút lui khi chỉ còn cách cuộc đua bầu cử vài ngày, khẳng định rằng băng sex đang lan truyền là công nghệ deepfake.
TikTok phiên bản Trung Quốc siết nội dung AI
Quy định mới tuyên bố các chủ tài khoản Douyin phải tự chịu trách nhiệm cho mọi hậu quả khi đăng tải nội dung AI trên nền tảng.
Trung Quốc lần đầu bắt người dùng ChatGPT tạo tin giả
Nghi phạm khai với cảnh sát sử dụng ChatGPT để tạo ra thông tin giả về một vụ tai nạn tàu hỏa và đăng tải lên mạng Internet.
Tình trạng của Cảnh Điềm sau vụ bị bạn trai cũ gán nợ bằng clip nóng
Cảnh Điềm hoạt động năng nổ trở lại, bộ phim mới của cô đóng cùng Hứa Khải sắp lên sóng. Trong khi đó, Trương Kế Khoa bị làm mờ, cắt cảnh trong chương trình truyền hình.
Dấu hiệu nhận biết cuộc gọi deepfake lừa tiền
Dùng AI giả mạo người thân qua cuộc gọi video là hình thức lừa đảo trực tuyến mới. Người nhận cuộc gọi cần chú ý đến các dấu hiệu hình ảnh, âm thanh để tránh trở thành nạn nhân.