Trong bối cảnh các tiến bộ công nghệ liên tục xuất hiện và định hình lại xã hội chúng ta đang sống,đangbịlợidụngđểghépmặtnạnnhânvàovideokhiêudâbóng đá vô địch thổ nhĩ kỳ deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng deepfake ngày càng gia tăng.
Sau quá trình nghiên cứu trên diễn đàn darknet (darknet forum), nơi các tội phạm công nghệ thường xuyên hoạt động, trong một phát biểu mới đây, hãng bảo mật Kaspersky đưa ra nhận định, nhiều tội phạm sử dụng deepfake để lừa đảo, đến mức nhu cầu sử dụng vượt xa nguồn cung các phần mềm deepfake hiện có trên thị trường.
Khi cầu vượt cung, các chuyên gia của Kaspersky dự đoán, các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Từ cung cấp một video mạo danh chất lượng cao dưới dạng dịch vụ cho đến việc sử dụng hình ảnh người nổi tiếng để phát trực tuyến giả mạo (fake livestream) trên mạng xã hội cùng lời hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đã gửi họ.
“Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện đang khai thác AI để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm cũng như trong chiến dịch tuyên truyền. Chúng tôi kêu gọi công chúng nâng cao cảnh giác trước mối đe dọa này”, bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky nhận định.
Bà Diễm cho rằng, những hành động trên nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân.
Theo Regula, có tới 37% doanh nghiệp trên toàn thế giới từng có va chạm với các vụ lừa đảo deepfake bằng giọng nói và 29% đã trở thành nạn nhân của video deepfake.
Trên thực tế, deepfake cũng đã trở thành mối đe dọa với Việt Nam khi tội phạm mạng thường sử dụng các cuộc gọi video deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ. Một cuộc gọi video deepfake chỉ diễn ra trong vòng một phút nên nạn nhân rất khó phân biệt giữa cuộc gọi thật và giả.
Mặc AI đang bị tội phạm mạng sử dụng cho những mục đích xấu, vẫn có thể sử dụng chính AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo.
Những phần mềm phát hiện nội dung do AI tạo ra sẽ sử dụng thuật toán tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh. Đó có thể là việc nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại hay lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.
Theo các chuyên gia của Kaspersky, bên cạnh việc sử dụng các công cụ AI để nhận diện deepfake, người dùng cũng cần có những biện pháp phù hợp để bảo vệ bản thân. Đó có thể là hạn chế chia sẻ thông tin cá nhân công khai trên các trang mạng xã hội hay cảnh giác trước những video, hình ảnh, cuộc gọi có dấu hiệu đáng ngờ. Ngoài ra, người dùng mạng cũng cần duy trì thói quen kiểm chứng, xác thực lại thông tin trước khi đặt niềm tin vào đó.
Làm sao để xử lý lừa đảo Deepfake, ngăn chặn mua bán dữ liệu trên Telegram?Lừa đảo trực tuyến và tội phạm mạng đang là thách thức chung của thế giới. Giờ là lúc cả người sử dụng, chuyên gia và cơ quan quản lý cần phối hợp để ứng phó với loại tội phạm này.(责任编辑:Thể thao)
Quang Lê kể về thời thơ ấu với chuỗi ngày…xin hát
Đội tuyển futsal nữ Việt Nam vô địch giải quốc tế tại Thái Lan
CLB Thanh Hóa lội ngược dòng thắng đậm Hải Phòng FC
Man Utd thua đơn thiệt kép sau thảm bại trước Tottenham
Artemis Fowl: Sài Gòn xuất hiện trong bom tấn 125 triệu đô của Hollywood
HLV Mourinho tung chiêu cực dị phản đối trọng tài và nhận cái kết đắng
HLV Kim Sang Sik gọi Văn Quyết trở lại đội tuyển Việt Nam
Lamine Yamal nói gì sau khi nổi điên với HLV Barcelona?
Bi hài chuyện 'chạy' công an của hàng rong vỉa hè
Báo Thái Lan gợi ý HLV Park Hang Seo cạnh tranh vị trí với Kiatisuk
Cỗ máy 'chém người' qua tự thú kinh hoàng của đầu bếp
HLV Ten Hag: "Người hâm mộ Man Utd cần kiên nhẫn với tôi"