Các nhà khoa học chứng minh rằng các thiết bị phát hiện Deepfake hiện tại vẫn có thể bị đánh lừa

Nhiều công ty bao gồm MicrosoftFacebook cũng như các nhà nghiên cứu từ Đại học Nam California đã phát triển các công nghệ để chống lại sự lừa dối và ngăn chặn sự lan truyền của các phương tiện truyền thông sai lệch và thông tin sai lệch. Tuy nhiên, một nhóm các nhà khoa học vẫn tìm cách đánh lừa chúng.

Một nhóm các nhà khoa học máy tính từ UC San Diego đã cảnh báo rằng vẫn có thể đánh lừa các hệ thống phát hiện deepfake hiện tại bằng cách chèn các đầu vào được gọi là ví dụ đối nghịch vào mỗi khung hình video. Các nhà khoa học đã trình bày phát hiện của họ tại hội nghị thị giác máy tính WACV 2021 diễn ra trực tuyến vào tháng trước.

Ví dụ đối nghịch là đầu vào bị thao túng nhẹ khiến các hệ thống trí tuệ nhân tạo như mô hình học máy mắc lỗi. Ngoài ra, nhóm nghiên cứu đã chỉ ra rằng cuộc tấn công vẫn hoạt động sau khi các video được nén. Trong video trên, các nhà khoa học cho thấy XceptionNet, một máy dò sâu, gắn nhãn video đối thủ mà họ tạo ra là thật.

Theo giải thích của Engadget , hầu hết các thiết bị dò tìm này hoạt động bằng cách theo dõi khuôn mặt trong video và gửi dữ liệu khuôn mặt đã cắt vào mạng nơ-ron để phân tích. Sau đó, mạng nơ-ron sẽ phân tích dữ liệu này và tìm kiếm các yếu tố thường không được tái tạo tốt trong các hình ảnh sâu, chẳng hạn như nhấp nháy.

Bằng cách chèn các ví dụ đối nghịch, các nhà khoa học phát hiện ra rằng họ có thể đánh lừa những thiết bị phát hiện deepfake tin rằng video là thật. Như đã nêu trong bài báo của họ:

Để sử dụng các thiết bị phát hiện deepfake này trong thực tế, chúng tôi cho rằng điều cần thiết là phải đánh giá chúng chống lại kẻ thù thích nghi, người nhận thức được các biện pháp phòng thủ này và đang cố tình cố gắng ngăn chặn các biện pháp phòng thủ này. Chúng tôi cho thấy rằng các phương pháp hiện đại để phát hiện deepfake có thể dễ dàng bị bỏ qua nếu đối thủ có kiến ​​thức đầy đủ hoặc thậm chí một phần về thiết bị phát hiện.

Kể từ khi chúng bắt đầu trở nên phổ biến hơn và dễ sản xuất hơn – thậm chí Adobe còn tích hợp các bộ lọc giống deepfake vào các chương trình của mình dưới dạng thanh trượt – nỗi sợ rằng deepfakes có thể được sử dụng một cách độc hại đã trở thành một mối đe dọa thực sự. Facebook đã phải vật lộn với họ kể từ năm 2019. Như các nhà khoa học này đã chứng minh, các công nghệ tự động hóa đang được phát triển để chống lại thông tin sai lệch có thể chưa đáp ứng được nhiệm vụ.

(qua Engadget )