AI có thể giúp chúng ta có một cái nhìn chân thực về Deepfakes?

70

Google và Facebook hiện đang phát hành các kho Deepfakes để tạo ra các thuật toán có thể phát hiện chúng. 

wireframe person behind a perfect faceTuần trước Google đã phát hành vài nghìn video Deepfake để giúp các nhà nghiên cứu xây dựng các công cụ sử dụng trí thông minh nhân tạo để phát hiện các video bị thay đổi (Deepfake) này, nhằm ngăn chặn những sai lệch trong thông tin chính trị, phá hoại danh tiếng công ty.

Các video Google được hy vọng có thể được sử dụng để tạo ra công nghệ mà có thể nhận ra Deepfake giống như cách mà các bộ lọc thư rác nhặt ra được thư nào là thư rác. Tuy nhiên trong thực tế, công nghệ cũng sẽ chỉ là một phần của giải pháp. Điều đó là bởi vì Deepfake có thể sẽ phát triển đối phó với các phương pháp phát hiện. Hơn nữa, trí thông minh và chuyên môn của con người cũng là rất cần thiết để xác định các video Deepfake này.

Deepfake mô phỏng các chính trị gia, giới truyền thông và công chúng. Thao tác đánh lừa bằng video từ lâu đã có thể thực hiện được, nhưng những tiến bộ trong học máy đã giúp chúng ta dễ dàng tự động lấy những nét của một người này và gắn nó vào người khác. Điều đó khiến việc tạo ra nội dung khiêu dâm giả, phim siêu thực và bản demo giả trở nên tương đối đơn giản.

Ngày càng có nhiều lo ngại rằng các Deepfake có thể sẽ được sử dụng để gây ảnh hưởng đến cử tri trong cuộc bầu cử Tổng Thống Mỹ năm 2020. Một báo cáo được công bố trong tháng này bởi các nhà nghiên cứu tại NYU đã xác định các Deepfake là một trong tám yếu tố có thể góp phần làm sai lệch thông tin trong cuộc đua vào Nhà Trắng vào năm tới. Một cuộc khảo sát gần đây về luật pháp cho thấy các nhà lập pháp liên bang và tiểu bang đang nghiền ngẫm các dự luật để giải quyết các vấn đề về Deepfake. Bang Virginia, Hoa Kỳ đã bất hợp pháp hóa việc chia sẻ video khiêu dâm Deepfake vô thức; Bang Texas cũng đã đặt ra các lệnh cấm Deepfake để nó không can thiệp vào các cuộc bầu cử.

Các công ty công nghệ cho rằng máy học và AI cũng có thể sẽ gặp rắc rối như vậy. Trong lời khai trước Quốc hội vào tháng 10 năm ngoái, Mark Zuckerberg đã hứa rằng AI sẽ giúp xác định những tin tức giả mạo. Điều này sẽ liên quan đến việc sử dụng các thuật toán được đào tạo để phân biệt giữa văn bản và hình ảnh chính xác hay sai lệch trong bài viết.

Các clip được phát hành vào tuần trước, với sự hợp tác của Jigsaw, một công ty con của Alphabet tập trung vào công nghệ và chính trị, có các diễn viên được trả tiền đổi lại sự đồng ý cho việc thay đổi khuôn mặt của họ. Ý tưởng là các nhà nghiên cứu sẽ sử dụng các video để đào tạo phần mềm để phát hiện ra các video Deepfake trong tự nhiên và đánh giá hiệu suất của các công cụ này.

Các clip cho thấy sự thay đổi khuôn mặt cũng đa dạng từ có vẻ đáng tin đến đáng nghi. Nhiều khuôn mặt trong các clip có vẻ không phù hợp hoặc bị sai lệch do kỹ xảo kỹ thuật số.

Nhiều clip đã được chia sẻ với một số chuyên gia. Một số người nói rằng Deepfake đã tiến bộ vượt ra ngoài các kỹ thuật được Google sử dụng để tạo ra video.

Hany Farid, một chuyên gia pháp y kỹ thuật số tại UC Berkeley, người đang nghiên cứu về các tác phẩm kỹ thuật số tại UC Berkeley cho biết: “Những video với các tạo tác trực quan như thế này không phải là nơi để chúng ta đào tạo và thử nghiệm các kỹ thuật pháp y. Chúng tôi cần nội dung chất lượng cao hơn nhiều”.

Google cho biết họ đã tạo ra các video có chất lượng để cải thiện việc đào tạo các thuật toán. Henry Ajder, một nhà nghiên cứu tại một công ty của Anh có tên là Deeptrace Lab, người đang thu thập các tác phẩm Deepfake và xây dựng công nghệ phát hiện của riêng mình, đồng ý rằng tất cả các video Deepfake đều rất hữu ích cho việc đào tạo. Google cũng cho biết trong bài đăng trên blog rằng họ sẽ tiếp tục thêm các video Deepfake vào để không bỏ qua những tiến bộ trong công nghệ.

Rất nhiều nỗ lực đang được đưa vào phát triển các máy dò Deepfake, cho thấy một giải pháp có thể đang được nghiên cứu. Các nhà khoa học đang nghiên cứu các kỹ thuật tự động để phát hiện các video được làm ra thủ công cũng như sử dụng AI. Các công cụ phát hiện này ngày càng đáng tin tưởng. Darpa, bộ phận nghiên cứu của Bộ Quốc phòng, điều hành một chương trình tài trợ cho các nhà nghiên cứu làm việc trên các công cụ phát hiện giả mạo tự động, và hiện chương trình đang ngày càng tập trung vào Deepfake.

Nhiều dữ liệu đào tạo Deepfake hơn sẽ sớm được có sẵn. Facebook và Microsoft đang xây dựng một bộ dữ liệu video Deepfake khác lớn hơn mà các công ty này đã dự định phát hành cho các nhà nghiên cứu AI tại một hội nghị vào tháng 12.

Sam Gregory, Giám đốc chương trình Witness, một dự án đào tạo các nhà hoạt động sử dụng bằng chứng video để vạch trần hành vi sai trái, nói rằng các video Deepfake mới sẽ hữu ích cho các nhà nghiên cứu học thuật. Nhưng ông cũng cảnh báo rằng các Deepfake được chia sẻ rộng rãi luôn khó phát hiện hơn, do cách mà chúng được nén có thể đánh lừa cả một máy dò được đào tạo tốt.

Khi nhận dạng Deepfake được cải thiện, Gregory cho biết con người sẽ tiếp tục cần phải điều tra nguồn gốc của video hoặc xem lại xem có những chỗ nào thuật toán có thể bỏ sót.

“Có một tương lai rộng mở cho những dụng cụ phát hiện tự động”, như ông Gregory cho biết. Ông tin rằng các giải pháp kỹ thuật có thể giúp cảnh báo người dùng và phương tiện truyền thông để tìm hiểu về Deepfake, nhưng ông cũng lưu ý rằng mọi người cần phải hiểu biết hơn về các khả năng mới để không bị ăn cú lừa.

Tất nhiên, video cũng có thể dùng để đánh lừa hay giả mạo mà không cần sử dụng AI. Một báo cáo được công bố vào tháng trước bởi Data & Society, một nhóm nghiên cứu phi lợi nhuận, lưu ý rằng thao tác video hiện tại đã vượt xa cả Deepfake. Sửa đổi và chỉnh sửa đơn giản cũng có thể mang lại hiệu quả tương đương với Deepfake và thậm chí còn khó phát hiện hơn bởi chúng được sử dụng các công cụ tự động. Một ví dụ gần đây là đoạn video của Nancy Pelosi bị làm chậm lại như thể cô ấy phát âm không rõ.

Britt Paris, trợ lý giáo sư tại Rutgers, cũng là đồng tác giả của báo cáo Dữ liệu & Xã hội, cho biết việc Google và Facebook đang phát hành các bộ dữ liệu Deepfake cho thấy họ đang rất cố gắng tự phát triển các giải pháp kỹ thuật.

Các công ty hiện đang quan tâm đến việc tìm kiếm các giải pháp cho công cụ phát hiện Deepfake được hỗ trợ bởi AI cũng đã và đang mở rộng các biên giới của công nghệ cho mục đích thương mại của riêng họ. Năm ngoái Google đã tiết lộ Duplex, một hệ thống sử dụng lời nói tổng hợp thực tế để thực hiện các cuộc gọi tự động đến nhà hàng và cửa hàng. Vào tháng 1, Google đã phát hành một bộ dữ liệu về lời nói giả được tổng hợp bằng cách sử dụng AI để nâng cao nghiên cứu tiên tiến về phát hiện âm thanh giả.

“Google và Facebook đang outsource vấn đề này”, Paris cho biết “Nếu các công ty công nghệ này không thể hiện ra là họ đang cố gắng giải quyết vấn đề, thì những quy định và chính sách của các Đảng có thể làm tổn hại đến lợi nhuận của họ”.

Tuy nhiên, việc giải quyết các vấn đề về Deepfake, tin tức giả và thông tin sai lệch sẽ liên quan nhiều hơn đến việc đào tạo dữ liệu và thuật toán AI. Theo ông Farid đến từ UC Berkeley “Khi các kỹ thuật pháp y trở nên tiến bộ hơn, chúng sẽ được sử dụng như một bộ lọc giữa hàng tỷ lượt tải lên hàng ngày thành một số ít để dễ quản lý hơn, cần sự điều hành con người. Các nền tảng sẽ phải nghiêm túc hơn về cả khía cạnh công nghệ và con người”.

FPT TechInsight
Theo Wired

Tin liên quan: