Mới đây, Google đã công bố một bộ dữ liệu deepfake lớn để các kỹ sư phần mềm có thể tìm cách phát hiện chúng, thông thường qua việc tích hợp AI. Tuy nhiên, một số đông lại cho rằng, chỉ có thêm các biện pháp công nghệ là chưa đủ để hạn chế các ảnh hưởng tiêu cực đến từ deepfake.

Trong tương lai, các video này sẽ có thể được sử dụng cho hành vi lừa đảo.

Sự phát triển của deepfake đã làm con người không thể tin được vào các video tràn lan trên Internet. Càng ngày, các video deepfake càng trở nên chân thực hơn, và này càng khó có thể phân biệt thật giả.

Trong tương lai, các video này sẽ có thể được sử dụng cho hành vi lừa đảo. Và ta có thể ngăn chặn điều này như thế nào?

Deepfake đã trở thành một vấn đề nghiêm trọng trong chính trị, công nghiệp giải trí, và thậm chí là cả đời sống thường ngày. Để đối mặt với vấn đề này, nhiều nhà khoa học đã cố gắng nghiên cứu và phát triển công nghệ AI và Machine Learning, nhằm phát hiện ra những video giả này. Tuy nhiên, theo một nghiên cứu từ Viện Dữ liệu và Xã hội, những biện pháp này vẫn còn chưa đủ để ngăn chặn các ảnh hưởng của deepfake.

Theo báo cáo, các biện pháp công nghệ là điều cần thiết, nhưng song song với đó, ta cần có những giải pháp xã hội. Britt Paris và Joan Donovan, 2 tác giả của báo cáo trên đã khẳng định, deepfake chỉ là một hình thức thao túng truyền thông mới.

Cụ thể, báo cáo viết: “Khi nhắc về hiện tượng deepfake, ta thường bỏ qua tính không ổn định của “sự thật” phía sau các video giả, “sự thật” có thể bị ảnh hưởng bởi tính xã hội, chính trị, cũng như văn hóa.”

Báo cáo cũng nhắc tới một hiện tượng tương tự đã xảy ra trong lịch sử: Khi các bằng chứng từ ảnh chụp bắt đầu được công nhận trong tòa án vào những năm 1850. Cụ thể, tại thời điểm này, các thẩm phán tin tưởng nhiều hơn vào nhân chứng, chứ không phải ảnh chụp, thể hiện sự nghi ngại của công chúng với công nghệ mới.

Một ví dụ gần đây hơn cũng đã được nêu trong báo cáo: Việc sử dụng bằng chứng video trong vụ án Rodney King bị hành hung bởi cảnh sát vào năm 1991. Trong đó, video này đã được dàn xếp, khiến cho các phản xạ tự vệ của King trông giống như anh ta đang cố gây sự đánh nhau.

Và với deepfake, ảnh hưởng sẽ không chỉ dừng lại ở những đại diện của công chúng.

Và như vậy, hình ảnh và video từ lâu đã bị chỉnh sửa và gắt ghép nhằm thao túng ý kiến dư luận. Cụ thể, ta có thể thấy một cách rõ ràng các hình ảnh được sử dụng làm trọng tâm trong báo chí.

Trong báo chí, các bằng chứng hình ảnh là một tiền đề quan trọng trong việc xây dựng góc nhìn của dư luận, cũng như xây dựng các nấc thang trong quyền lực chính trị,” báo cáo viết. “Và nhà báo cũng là những chuyên gia sử dụng bằng chứng, tùy ý tận dụng truyền thông để biểu đạt “sự thật” tới công chúng.”

Trong báo cáo, các tác giả đã chỉ ra nhiều hành vi thao túng hình ảnh của nhà báo, nhằm truyền đạt những góc nhìn không chính xác về các sự kiện.

Và với deepfake, ảnh hưởng sẽ không chỉ dừng lại ở những đại diện của công chúng. Một deepfake có thể làm giả bất cứ ai, bị lan truyền rộng rãi khắp mạng xã hội, và không thể bị xóa bỏ. Và chúng ta vẫn luôn biết, cộng đồng mạng chẳng bao giờ quên thứ gì.

Chính vì vậy, Paris và Donovan đã khẳng định rằng, song song với các biện pháp công nghệ, ta cần các biện pháp xã hội chống lại deepfake, cũng như cân nhắc các tiệp cận với đời sống trên Internet của con người.

Trong chia sẻ với truyền thông, Paris đã nói: “Các giải pháp xã hội là rất đa chiều, và phải giải quyết các vấn đề bất bình đẳng có hệ thống trên Internet. Vì vậy, ta cần có những thay đổi to lớn hơn, toàn diện hơn trong tương tác với công nghệ.”

Đồng thời, bà cũng tin rằng các nhà lập pháp, các nền tảng mạng, và từng cá nhân cần nhận thức được các nhóm đối tượng của việc quấy rối này, qua đó hợp tác để cải thiện vấn đề từ gốc, thay vì mãi trông cậy vào các biện pháp công nghệ. Thậm chí, theo Paris, các video deepfake sẽ còn củng cố các quan điểm cực đoan như phân biệt giới tính và phân biệt chủng tộc.

Không có quá nhiều hỗn loạn ở mức nền tảng, và tôi tin rằng đây là nơi chúng ta cần bắt đầu can thiệp”, Paris nói.

Mark Zuckerberg sau buổi thẩm vấn trước Quốc hội vào hồi tháng 4.

Bài báo cáo gợi ý rằng các nền tảng nên cải thiện công tác kiểm duyệt nội dung, giúp tạo ra các cộng đồng tích cực với xã hội hơn, thay vì tập trung vào lợi nhuận. Ngoài ra, các công ty công nghệ cũng nên gây dựng các “danh tính điện tử” cho người dùng, thông qua việc ngăn chặn và hạn chế việc chia sẻ các thông tin sai lệch, mang tính định vị quan điểm cao.

Ngoài ra, Paris cũng khẳng định: “Chúng ta không chỉ cần đẩy mạnh việc kiểm duyệt thông qua con người, và cần phải cải thiện môi trường làm việc của các nhân viên kiểm duyệt đó.”

Đương nhiên, không thể có một giải pháp hoàn hảo cho một đề nghiêm trọng như deepfake. Tuy nhiên, các tác giả đã đưa nhiều quan điểm về vấn đề này, cách xác định các đối tượng bị ảnh hưởng từ deepfake, cũng như cách xây dựng các cộng đồng để hỗ trợ những đối tượng này.”

Ta cần phải nghĩ về cách công nghệ sử dụng bằng chứng, gây ra những sự bất bình đẳng có hệ thống. Và để làm được điều này, ta cần xem xét lại mối quan hệ giữa xã hội với công nghệ và dữ liệu,” Paris khẳng định.

FPT TechInsight
Theo Inverse

Tin liên quan: