Sự phổ biến rộng rãi của deepfake đã dấy lên nhiều mối lo mới về việc lạm dụng công nghệ này.

Grace Windheim đã từng nghe về deepfake. Tuy nhiên, cô lại chưa bao giờ nghĩ tới việc tự sử dụng công nghệ này, cho tới khi xuất hiện một meme nổi tiếng ứng dụng deepfake, và Windheim đã thử tìm hiểu về nó, rồi nhận ra rằng, deepfake vô cùng dễ sử dụng mà lại hoàn toàn miễn phí.

Chỉ trong vòng 1 ngày, cô đã đăng tải một video hướng dẫn chi tiết lên YouTube. “Làm deepfake và âm thanh cho nó không khó như tôi vẫn nghĩ,” Windheim chia sẻ trên video được đăng tải vào ngày 4 tháng 8 vừa qua. Tính tới nay, video này đã nhận được hơn 360.000 lượt xem.

Windheim là thành viên của một nhóm các nhà sáng tạo online đang thử nghiệm deepfake – đặc biệt là khi công nghệ này đang ngày một trở nên phổ biến và thấm nhuần vào văn hóa Internet. Hiện tượng này cũng chẳng có gì là đáng ngạc nhiên: các công cụ chỉnh sửa thường nổi lên thông qua việc thử nghiệm và parody (làm lại các sản phẩm khác). Tuy nhiên, deepfake lại đang dấy lên nhiều mối lo mới về khả năng bị lạm dụng.

Deepfake từ lâu đã bị sử dụng cho mục đích quấy rối, thông qua hành vi ghép mặt phụ nữ vào phim khiêu dâm mà không có sự cho phép của họ. Nhiều học giả cũng lo lắng về khả năng gây ảnh hưởng tới việc bầu cử của công nghệ này. Và cho dù deepfake sử dụng trong meme quá giả và dường như là vô hại, thì trong tương lai, điều này chưa chắc đã không thay đổi.

Luôn tồn tại một ranh giới giữa việc sử dụng deepfake cho mục đích giải trí, meme, và việc lạm dụng nó,” Windheim nói. “Video hướng dẫn của tôi chỉ chỉ ra cách làm một loại deepfake cụ thể, tuy nhiên, điều đáng sợ là, nó cũng có thể được ứng dụng cho bất cứ loại deepfake nào mà bạn mong muốn.”

Tôi là đồ ngốc”

Windheim, mới tốt nghiệp đại học, hiện đang đảm nhận vị trí sáng tạo cho startup Kapwing tại San Francisco. Công ty này khởi điểm là làm meme, và hiện đang cung cấp miễn phí các phần mềm chỉnh sửa video tích hợp trên trình duyệt. Windheim đảm nhận việc quản lý kênh YouTube của Kawping, đồng thời sản xuất các video marketing nhằm quảng bá năng lực của sản phẩm.

Vào hồi đầu tháng 8, cô đã tình cờ bắt gặp một thuật ngữ tìm kiếm nổi tiếng trên Google Trends. Cụ thể, 3 trong số 5 thuật ngữ tìm kiếm phổ biến nhất đều liên quan tới một meme deepfake có tên gọi là “Baka Mitai”. Nói về điều này, Windheim chia sẻ: “Tôi chưa từng thấy thuật ngữ tìm kiếm nào xuất hiện thường xuyên tới vậy.”

Meme này hóa ra là được dựa trên video về một Youtuber đang hát nhép bài hát tiếng Nhật gọi là “Baka Mitai” (dịch: “Tôi là đồ ngốc”). Cụ thể, rất nhiều người dùng Internet đã sử dụng video này để tạo các deepfake tệ tới hài hước về tất cả mọi người đang hát bài hát này, từ Barack Obama tới Thanos. Và tuy rằng meme này rất phổ biến, Windheim lại nhận thấy, không có nhiều hướng dẫn về cách để tạo ra nó, và từ đây, cô tìm thấy một cơ hội.

Thuật toán deepfake đang được sử dụng trong meme xuất phát từ một nghiên cứu năm 2019, được trình bày tại hội nghị nghiên cứu AI thường niên lớn nhất – NeurIPS. Khác với các thuật toán phức tạp khác, thuật toán này cho phép người đổi mặt một video bất kỳ, mà chỉ cần tới vài dòng code.

Windheim đã tìm thấy thuật toán nguồn mở này trong một video hướng dẫn trên YouTube, sao đó chuyển nó sang Google Colab – một dịch vụ miễn phí, cho phép chạy code trên cloud. Và chỉ sau vài lần thử, với rất ít kỹ năng mà mình từng học tại lớp code ở đại học, Windheim đã thành công tạo ra một video deepfake. Sau đó, cô đồng bộ bài hát với video bằng các công cụ của Kapwing, và tạo ra một phiên bản mới cho meme này.

Kể từ khi hướng dẫn được đăng tải trên kênh YouTube của Kapwing, một số YouTuber khác cũng đã đăng tải các hướng dẫn tương tự, sử dụng cùng thuật toán này. Điểm khác biệt duy nhất là: các YouTuber này hướng dẫn người xem cách làm một meme deepfake, hoặc tương tự qua điện thoại di động.

Những meme này đã dần phổ cập tới mọi ngóc ngách trên mạng xã hội: Twitter, Instagram, và đặc biệt là TikTok. Cụ thể, nền tảng này nổi tiếng với những video ngắn, trong đó người dùng nhảy các vũ đạo xu hướng trên nền nhạc bắt tai – khiến cho deepfake hiệu quả hơn bao giờ hết. Hashtag #deepfake trên ứng dụng này thậm chí đã thu hút hơn 120 triệu lượt xem.

Các gương mặt được tổng hợp từ thuật toán deepfake trên là vô cùng giả và rất dễ nhận ra, xong lại góp phần làm meme càng thêm hài hước hơn. Những sự không hoàn hảo này – chất lượng kém cỏi dễ thấy của meme – giúp người xem không nhầm lẫn giữa thực và giả. Ở hiện tại, các deepfake thực tế thường yêu cầu rất cao về mặt kỹ thuật cũng như chi phí sản xuất.

Tuy nhiên, với tốc độ tiến bộ của khoa học công nghệ ở hiện tại, deepfake dễ làm đang ngày một trở nên giống thật hơn. Một số công ty như Tencent – gã khổng lồ công nghệ của Trung Quốc, cũng là chủ sở hữu WeChat, đã công khai dự định đầu tư thêm vào việc phát triển công nghệ này cho ứng dụng thương mại.

Về bản chất, deepfake là không xấu. Công nghệ này đã đang được sử dụng bởi các họa sỹ, nhà giáo dục, và nhiều ngành nghề khác, như một công cụ mạnh mẽ để thể hiện tính sáng tạo. Ví dụ như hồi tháng 2, tạp chí Time đã sử dụng deepfake để tái hiện lại trải nghiệm được nghe bài phát biểu nổi danh một thời “Tôi có một giấc mơ” của Martin Luther King Jr. trong thực tế ảo. Tuy nhiên, trong tương lai, các nhà làm luật sẽ phải xác định đâu là ranh giới của việc lạm dụng deepfake, cũng như những hành vi có khả năng gây hại.

Còn ở hiện tại, Windheim đang tự xác định ranh giới này. Trước khi đăng tải video của mình, cô đã nghiên cứu về các hệ quả của deepfake, cũng như trao đổi với những đồng nghiệp của mình. “Chúng tôi chưa bao giờ có chủ đích giúp người dùng truyền bá thông tin sai lệch, và vì vậy phải tự xem xét lại các hành vi của bản thân,” Windheim chia sẻ.

Cuối cùng, họ đã tự đặt ra một số nguyên tắc cơ bản: Windheim cùng các đồng nghiệp sẽ tập trung vào làm các video hướng dẫn cho những meme cụ thế, chứ không bao giờ hướng dẫn sử dụng deepfake ngoài mục đích này. Chừng nào deepfake còn được sử dụng cho mục đích giải trí và bên trong phạm hàm văn hóa meme, thì theo Windheim, “chúng tôi vẫn chưa làm gì sai.”

Theo MIT Technoloy Review

Tin liên quan: