Bạn có thể không biết deepfake là gì nhưng nhiều khả năng là bạn đã từng xem video deepfake rồi, chẳng hạn như đoạn video nổi tiếng của tổng thống Obama diễn hài Jordan Peele. Kể từ khi video deepfakes xuất hiện từ tháng 12 năm 2017, hầu hết các phương tiện truyền thông đều tập trung chỉ trích những ứng dụng của chúng. Từ nội dung khiêu dâm, ransomfakes, đến các chiến dịch bôi nhọ chống lại các chính trị gia, và các tin tức giả mạo có thể làm trầm trọng thêm vấn đề đang diễn ra ở trên toàn thế giới.

Mặc dù những ứng dụng với mục đích xấu của công nghệ deepfake rất đáng lo ngại, nhưng cũng có những ứng dụng tích cực của các công nghệ AI này. Điển hình như, Lyrebird, một công ty khởi nghiệp ở Canada, đã hợp tác với nền tảng ALS trên Project Revoice, với ý tưởng ​​sử dụng AI tạo ra để tạo ra giọng nói cho những người mắc bệnh ALS bị mất khả năng nói. Tương tự, DeepEmpathy, một dự án hợp tác của MIT và Unicef, nhằm tạo ra các hình ảnh tổng hợp cho thấy các thành phố như London và Tokyo sẽ trông như thế nào nếu chúng bị đánh bom, với mục đích khơi dậy sự đồng cảm và tinh thần phản đối chiến tranh.

 

Những ví dụ này cho thấy, giống như hầu hết các công nghệ khác, những tác phẩm do AI tạo ra đều có các ứng dụng tích cực và tiêu cực. Tuy nhiên, ngoài những ví dụ rõ ràng trắng đen về mặt đạo đức này, có rất nhiều ứng dụng, mang màu xám, khó có thể phân loại được. Những ví dụ mơ hồ về mặt đạo đức này tạm gọi là greyfakes.

Theo bản chất của chúng, greyfakes có thể không mang màu xám mãi mãi. Chúng có thể tiến hóa để có tác động tích cực hoặc tiêu cực, bất kể ý định đằng sau là gì. Trong khi các chính phủ và doanh nghiệp đang tích cực đấu tranh chống lại việc sử dụng tiêu cực của phương tiện tổng hợp và phát huy những điều tích cực, thì những ứng dụng màu xám lại đang âm thầm phát triển với ít sự giám sát hơn.

Bài viết này muốn nói đến ba ví dụ về những ứng dụng màu xám, không rõ trắng đen đang phát triển nhanh chóng và giải thích tại sao chúng đòi hỏi sự chú ý nhiều hơn nữa.

Tái sinh

Có thể nói rằng các ứng dụng hứa hẹn nhất của AI đều nằm trong lĩnh vực giải trí. Sử dụng CGI, các chuyên gia đã có thể tái tạo lại hình ảnh của nữ diễn viên quá cố Carrie Fisher trong vai Công chúa Leia trong Chiến tranh giữa các vì sao. Với những cải tiến nhanh chóng trong phương tiện tổng hợp do AI tạo ra, những việc thế này có thể sẽ được tự động hóa và thu nhỏ lại với mức độ chân thực cao hơn.

Kết quả có thể là khi một nam diễn viên qua đời, đạo diễn chỉ cần tạo ra một người song sinh của họ tiếp tục xuất hiện trong các bộ phim hoặc chương trình truyền hình. Điều này cũng thể hiện khá rõ trong lộ trình của Disney, công ty đang đấu tranh với luật pháp hạn chế các phương tiện truyền thông sâu và tổng hợp vì họ tin rằng những hạn chế như vậy đối với công nghệ có thể cản trở các quyền tự do sáng tạo.

Tuy nhiên, vấn đề đạo đức của sự tái sinh này thực sự là không rõ ràng. Theo ghi nhận của Melanie Ehrenzkranz, khả năng tái sinh cho những người nổi tiếng có thể khiến họ trở thành con rối cho các công ty, được tái tạo để quảng cáo sản phẩm hoặc nhãn hiệu.

Điều này đặt ra những vấn đề về việc kiểm soát sự tái sinh kỹ thuật số và những quyền đối với hình ảnh bản thân của chúng ta. Trong trường hợp của những người nổi tiếng, câu hỏi tập trung đặc biệt vào việc liệu chúng ta có thể vạch ra ranh giới giữa giải trí với sự tôn trọng và khai thác thương mại hay không.

Bên cạnh đó một ví dụ khác cho thấy sự sử dụng âm thanh giọng nói tổng hợp để tái tạo giọng nói của những người thân yêu đã qua đời. Điều này được quan sát bởi một công ty về âm thanh giọng nói tổng hợp, Deepsync, công ty đã từng được một số người yêu cầu họ tái tạo giọng nói của người cha đã qua đời với công nghệ.

Điều này có thể giúp mọi người cảm thấy kết nối tốt hơn với người đã khuất. Tuy nhiên, nó có thể gây ra thiệt hại tâm lý đáng kể, khiến những người còn sống không thể vực dậy khỏi mất mát và bị phụ thuộc vào các bản sao tổng hợp của người đã khuất.

Bản sao deepfake

Không chỉ người đã mất mới có thể được tái tạo lại mà nó còn có thể liên quan đến những người nổi tiếng. Nhiều lo ngại được đưa ra về cách các công cụ AI được thương mại hóa để tạo phương tiện tổng hợp có thể được sử dụng để tạo ra nội dung khiêu dâm trả thù nhắm vào người bình thường.

Tuy nhiên một công ty mang tên Naughty America lại có ý tưởng về việc đưa khách hàng vào các cảnh có nội dung khiêu dâm tùy chỉnh. Mặc dù tất cả các bên liên quan đều đồng ý, nhưng hàng hóa dịch vụ này có thể sẽ dẫn đến việc một số người bất đắc dĩ bị chèn vào các cảnh khiêu dâm thông qua một nền tảng trực tuyến được truy cập rộng rãi.

Hơn nữa, các dịch vụ này cũng bình thường hóa ý tưởng về nội dung khiêu dâm tổng hợp, điều này có thể làm trầm trọng thêm những lo ngại hiện có về tác động tiêu cực của nội dung khiêu dâm đối với sự phát triển tâm lý và tình dục.

Các công ty công nghệ lớn cũng đang đầu tư mạnh vào các công nghệ tổng hợp sao chép một phần hoặc toàn bộ người dùng của họ. Một ví dụ đáng chú ý là Codec Avatars của Facebook, trong đó phần thân trên của người dùng được tái tạo với mức độ chính xác gần như không thể phân biệt thực ảo. Nhà phát triển của các avatar này tuyên bố rằng chúng có thể được sử dụng để thể hiện các cuộc trò chuyện với những avatar khác, một sự hiện thực hóa chưa từng thấy trước đây.

Ngoài ra, các avatar và các sản phẩm tái tạo tương tự của các cá nhân có thể dẫn đến những vụ gây rối có chủ đích trực tuyến nhiều hơn, tạo ra tương tác mạnh mẽ hơn, nhưng không tích cực. Về lâu dài, việc bình thường hóa các avatar này cũng có thể làm giảm tần suất của các cuộc trò chuyện vật lý và các tương tác ngoài đời thực.

Trợ lý giọng nói AI

Có thể nói rằng các hình thức truyền thông tổng hợp nổi bật nhất trong xã hội là trợ lý giọng nói và các trò chơi AI tăng cường. Sự phổ biến của Amazon Alexa và Google Assistant có lẽ đã khiến chúng ta thoải mái sống trong một thế giới hòa trộn giữa thật và giả. Tuy nhiên, cho đến gần đây, những giọng nói tổng hợp này không giống như người thật; chúng có vẻ quen thuộc nhưng rõ ràng là nhân tạo.

Công bố của Google về trợ lý cuộc gọi thoại kép AI của mình vào năm 2018 đã thay đổi điều này. Duplex là một dịch vụ tự động có thể thay mặt bạn đặt cuộc hẹn, thực hiện các cuộc gọi trực tiếp với giọng nói tổng hợp có tính thực tế cao, bắt chước các yếu tố thân mật của con người trong lời nói, bao gồm ngắt nghỉ và tín hiệu bằng lời nói như “hmmmmmm”.

Mặc dù Duplex không được thiết kế để bắt chước một giọng nói cụ thể, nhưng rõ ràng ý định của họ là tạo ra một trợ lý giọng nói có thể có thể thay thế con người trong các tương tác điện thoại, tạo ra ảo ảnh với bên kia rằng họ đang nói chuyện với một người thực.

Mối lo lắng trước mắt là nhìn thấy những cách mà công nghệ này có thể bị ứng dụng cho những mục đích xấu như ví dụ của Naughty America, tăng lừa đảo, đánh cắp danh tính hoặc các ứng dụng độc hại khác.

Tuy nhiên, câu hỏi thực tế về greyfake là liệu Duplex và một tương lai nơi tiếng nói tổng hợp không còn có thể phân biệt được giọng nói thực hay ảo sẽ làm giảm đi các tương tác thực sự của con người. Vấn đề này đã được đề cập bởi Natasha Lomax, người đã nói về Duplex như là kết quả của sự lừa dối trên thiết kế, thiếu tính đạo đức.

Google đã đảm bảo các cuộc gọi sẽ bắt đầu bằng một thông báo rằng đó là trợ lý giọng nói tổng hợp và không có thật. Tuy nhiên, chúng ta có thể thấy việc các tương tác mật thiết nhất định của con người nên sớm được bảo vệ khỏi các phương tiện tổng hợp.

Khuôn khổ cho tương lai

Tác động lâu dài của AI là khó có thể đoán trước. Tuy nhiên, những ví dụ về greyfake này cho thấy một số vấn đề rất cần được xem xét lại. Chúng ta cần đảm bảo AI tổng quát và phương tiện tổng hợp được phát triển có trách nhiệm khuyến khích các ứng dụng tích cực tiềm năng, đồng thời đảm bảo chúng không vô tình gây hại.

Chúng ta có thể sẽ cần tạo ra một bộ quy tắc về việc liệu một số lĩnh vực tương tác của con người nên được coi là vượt ra ngoài phạm vi can thiệp của công nghệ.

Nếu chúng ta muốn tránh tất cả các kịch bản quá quen thuộc sau khi đã xảy ra thiệt hại thì điều này rất cần thiết, chúng ta sẽ khắc phục vấn đề càng sớm càng tốt. Giống như nhiều công nghệ mới nổi có tác động rộng lớn hơn mà chúng ta mới chỉ bắt đầu hiểu được, có thể  thấy rằng mọi thứ rất hiếm khi có màu đen và trắng.

Theo TheNextWeb

Tin liên quan: