Trí tuệ nhân tạo chuyên tạo ra những tin nhắn giả chỉ từ một câu đã làm dấy lên những lo ngại về khả năng lan truyền thông tin giả mạo.

“Tin nhắn giả” có thể trở nên vô cùng nguy hại với những người hay nhắn tin trực tuyến. Ảnh: Joe Magee.

Gần đây, có một đoạn hội thoại không có gì đặc biệt lắm xảy ra trên Reddit, trong đó một người dùng khoe là “đã tìm ra cách nấu lòng trắng trứng mà không cần dùng đến chảo”, theo sau là một loạt phản hồi, từ “Chưa bao giờ thấy ai thử làm trò này”, “Để thử mới được”, hay xa hơn nữa là một tràng dài về độ khoa học đằng sau việc nấu lòng trắng trứng mà không dùng chảo.

Hàng ngày, có rất nhiều những đoạn hội thoại vô nghĩa trên khắp các mạng xã hội, về vô số những chủ đề khác nhau. Nhưng đoạn hội thoại trên đặc biệt ở chỗ, nó không xảy ra giữa con người, mà giữa những bot sử dụng trí tuệ nhân tạo.

Và đây cũng không phải cuộc hội thoại duy nhất trên Reddit diễn ra giữa các bot với nhau. Được biết, những cuộc hội thoại này được tạo ra bởi người dùng Reddit disumbrationist, với một công cụ tổng hợp ngôn ngữ bằng học máy mới của OpenAI (một trong những viện nghiên cứu AI hàng đầu thế giới), mang tên GPT-2.

Theo Jack Clark, giám đốc chính sách của OpenAI, một trong những mối quan ngại lớn của họ là GPT-2 sẽ bị lạm dụng để truyền bá những thông tin sai lệch. Trong phát biểu mới nhất trước Ủy ban Đặc biệt về Tình báo Hoa Kỳ, Clark cho rằng, việc lạm dụng này chắc chắn sẽ  xảy ra: từ tạo dựng những tin tức giả, giả mạo người dùng, hoặc chỉ đơn giản là vài đoạn hội thoại vô nghĩa.

GPT-2 là công cụ điển hình cho một kỹ thuật gọi là “language modeling”, bao gồm một thuật toán giúp dự đoán các chữ tiếp theo trong một câu. Khác với các mô hình ngôn ngữ trở về trước luôn gặp khó khăn trong việc tạo ra những đoạn văn bản dài có nghĩa, GPT-2 sử dụng những dữ liệu cơ bản hơn, “học” các tin tức 8m trên mạng, cũng như ứng dụng các thuật toán tốt hơn để cho hiệu quả cao hơn.

Cơ chế của công cụ này cũng tương tự như khả năng tự hoàn thành câu của Google, hay từ ngữ gợi ý trong nhắn tin. Chỉ khác ở chỗ, thay vì gợi ý từng từ, GPT-2 có thể dựa vào một câu để tạo ra nhiều đoạn văn. Cụ thể hơn, khi bạn nhập vào một câu từ kịch Shakespeare, GPT-2 sẽ phản hồi theo văn phong của Shakespeare, còn nếu bạn cho GPT-2 một tít báo, bạn sẽ nhận được kết quả tương đương một bài báo.

Alec Radford, một nhà nghiên cứu tại OpenAI đã chia sẻ rằng, ông coi thành công của GPT-2 như một bước tiến lớn trong việc giao tiếp giữa con người và máy móc. Theo ông, mục tiêu của hệ thống là giúp máy móc có thể thuần thục xong việc sử dụng ngôn ngữ tự nhiên, từ đó có thể nhận diện giọng nói (cần thiết trong các trợ lý ảo như Siri và Alexa), cũng như dịch máy (sử dụng trong những công cụ dịch) thành thạo hơn.

Tuy nhiên, khi GPT-2 trở nên phổ biến trên các trang mạng và được sử dụng để tạo ra những văn bản giả mạo, đội ngũ tại OpenAI đã quan ngại về việc lạm dụng công cụ này, dẫn tới việc khó có thể biết được nguồn gốc của mọi văn bản trên mạng.

Clark và đội ngũ tại OpenAI đã không công bố bản đầy đủ của GPT-2 cũng chính vì mối lo này. Trong bài đăng trên blog của phòng thí nghiệm, họ thừa nhận việc chỉ công bố một phần công cụ là do “các quan ngại về nguy cơ sử dụng sai mục đích”. (Tuy rằng sau đó, một phiên bản mở rộng hơn cũng đã được công bố.)

Càng ngày, ta càng khó xác minh tính thực của thông tin.” – Jack Clark

Clark cho rằng khả năng tạo ra những văn bản quá giống thực của GPT-2 sẽ mang lại mối nguy tương tự như “deepfake” – công cụ học máy tạo ra những hình ảnh và video giả, có thể làm cho một người trông như đang thực hiện một hành động họ chưa từng làm, hay nói những thứ họ chưa từng nói. “Về cơ bản, chúng là giống nhau”, Clark nói. “Khi bạn có đủ công nghệ để làm việc giả mạo rẻ hơn và dễ hơn, càng ngày, sự thật càng khó để xác minh.”

Một vài người lại cho rằng Clark đang làm quá về những mối nguy. Yochai Benkler, đồng lãnh đạo Trung tâm Berkman Klein về Mạng và Xã hội tại Harvard cho rằng, những thông tin thực sự nguy hại sẽ được viết bởi người thật, và sẽ tập trung vào những chủ đề gây tranh cãi lớn, như gian lận bầu cử hay vấn đề nhập cư. Benkler thừa nhận GPT-2 có thể tạo ra những bài báo, nhưng lại chưa đủ khả năng để điều hướng dư luận. Ông khẳng định “Chỉ bằng khả năng tạo ra văn bản giả thì không thể gây ảnh hưởng lớn tới hầu hết vụ việc về sai lệch và bẻ lái thông tin.”

Nhiều chuyên gia khác cũng đồng tình với Benkler khi cho rằng OpenAI đang cố tình làm quá vấn đề về GPT-2 nhằm thu hút sự chú ý. Và Zack Lipton, giáo sư về Công nghệ doanh nghiệp tại Đại học Carnegie Mellon là một trong số họ.

Trong hàng loạt mối nguy về AI, từ các trình gợi ý dẫn tới “filter bubble” (trải nghiệm Internet của người dùng chỉ xoay quanh những gì họ muốn và niềm tin có sẵn, khiến họ mất đi sự khách quan), cho tới sự phân biệt chủng tộc có thể xảy ra khi phân loại tự động, thì vài văn bản giả không hề nghiêm trọng đến thế,” Lipton khẳng định. “Hành động của OpenAI là cố gắng thu hút dư luận bằng cách dấy lên những quan ngại không cần thiết.”

Một số người lại đề phòng trước những mối lo của OpenAI. Gần đây, một nhóm các nhà nghiên cứu tại Viện Allen về Trí tuệ nhân tạo đã phát triển một công cụ dùng để phát hiện các tin tức giả. Yejin Choi, một giáo sư về Khoa học máy tính tại Đại học Washington, thuộc nhóm nghiên cứu trên, khẳng định rằng việc phát hiện “không quá khó khăn”, do các tin tức này sẽ chứa một “chữ ký số” (statistical signature) tương đương như vân tay ở con người, và vì vậy rất dễ phân biệt.

Cá bằng chứng pháp y số tương đối hữu hiệu. Tuy nhiên, Britt Paris, một nhà nghiên cứu tại viện Dữ liệu & Xã hội có trụ sở tại New York, lại cho rằng sử dụng công cụ phát hiện sẽ tạo nên suy nghĩ chỉ có những thông tin bị phát hiện mới là giả, trong khi đa số những tin tức giả được phát tán không hề được tạo ra bởi máy móc.

Chưa cần tới máy móc, con người đã có vô số phương pháp truyền bá những thông tin giả mạo vô cùng hiệu quả”, Paris nói. Và đây là sự thật, những tin tức giả tràn lan trên các trang mạng đa số được tạo ra bởi con người, mà chẳng cần một kỹ thuật cao siêu nào.

Benkler cũng bày tỏ sự đồng tình với quan điểm trên, qua đó khẳng định tin tức và thông tin giả “trước hết là vấn đề chính trị – xã hội, chứ không phải vấn đề của công nghệ.” Chính vì vậy, ông cho rằng, để nhận biết thông tin giả, ta không cần công cụ phát hiện, mà cần xem xét các điều kiện xã hội dẫn tới vấn nạn này.

Tóm lại, dù có hay không những mối nguy xoay quanh GPT-2 và những công nghệ tương đương với nó, ta luôn cần phải xem xét điều kiện xã hội của công nghệ. Tuy nhiên, việc này không hề dễ dàng: chẳng ai 10 năm về trước nghĩ rằng vài thuật toán gợi ý video lại có thể trở thành công cụ định hướng tư tưởng người dùng.

Việc dự đoán những mối nguy của công nghệ thật sự khó khăn. Một nhà nghiên cứu đã đẩy câu hỏi này về chính GPT-2, cho mô hình này tự đánh giá mức độ nguy hại của chính mình. “Bạn có nghĩ mình sẽ được sử dụng cho việc phát tán tin tức giả, càng làm tồi tệ hơn hệ thống thông tin bây giờ không?”, ông hỏi.

Ngay bây giờ, chúng ta đã chẳng biết được ai là người đưa tin trong hầu hết tin tức. Tuy nhiên, dù đó là ai, thì họ vẫn đang cố tình làm điều này hoàn toàn có mục đích,” GPT-2 trả lời.

Theo TheGuardian

Tin liên quan: