Phòng thí nghiệm và nghiên cứu OpenAI đã phát hành phiên bản đầy đủ của hệ thống AI tạo văn bản. Đây là một cỗ máy từng bị các chuyên gia cảnh báo là có thể bị sử dụng cho mục đích xấu.

Viện OpenAI đã công bố hệ thống GPT-2 vào tháng 2 năm nay, nhưng vẫn chưa công bố phiên bản đầy đủ của chương trình vì sợ nó sẽ bị sử dụng để truyền bá tin tức giả mạo, spam và thông tin sai lệch. Kể từ đó, viện đã phát hành các phiên bản GPT-2 nhỏ hơn, ít phức tạp hơn và nghiên cứu sự tiếp nhận thông tin của chúng. Một số tổ chức khác cũng làm theo tương tự. Trong một bài đăng trên blog tuần này, OpenAI hiện cho biết, họ thấy chưa có bằng chứng nào về việc chiếc máy bị lạm dụng và họ đã phát hành luôn mô hình đầy đủ.

GPT-2 là một phần của một hệ thống tạo văn bản mới đã gây ấn tượng với các chuyên gia về khả năng tạo văn bản mạch lạc từ rất ít các gợi ý. Hệ thống được đào tạo dựa trên tám triệu tài liệu văn bản được quét từ web và phản hồi các đoạn văn bản do người dùng cung cấp. Khi chúng ta cho nó một tiêu đề, nó sẽ viết được cả một bản tin; khi chúng ta cung cấp dòng đầu tiên của một bài thơ và thì nó sẽ làm được cả toàn bộ bài thơ.

Thật khó để truyền đạt chính xác đầu ra của GPT-2 tốt như thế nào, nhưng dựa trên những tiến bộ gần đây, cho thấy mô hình này tạo ra văn bản rất thông minh. Tuy nhiên, khi tìm hiểu hệ thống kỹ hơn, chúng ta sẽ bắt đầu nhận ra những hạn chế của nó. Khá khó để chiếc máy có thể đạt được sự mạch lạc trong lâu dài; ví dụ như việc sử dụng tên và thuộc tính của các nhân vật một cách nhất quán trong một câu chuyện hoặc bám sát vào một chủ đề duy nhất trong một bài báo.

Cách tốt nhất để cảm nhận về các khả năng của GPT-2 là tự mình thử nó. Bạn có thể truy cập phiên bản web tại TalkToTransformer.com và nhập vào những dòng văn bản tùy ý thích.

Ngoài các khả năng cơ bản của GPT-2, phiên bản mô hình này cũng là tác nhân một phần của cuộc tranh luận đang diễn ra về trách nhiệm của các nhà nghiên cứu AI trong việc giảm thiểu tác hại do công việc của họ gây ra. Các chuyên gia đã chỉ ra rằng việc dễ dàng tiếp cận được các công cụ AI tiên tiến có thể dẫn tới những sự lạm dụng không mong muốn; như một điển hình mà chúng ta đã thấy là việc sử dụng deepfakes để tạo ra phim khiêu dâm trả thù. OpenAI đã hạn chế việc phát hành mô hình của mình vì lo ngại vấn đề này.

Tuy nhiên, không phải ai cũng hoan nghênh cách tiếp cận của OpenAI. Nhiều chuyên gia chỉ trích quyết định này, họ cho rằng việc này sẽ giới hạn những nghiên cứu mà những người khác có thể làm để giảm thiểu tác hại của mô hình, và nó tạo ra sự cường điệu không cần thiết về sự nguy hiểm của trí tuệ nhân tạo.

Từ “quá nguy hiểm”, được sử dụng mà không có những sự suy nghĩ kỹ càng hay thử nghiệm, nhà nghiên cứu Delip Rao nói với The Verge hồi tháng Hai rằng: “Tôi không nghĩ rằng OpenAI đã dành đủ thời gian để chứng minh rằng nó thực sự nguy hiểm”.

Trong thông báo về mô hình đầy đủ trong tuần này, OpenAI lưu ý rằng GPT-2 có thể bị sử dụng sai cách, nghiên cứu của bên thứ ba cũng nói rằng hệ thống có thể bị lạm dụng để tuyên truyền các tư tưởng cực đoan. Nhưng họ cũng thừa nhận rằng những lo ngại về việc hệ thống này sẽ được sử dụng để tạo ra hàng loạt thư rác, tràn ngập các hệ thống thông tin trực tuyến và phương tiện truyền thông xã hội, là vẫn chưa có căn cứ.

Phòng thí nghiệm cũng lưu ý rằng các nhà nghiên cứu của họ đã tạo ra các hệ thống tự động có thể xác nhận đầu ra của GPT-2 với độ chính xác ~ 95%, nhưng con số này không đủ cao để có thể độc lập phát hiện, có nghĩa là bất kỳ hệ thống nào được sử dụng để tự động phát hiện văn bản giả cũng sẽ cần cả sự giám sát của con người. Mặc dù vậy, điều này không có gì đặc biệt bất thường bởi thông thường, với các nhiệm vụ kiểm duyệt như vậy, máy móc vẫn luôn cần dựa vào con người để hỗ trợ phát hiện ra hình ảnh và video giả mạo.

OpenAI cho biết họ sẽ tiếp tục theo dõi xem GPT-2 được cộng đồng tiếp nhận như thế nào và sẽ tiếp tục phát triển các chính sách của mình để việc nghiên cứu AI trở nên có trách nhiệm hơn.

FPT TechInsight
Theo The Verge

Tin liên quan: