OpenAI – phòng nghiên cứu có trụ sở tại San Francisco, do tỷ phú Elon Musk tài trợ, đã cho ra mắt mô hình tạo văn bản mới có tên là GPT-3 với nhiều tính năng vượt trội. GPT-3 được cho là công cụ tạo văn bản AI tiên tiến nhất trên thế giới, nhưng công cụ này hiện vẫn hạn chế quyền sử dụng của người dùng.

Ảnh: Getty Images/WIRED.

Là một hệ thống Machine Learning với lượng dữ liệu văn bản khổng lồ 45TB, GPT-3 có thể tạo ra các loại nội dung như câu chuyện, mã code, thuật ngữ chuyên ngành luật chỉ với một vài từ hoặc câu đầu vào. Thử nghiệm beta cũng đưa ra một số kết quả đáng kinh ngạc. Nhưng sau những kết quả hứa hẹn ban đầu, GPT-3 đang phải đối mặt với nhiều lo ngại.

Vào tuần trước, người đứng đầu bộ phận AI của Facebook – Jerome Pesenti chỉ ra sự thiên vị từ một chương trình được tạo bằng GPT-3. Chương trình được đề cập là một trình tạo tweet; bất kỳ ai cũng có thể nhập một từ và AI sẽ đưa ra một câu liên quan, dài 280 ký tự trở xuống, kết quả đầu ra khác nhau. Ví dụ, khi nhập từ khóa Zuckerberg, gợi ý đầu tiên của GPT là: “Tại sao Zuck không đeo cà vạt. Anh ta định cuộn chiếc cà vạt lại, dính bằng keo siêu dính và nuốt nó vào bụng. Sau đó, anh ta  sẽ phẫu thuật cắt bỏ nó khỏi dạ dày và hành động như thể chưa có chuyện gì xảy ra.” Gợi ý thứ hai là: “Hãy tránh xa Zuckerberg, các công ty công nghệ đang thâm nhập vào lĩnh vực tài chính.”

Pesenti đã thử nghiệm các từ khoá người Do Thái, người da đen, phụ nữ và nạn tàn sát, anh nhận được một số kết quả tiêu cực. GPT-3 được đào tạo từ 175 tỷ thông số từ khắp nơi trên Internet (bao gồm Google Books, Wikipedia và hướng dẫn viết mã); và những mã đó chứa các thành kiến. Các hệ thống AI sao chép các định kiến ​​của con người về phân biệt chủng tộc và phân biệt giới tính, dựa trên dữ liệu học được. Câu hỏi thực sự là, OpenAI sẽ khắc phục và phát triển hệ thống như thế nào trước khi đưa ra thị trường trong tương lai?

Chưa đầy một ngày sau khi Pesenti cảnh báo về vấn đề này, OpenAI đã đưa ra API bộ lọc nội dung độc hại, đánh giá tất cả nội dung do GPT-3 tạo ra trên thang đánh giá từ 1 đến 5, bất kỳ nội dung nào trên hai đều được gắn cờ để kiểm duyệt.

Giám đốc điều hành Sam Altman tweet rằng: “GPT-3 vẫn có những điểm yếu nghiêm trọng và đôi khi mắc những lỗi rất ngớ ngẩn. AI sẽ thay đổi thế giới, nhưng GPT-3 chỉ là một mô hình sơ khai. Chúng tôi vẫn còn rất nhiều điều phải học hỏi.”

Bộ lọc nội dung độc hại không phải là một giải pháp toàn diện, nhưng đây là một bước cần thiết trước khi công bố sản phẩm rộng rãi.

OpenAI cho biết tất cả các loại mô hình AI phổ biến đều “có thể hiển thị cả kết quả độc hại, chẳng hạn như phân biệt chủng tộc, phân biệt giới tính hoặc ngôn ngữ không phù hợp.” Những người có quyền truy cập vào GPT-3 beta đã được cung cấp các quy định cụ thể, nêu rõ nếu người dùng tạo các ứng dụng độc hại, họ có thể bị xóa quyền truy cập. OpenAI cho biết: “Chúng tôi không ủng hộ các hành vi gây tổn hại về thể chất hoặc tinh thần, các hành vi quấy rối, lừa đảo, cực đoan hóa, quảng cáo và spam sẽ đều bị hủy bỏ.”

Mặc dù còn một số rủi ro tiềm tàng, GPT-3 cũng mang lại nhiều lợi ích cho người dùng thử. Rất nhiều người không có kiến ​​thức về mã hóa vẫn có thể sử dụng được bởi giao diện trực quan. Bạn chỉ cần đưa ra yêu cầu, công cụ sẽ tiếp tục viết cho bạn.

Người dùng thử không có quyền truy cập vào mô hình đầy đủ, chỉ có API dạng text box. Bạn nhập vào một yêu cầu, cho biết bạn muốn nó làm gì, công cụ sẽ thực hiện. Bạn có thể phải viết lại lời nhắc một vài lần để có được đầu ra mà bạn đang tìm kiếm. Nhờ GPT-3, bạn có thể tạo được thơ ca, mã thiết kế web tức thì, hay thậm chí GPT-3 còn hoạt động như một nhà trị liệu.

Munye – một người dùng thử cho biết công cụ đã giúp đỡ anh rất nhiều trong việc viết lách. Nếu bạn đang viết một câu chuyện và mất cảm hứng, thì ứng dụng GPT-Infused Short sẽ giúp bạn tiếp tục câu chuyện theo phong cách viết của bạn một cách logic và mạch lạc. Từ một câu đơn, hoặc thậm chí một vài từ, nó có thể tạo ra năm đoạn văn đầy đủ. Munye nói: “Tôi đã rất ngạc nhiên với khả năng sáng tạo của nó, thật sự rất giống với mẩu chuyện viết bởi con người.”

Mặc dù dễ sử dụng nhưng GPT-3 có thể gây ra những hậu quả nghiêm trọng, như góp phần tạo và lan truyền tin giả trên Internet. Anders Sandberg, một nhà nghiên cứu cấp cao tại Viện Tương lai Nhân loại của Đại học Oxford, cho biết: “Chắc chắn có rất nhiều thành kiến mà chúng tôi chưa phát hiện ra. Nhưng đây sẽ là công cụ tuyệt vời để phát hiện thành kiến và thiên vị.”

OpenAI chỉ cấp cho người dùng quyền truy cập thông qua API, nên có thể hủy kích hoạt quyền này bất kỳ lúc nào khi có sự cố phát sinh. Người thử nghiệm beta Harley Turan cho biết: “OpenAI đảm nhận bên trung gian, vì vậy nếu người dùng sử dụng công cụ với mục đích xấu trên quy mô lớn, OpenAI sẽ có khả năng phát hiện ra và hủy nó.”

Bên cạnh đó, Open AI cũng đang “phát triển các công cụ để gắn nhãn và can thiệp vào các thành kiến ​​độc hại”, đồng thời tiến hành nghiên cứu riêng và làm việc với các chuyên gia để xác định khả năng lạm quyền. OpenAI tin rằng: “Đây là một vấn đề chung của toàn ngành công nghệ. Điều lệ của công ty nêu rõ ‘nghĩa vụ ủy thác chính của OpenAI là đối với nhân loại’ và công ty sẽ không bao giờ bất chấp sự an toàn của người dùng để giành chiến thắng trong cuộc đua phát triển AI.”

Chính GPT-3 có thể giúp khắc phục điểm yếu của mình. Với khả năng tính toán xác suất, hệ thống này có thể tự kiểm tra tin tức giả từ chính văn bản đầu ra, thay vì lan truyền thông tin công kích người khác trên mạng.

Sandberg chia sẻ: “Công nghệ ra đời là để thay đổi thế giới tốt đẹp hơn. Với GPT-3, nếu chúng ta có thể tìm ra cách sử dụng nó một cách có trách nhiệm, tôi tin rằng GPT-3 có thể thay đổi thế giới.”

Theo Wired

Tin liên quan: