Những mối nguy tiềm tàng trong thuật toán gợi ý của YouTube

262

Tại thời điểm hiện tại, những thông tin mà chúng ta tiếp cận chịu ảnh hưởng lớn của công nghệ trí tuệ nhân tạo. Hàng ngày, người dùng YouTube dành tổng cộng 700.000.000 tiếng chỉ để xem những video được gợi ý. Người dùng Facebook cũng gặp phải tình huống tương tự, với tổng thời gian sử dụng mạng xã hội này lên tới 950.000.000 tiếng mỗi ngày. Tuy nhiên, trên thực tế, sau gần thập kỷ, những hậu quả vô tình (nhưng lại hoàn toàn đoán trước được) của việc này đã dần trở nên hiện hữu.

Vào hồi tháng 2, Matt Watson – một người dùng YouTube đã phát hiện thuật toán gợi ý đã giúp những kẻ ấu dâm dễ dàng kết nối và chia sẻ những văn hóa phẩm đồi trụy liên quan tới trẻ em hơn. Như vậy, YouTube không chỉ đang kiếm tiền từ phim khiêu dâm trẻ em, mà còn thu hút thêm những đối tượng quan tâm tới hình thức này.

Trước thông tin gây sốc trên, Disney và Nestlé đã ngừng quảng cáo trên YouTube, trong khi trang xem video này phải chặn và xóa hàng nghìn video, cũng như chặn tính năng bình luận trên một số video lọt vào nghi vấn.

Và đây không phải vụ bê bối duy nhất. Nhiều người dùng cũng đã tố cáo rằng YouTube cho phép quảng bá các nội dung khủng bố, thông điệp tiêu cực, nạn ấu dâm, hành hạ động vật, cũng như các tư tưởng mê tín dị toan.

Với tư cách một người từng tham gia phát triển cơ chế gợi ý, hành động của AI trong việc quảng bá những nội dung có hại này hoàn toàn có thể được dự đoán từ trước, chỉ bằng cách nhìn vào những thông số tương tác.

Phía sau “thảm họa” AI

Mục tiêu chính của thuật toán gợi ý trên YouTube là kéo dài thời gian sử dụng của người dùng. Vì vậy, các thuật toán này sẽ theo dõi và đo lường thói quen xem video, rồi từ đó tìm kiếm và gợi ý những video phù hợp để tăng tương tác của người dùng.

Trong vụ bê bối về nạn ấu dâm, mục tiêu của AI của YouTube cũng không có gì thay đổi – chúng gợi ý những video khiêu dâm trẻ em cho những kẻ có thói quen tìm kiếm những nội dung này. Dần dần, AI sẽ thu được nhiều dữ liệu hơn, và từ đó lại cung cấp thêm nhiều video hơn cho những đối tượng này.

Mối nguy không chỉ dừng lại ở đó, bởi AI sẽ còn tiếp tục cải thiện và thậm chí xuất hiện khả năng dự đoán chính xác những đối tượng có thể quan tâm tới những nội dung này. Kết quả là, AI sẽ không bao giờ gợi ý những nội dung này cho những người không quan tâm – và sẽ không có ai phát hiện ra những nội dung này để báo cáo lên YouTube. Và nếu như không xuất hiện Matt Watson – người tìm ra đường dây tuyên truyền video khiêu dâm trẻ em, thì đường dây này sẽ còn mãi kéo dài.

Và đây chỉ là một phần nhỏ trong những hậu quả nghiêm trọng hơn.

Cách tương tác kiểm soát AI

Các nhà nghiên cứu tại Google Deep Mind gần đây đã thử kiểm tra tầm ảnh hưởng của các hệ thống gợi ý trên YouTube cũng như các nền tảng khác. Kết quả là, vòng lặp của phản hồi gây ra bởi những hệ thống này sẽ củng cố những tư tưởng có sẵn, hạn chế người dùng tiếp cận với các tư tưởng mới, từ đó gây ra những ảnh hưởng nhất định với những thông tin được người dùng tiếp cận, cũng như ảnh hưởng tới thế giới quan của họ.

Một mối nguy khác chưa được nghiên cứu trên nhắc tới là ảnh hưởng của những hệ thống gợi ý tới các nội dung được sản xuất: trên thực tế, nội dung, AI, và người dùng sẽ luôn ảnh hưởng tới nhau. Do AI sẽ luôn cố gắng tăng tương tác, những người dùng có tương tác nhiều sẽ được AI lấy làm tiêu chuẩn để cung cấp nội dung. Kết quả là, những thuật toán AI sẽ luôn chú trọng sở thích những người dùng này trong quá trình gợi ý.

Về cơ bản, ta sẽ có một vòng lặp như sau: Trước hết, các đối tượng dùng nhiều thời gian hơn sẽ gây ra tác động lớn hơn trên hệ thống gợi ý. Sau đó, nội dung được tương tác bởi những người này sẽ có lượt xem và thích cao hơn. Trong khi đó, người làm nội dung sẽ để ý điều này, và tạo ra những nội dung tương tự. Rồi vòng lặp lại quay lại khi người dùng tiếp tục sử dụng nhiều hơn. Như vậy, có thể kết luận rằng, với một nền tảng bất kỳ, các đối tượng tương tác nhiều luôn quan trọng nhất, và nghiên cứu cần chú trọng những đối tượng này để dự đoán được hướng phát triển của AI.

Trên một quy mô rộng hơn, ta cần phải hiểu được về mục tiêu chung của những cơ chế gợi ý: các công ty muốn thuật toán của mình thu hút tương tác người dùng, nhưng hậu quả của mục tiêu này lại khó lòng đoán trước.

Đáng buồn thay, những thông tin sai lệch, lời đồn đại, thông tin gây tranh cãi lại rất thu hút người dùng, và chỉ sau khi tương tác với những nội dung này, người dùng mới có thể báo cáo chúng. Lúc này, mọi thứ đã quá muộn màng, thuật toán sẽ ghi nhận rằng họ tương tác với nội dung đó, suy đoán rằng nội dung này đang được ưa thích, và càng tích cực quảng bá chúng, dẫn tới việc xuất hiện càng nhiều những nội dung này hơn. Tất cả những điều này đều xảy ra do cơ chế tăng tương tác của AI, và chỉ cần thành công với một người dùng, AI sẽ ứng dụng nó lên hàng loạt những người dùng khác.

Như vậy, kể cả những AI tốt nhất, thông minh nhất của những công ty lớn như YouTube và Facebook đều sẽ gợi ý những nội dung sai lệch, gây tranh cãi và vô dụng nhằm tăng tương tác người dùng. Để cải thiện vấn đề này, người dùng sẽ phải trở nên cảnh giác hơn, cũng như cố gắng tìm hiểu về cơ chế hoạt động của những hệ thống AI này. Song, trách nhiệm không chỉ nằm ở họ.

Trong vòng vài năm trở lại đây, các công ty cũng đang dần trở nên chủ động hơn. Cụ thể, Facebook và YouTube khẳng định sẽ tìm kiếm và gỡ bỏ những nội dung có hại.

Như vậy, để ngăn chặn một tương lai mà thông tin sai trái và gây tranh cãi trở nên tràn lan, ta cần ứng dụng rất nhiều biện pháp. Với người dùng, việc hiểu những tác hại và lợi ích của thuật toán AI là vô cùng cần thiết.

Theo The Wired

Tin liên quan: