Lỗi nhận diện gương mặt – Một bất lợi lớn cho doanh nghiệp

74

Nhà nghiên cứu tại MIT, Joy Buolamwini cho rằng: AI cần cải thiện khả năng nhận diện giới tính và màu da.

Joy Buolamwini phát biểu tại hội thảo Women Transforming Technology (Phụ nữ thay đổi công nghệ) | Ảnh: Stephen Shankland/CNET

Nếu hệ thống nhận diện gương mặt của doanh nghiệp không thể hoạt động tốt với phụ nữ hoặc màu da tối, có lẽ họ cần cân nhắc khắc phục vấn đề này.

Đó là lời khuyên của Joy Buolamwini, nhà nghiên cứu tại MIT và nhà sáng lập Algorithmic Justice League. Trong phát biểu của mình tại hội thảo Women Transforming Technology, bà Buolamwini đã khẳng định rằng, phụ nữ và người da màu chiếm phần đông dân số, song lại không phải mẫu thử phổ biến trong AI.

Doanh nghiệp cần phải cân nhắc số đông này nếu muốn phát triển rộng ra toàn cầu”, bà chia sẻ.

Buolamwini đã tán dương Microsoft, IBM và Megvii Face++ vì sự cải thiện của những hãng này vào năm 2018 so với trước đây. Hạn chế dữ liệu để huấn luyện AI đã phần nào dẫn đến sự thiên vị cho những mẫu thử là nam giới da trắng, và hạn chế này trong công nghệ nhận diện gương mặt sẽ dẫn tới những vấn đề vượt ngoài tầm thương mại, ảnh hưởng tới hệ thống công lý và định kiến trong nghiên cứu.

Vậy tại sao lại xuất hiện một “số đông hiếm gặp” trong mẫu thử của công nghệ nhận diện gương mặt? Buolamwini tập trung về vấn đề này trong buổi chia sẻ, sau khi nghiên cứu của bà chỉ ra rằng các hệ thống nhận diện gương mặt hiệu quả hơn cả khi dùng trên nam giới da trắng. Vấn đề đầu tiên nằm ở việc dữ liệu chủ yếu tập trung vào nam giới.

Đa phần kho dữ liệu là gương mặt nam giới,” Buolamwini kết luận trước hai kho dữ liệu là LFW (Labeled Faces in the Wild), với 78% mẫu thử là nam giới và 84% mẫu thử là người da trắng, và một kho dữ liệu khác của Viện Tiêu chuẩn và Kỹ thuật Quốc gia, với 75,4% mẫu thử nam giới và 80% mẫu thử da sáng màu. “Nếu chỉ tập trung vào nam giới da sáng màu, hiệu quả của hệ thống sẽ luôn thấp cho phần còn lại của thế giới,” bà bày tỏ.

Tính chính xác chỉ là bước đầu trong nhận diện gương mặt. Trong quân sự hay hệ thống pháp luật, “các hệ thống nhận diện và phân tích gương mặt chính xác hoàn toàn có thể bị lạm dụng,” Buolamwini bổ sung.

Sự chính xác cho phần còn lại của thế giới

Trong nghiên cứu năm 2017, Buolamwini đã đo mức độ hiệu quả của công nghệ nhận diện gương mặt trên 1270 người với giới tính và màu da khác nhau, tới từ tổng cộng 3 quốc gia Châu Âu và 3 quốc gia Chây Phi. Kết quả của nghiên cứu đã cho biết, hiểu quả của hệ thống cao hơn cả với nam giới da sáng màu, và thấp nhất với phụ nữ da đen.

Bằng chứng rõ nhất là hệ thống nhận diện của Microsoft, với độ chính xác 100% cho nam giới da sáng, 98,3% cho phụ nữ da sáng, 94% cho nam giới da sẫm màu và chỉ 79,2% với phụ nữ da sâm màu – một mức chênh lệch tới 20,8% giữa mức cao nhất và thấp nhất. Kết quả của IBM và Face++ thậm chí còn tệ hơn, với lần lượt các mức chênh là 34,4% và 33,8%.

Kết quả của nghiên cứu năm 2018 có phần khả quan hơn với Microsoft, IBM, và Face++, và cũng đã đánh giá thêm công cụ nhận diện của Amazon và Kairos: Cả hai hệ thống nhận diện đều cho kết quả chính xác 100% với nam giới da sáng màu, và lần lượt 68,6% và 77,5% với phụ nữ da tối màu.

Phản hồi duy nhất của IBM trước kết quả nghiên cứu là ngay lập tức cải thiện thuật toán của mình. Vào năm 2018, họ đã khẳng định “sẽ cam kết cung cấp dịch vụ công bằng, có thể giải thích, với các giá trị thống nhất và minh bạch.” Microsoft cũng đã cam kết sẽ cải tiến, và cam kết này đã được chứng minh khi hệ thống nhận diện của hãng đã làm tốt hơn vào năm 2018. Về phía, Megvii, hãng không phản hồi hay thực hiện bất cứ thay đổi nào.

Phản hồi của Amazon có phần nóng nảy hơn khi khẳng định rằng, một số kết luận của Buolamwini là sai sự thật, nhưng hãng vẫn sẽ “hợp tác với một số viện nghiên cứu để đưa ra các kiểm tra tiêu chuẩn hơn cho việc nhận diện gương mặt, cũng như sẽ đưa ra những chỉ dẫn/yêu cầu sự dụng chặt chẽ hơn.” Buolamwini đã phản biện lại phản hồi này của Amazon trên blog cá nhân.

Trái lại, CEO của Kairos, Melissa Doval, đã đồng ý với quan điểm của Buolamwini.

“Sự vô minh không nên được chấp nhận tại thời điểm hiện tại, nhất là trong doanh nghiệp”  bà Doval phát biểu. “Mọi người tại Kairos nhiệt liệt ủng hộ quan điểm của Joy trong việc đưa ra những câu hỏi mang tính đạo đức, mà vẫn luôn bị bỏ qua trong công nghệ nhận diện gương mặt. Nghiên cứu của Buolamwini đã thúc đẩy chúng tôi cần phải sửa chữa vấn đề này trong phần mềm nhận diện, thậm chí làm lại từ đầu cách chúng tôi thiết kế và tiếp thị những thuật toán.”

Khó khăn của phụ nữ trong ngành công nghệ

Buolamwini  đã có một bài phát biểu tại hội thảo về khó khăn của nữ giới trong ngành công nghệ, tổ chức ở Thung Lũng Silicon. Tại đó, hàng nghìn người tham dự đã trao đổi, xây dựng quan hệ và tìm kiếm những lời khuyên trong việc cải thiện hồ sơ xin việc, cũng như hồ sơ trên mạng xa hội việc làm phổ biến – LinkedIn.

Susan Fowler tại hội nghị Women Transforming Technology | Ảnh: Stephen Shankland/CNET

Hội thảo đã cung cấp một góc nhìn sâu hơn về sự phân biệt giới tính tại nơi làm việc, mà trong đó, bài phát biểu của Susan Fowler về trải nghiêm tại Uber đã để lại ấn tượng sâu đậm nhất.

Cuối bài phát biểu, bà cho rằng: các công ty và nhà quản lý đều không muốn tồn tại sự phân biệt, quấy rối hay kiện cáo trong doanh nghiệp. Vì vậy, bạn bên trực tiếp trao đổi với quản lý hoặc bộ phận nhân sự khi cần thiết.

Fowler tin rằng “Nếu đây là một vấn đề mang tính hệ thống, nó sẽ chẳng bao giờ thay đổi” trừ khi bạn trực tiếp nói ra. Khi bà nói lên vấn đề của mình với tư cách một vị CEO, chẳng ai quan tâm. Vì vậy, “tôi đã nói cho cả thế giới”, bà nói. Và Uber đã phải thay đổi.

Lisa Gelobter, lập trình viên và CEO của Tequitable cho rằng, phân biệt giới tính không chỉ xảy ra tại Thung Lũng Silicon. Thứ duy nhất khác biệt là thái độ của nơi này về việc thay đổi thế giới.

Thung Lũng Silicon có những chuẩn mực và văn hóa riêng,” Gelobter khẳng định. Ngành tài chính chẳng giấu diếm gì về tư tưởng tư bản, còn “ngành công nghệ thì lại giả vờ như họ rất quan tâm.”

Theo Cnet

Tin liên quan: