In two languages English and Hindi
Facebook: AI using 'primates' label on videos of black men was 'unacceptable'
Facebook said it disabled the feature after discovering the label.
Facebook has apologized for an AI-powered feature that ended a Daily Mail video featuring Black men after asking users if they "would like to continue watching videos about primates".
The New York Times reported that the video contained "clips of black men in brawls with white civilians and police officers" and "had no connection to monkeys or primates." The video was published in June 2020; The report did not specify for how long the offending sign was shown.
Facebook told the NYT that the label that appeared on that video was "an unacceptable error" and said it would investigate the feature "to prevent this from happening again." The recommendation engine that applies the label to that video has been disabled while the company is looking into it.
This isn't the first time something like this has happened. For example, Google Photos ranked an image of two black people in a category called "gorillas" in 2015, and Twitter recently confirmed that its image-cropping algorithm was biased in favor of white individuals.
Bias have also been found in algorithms related to facial recognition, health care and other areas. Yet tech companies have made AI an important aspect of their services, apps and hardware, despite ongoing concerns about the degradation of the algorithms behind the features.
"As we've said, while we've improved our AI, we know it's not perfect, and we have to make more progress," Facebook spokeswoman Danny Lever said in a statement to the NYT. "We apologize to all who may have seen these objectionable recommendations."
In hindi language
फेसबुक ने कहा कि लेबल की खोज के बाद उसने इस सुविधा को अक्षम कर दिया।
फेसबुक ने एआई-पावर्ड फीचर के लिए माफी मांगी है, जिसने ब्लैक पुरुषों की विशेषता वाले डेली मेल वीडियो को समाप्त करने के बाद उपयोगकर्ताओं से पूछा कि क्या वे "प्राइमेट्स के बारे में वीडियो देखना जारी रखना चाहते हैं"।
न्यूयॉर्क टाइम्स ने रिपोर्ट किया कि वीडियो में "श्वेत नागरिकों और पुलिस अधिकारियों के साथ विवाद में काले पुरुषों की क्लिप" और "बंदर या प्राइमेट से कोई संबंध नहीं था।" वीडियो जून 2020 में प्रकाशित हुआ था; रिपोर्ट में यह नहीं बताया गया था कि आपत्तिजनक संकेत कितने समय के लिए दिखाया गया था।
फेसबुक ने एनवाईटी को बताया कि उस वीडियो पर दिखाई देने वाला लेबल "एक अस्वीकार्य त्रुटि" था और कहा कि वह "इसे फिर से होने से रोकने के लिए" सुविधा की जांच करेगा। उस वीडियो पर लेबल लागू करने वाले अनुशंसा इंजन को अक्षम कर दिया गया है, जबकि कंपनी इस पर गौर कर रही है।
यह पहली बार नहीं है जब ऐसा कुछ हुआ है। उदाहरण के लिए, Google फ़ोटो ने 2015 में "गोरिल्ला" नामक एक श्रेणी में दो अश्वेत लोगों की एक छवि को क्रमबद्ध किया, और ट्विटर ने हाल ही में पुष्टि की कि इसका छवि-क्रॉपिंग एल्गोरिदम श्वेत व्यक्तियों के पक्ष में पक्षपाती था।
चेहरे की पहचान, स्वास्थ्य देखभाल और अन्य क्षेत्रों से संबंधित एल्गोरिदम में भी पूर्वाग्रह पाए गए हैं। फिर भी तकनीकी कंपनियों ने सुविधाओं के पीछे एल्गोरिदम की गिरावट के बारे में चल रही चिंताओं के बावजूद एआई को अपनी सेवाओं, ऐप्स और हार्डवेयर का एक महत्वपूर्ण पहलू बना दिया है।
फेसबुक की प्रवक्ता डैनी लीवर ने एनवाईटी को दिए एक बयान में कहा, "जैसा कि हमने कहा है, जबकि हमने अपने एआई में सुधार किया है, हम जानते हैं कि यह सही नहीं है, और हमें और प्रगति करनी है।" "हम उन सभी से माफी मांगते हैं जिन्होंने इन आपत्तिजनक सिफारिशों को देखा होगा।"