YouTube Says It's Deleted 1 Million Videos With COVID Misinformation(YouTube का कहना है कि उसने COVID गलत सूचना के साथ 1 मिलियन वीडियो हटा दिए हैं)

In tow language English and Hindi


कंपनी फरवरी 2020 से 'खतरनाक कोरोनावायरस जानकारी से संबंधित वीडियो, जैसे झूठे इलाज या धोखाधड़ी के दावों' को हटाने के लिए काम कर रही है।

मुख्य उत्पाद अधिकारी नील मोहन ने एक ब्लॉग पोस्ट में कहा, YouTube ने फरवरी 2020 से "खतरनाक कोरोनावायरस जानकारी से संबंधित वीडियो, जैसे कि झूठे इलाज या धोखाधड़ी के दावों" से संबंधित एक लाख से अधिक वीडियो हटा दिए हैं।

 उस आंकड़े को संदर्भ में रखना मुश्किल है।  YouTube का कहना है कि उसके प्लेटफ़ॉर्म पर हर मिनट 500 घंटे से अधिक की सामग्री अपलोड की जाती है, लेकिन यह यह नहीं बताता कि रनटाइम के बीच कितने वीडियो विभाजित हैं, और न ही यह COVID-19 से संबंधित वीडियो की संख्या का सामान्य लेखा प्रदान करता है।  स्थल।

यह उस संदर्भ को प्रदान करने के लिए सबसे निकटतम मोहन था, और यह COVID-19-संबंधित वीडियो के लिए विशिष्ट नहीं है: "खराब सामग्री YouTube पर अरबों वीडियो के केवल एक छोटे प्रतिशत का प्रतिनिधित्व करती है (लगभग .16-.18% कुल दृश्यों में बदल जाता है)  ऐसी सामग्री के लिए जो हमारी नीतियों का उल्लंघन करती है)।"

 मोहन ने यह भी कहा कि YouTube ने "हमारी चुनाव-संबंधी नीतियों का उल्लंघन करने के लिए हजारों वीडियो को हटा दिया है, जिसमें से 77% से अधिक को 100 बार देखे जाने से पहले हटा दिया गया है," क्योंकि राज्यों ने दिसंबर की शुरुआत में अपने अमेरिकी राष्ट्रपति चुनाव परिणामों को प्रमाणित करना शुरू कर दिया था।

 YouTube ने यह नहीं बताया कि हटाए जाने से पहले COVID-19 वीडियो को कितने बार देखा गया।  हमने यह देखने के लिए YouTube से संपर्क किया है कि उसके पास साझा करने के लिए अतिरिक्त डेटा है या नहीं।

 YouTube अकेली कंपनी नहीं है जो इस समस्या से जूझ रही है।  Google, फेसबुक और ट्विटर को भी यह पता लगाना पड़ा है कि व्यापक आलोचना के बाद COVID-19, अमेरिकी राष्ट्रपति चुनाव और अन्य विषयों से संबंधित गलत सूचनाओं से कैसे निपटा जाए।

 फेसबुक पर, कंपनी ने आज कहा कि वह एफडीए द्वारा फाइजर वैक्सीन के पूर्ण अनुमोदन के बारे में "संदेश साझा" करेगी, और उन दावों को हटा देगी जो कहते हैं कि एफडीए-अनुमोदित टीके नहीं हैं या फाइजर जैब

In English language

The company has been working to remove 'videos related to dangerous coronavirus information, such as false cures or fraudulent claims' since February 2020.

 

 YouTube has removed more than a million videos related to "dangerous coronavirus information, such as false cures or fraudulent claims" since February 2020, Chief Product Officer Neil Mohan said in a blog post.


 It is difficult to put that figure into context.  YouTube says more than 500 hours of content are uploaded to its platform every minute, but it doesn't say how many videos are split between runtimes, nor does it give a general account of the number of COVID-19-related videos.  provides.  venue.


 This was the closest Mohan came to providing that context, and is not specific to COVID-19-related videos: "Bad content represents only a small percentage of the billions of videos on YouTube (about .16-.18).  % converts to total views)  for content that violates our policies)."


 Mohan also said that YouTube has removed "thousands of videos for violating our election-related policies, of which more than 77% were removed before they were viewed 100 times," since the states announced December  Initially began to certify his US presidential election results.


 YouTube did not say how many times the COVID-19 video was viewed before it was removed.  We've contacted YouTube to see if it has additional data to share.


 YouTube is not the only company facing this problem.  Google, Facebook and Twitter have also had to figure out how to deal with misinformation related to COVID-19, the US presidential election and other topics after widespread criticism.


 On Facebook, the company said today that it will "share the message" about the full approval of the Pfizer vaccine by the FDA, and will remove claims that say there are no FDA-approved vaccines or that the Pfizer jab
Post a Comment (0)
Previous Post Next Post