इंस्टाग्राम सेक्स, बलात्कार, हत्या रीलों के साथ उपयोगकर्ताओं को बाढ़; मेटा कहता है ‘त्रुटि’ तय
बुधवार (26 फरवरी) को इंस्टाग्राम के माध्यम से लापरवाही से स्क्रॉल करते हुए, मुझे अपने रील्स फ़ीड में परेशान करने वाली छवियों और स्पष्ट सामग्री के साथ बमबारी की गई थी। हिंसक यौन हमले, गंभीर चोटें, और अन्य अनुचित वीडियो मेरे फ़ीड पर दिखाई दिए, एक के बाद एक। यह भ्रामक और अस्थिर था।
मैं अपने दोस्तों के साथ पुष्टि करना चाहता था कि क्या वे भी इस तरह के परेशान फ़ीड प्राप्त कर रहे थे। कई दोस्तों ने पुष्टि की कि वे भी इंस्टाग्राम रीलों को चौंकाने से भर गए थे। और यह सिर्फ हम नहीं थे। दुनिया भर में लाखों लोग इंस्टाग्राम पर इस तरह के स्पष्ट NSFW (काम के लिए सुरक्षित नहीं) सामग्री का शिकार हुए। मेटा ने अब माफी मांगी है, और कहा कि “इरोर” तय हो गया है। लेकिन वास्तव में वह समस्या क्या थी जिसने दुनिया भर के लोगों को चौंका दिया?
एक दिन बाद गुरुवार को एक Google खोज ने खुलासा किया कि दुनिया भर के इंस्टाग्राम उपयोगकर्ताओं ने 26 फरवरी को अपनी रीलों की सिफारिशों में हिंसक और स्पष्ट सामग्री के अचानक वृद्धि की सूचना दी।
एक्स और रेडिट जैसे सोशल मीडिया प्लेटफॉर्म जल्द ही उन उपयोगकर्ताओं से शिकायतों से भर गए थे जिन्होंने कहा कि उन्होंने संवेदनशील सामग्री नियंत्रण के उच्चतम स्तर के बावजूद सामग्री को परेशान करने वाली सामग्री को देखा।
उपयोगकर्ताओं ने कहा कि रील्स सेक्स असॉल्ट, हत्या, प्रसव, भीषण चोटों और घरेलू हिंसा की क्लिप दिखा रही थी।
“क्या आप में से किसी ने देखा है कि इंस्टाग्राम आज आपको अजीब रील या सामग्री दिखा रहा है?” एक ऋषभ नेगी, एक टेक्नोफाइल, एक्स पर पूछा।
“लोग संवेदनशील सामग्री के बारे में शिकायत कर रहे हैं कि वे अपने इंस्टाग्राम फीड को बाढ़ कर रहे हैं,” एक्स पर एक उपयोगकर्ता ने लिखा।
इंस्टाग्राम के 26 फरवरी, 2023, घटना का दोहराव
यह और भी अधिक संदिग्ध है कि 26 फरवरी, 2023 को ठीक दो साल पहले भी यही मुद्दा हुआ था।
इसके बाद, उपयोगकर्ताओं ने भी अपने फ़ीड में शूटिंग और यातना सहित हिंसक वीडियो देखने की सूचना दी – बिना इस तरह की सामग्री के बाद या क्लिक किए।
उस समय, मेटा ने इस मुद्दे को स्वीकार किया लेकिन दावा किया कि ये वीडियो कुल विचारों का एक छोटा सा अंश थे।
हालांकि, कई उपयोगकर्ता- विशेष रूप से कम उम्र के मेम पेजों के बाद – ग्राफिक सामग्री के संपर्क में थे, जो हानिकारक सामग्री को फ़िल्टर करने की इंस्टाग्राम की क्षमता के बारे में चिंताओं को बढ़ाते थे।
एक ही दिन दो साल के अलावा इस घटना का एक दोहराव लोगों को उत्सुक हो गया।
“दो साल पहले, गोर से भरे फ़ीड में एक ही सटीक हिंसक सामग्री एक बड़ा पर्याप्त सौदा था कि वाशिंगटन पोस्ट ने इस पर एक लेख लिखा था। केवल सवाल अब वह है जो एल्गोरिथ्म को 26 फरवरी को विशेष रूप से इस सामग्री को बढ़ावा देने का कारण बनता है?” एक Reddit उपयोगकर्ता से पूछा।
मेटा इस मुद्दे पर प्रतिक्रिया देता है
मेटा के एक प्रवक्ता ने सीएनबीसी को बताया, “हमने एक त्रुटि तय की है, जिससे कुछ उपयोगकर्ता अपने इंस्टाग्राम रील्स फीड में सामग्री देख सकते हैं, जिसे अनुशंसित नहीं किया जाना चाहिए था। हम गलती के लिए माफी मांगते हैं।”
मेटा ने उपयोगकर्ताओं को ग्राफिक इमेजरी से बचाने के लिए डिज़ाइन की गई अपनी नीतियों को बनाए रखा है। प्लेटफ़ॉर्म “विघटन, दृश्यमान सराय, या चार्टेड निकायों” को दर्शाने वाली सामग्री को प्रतिबंधित करता है और मनुष्यों या जानवरों को पीड़ित करने के बारे में क्रूर टिप्पणी करने वाले पदों पर प्रतिबंध लगाता है।
हालांकि, कुछ ग्राफिक सामग्री की अनुमति दी जाती है यदि इसका उद्देश्य मानवाधिकारों के हनन या सशस्त्र संघर्षों जैसे गंभीर मुद्दों के बारे में जागरूकता बढ़ाना है, बशर्ते कि यह उचित चेतावनी लेबल के साथ आता है।
मेटा की मॉडरेशन सिस्टम हानिकारक सामग्री का पता लगाने और हटाने के लिए कृत्रिम बुद्धिमत्ता, मशीन लर्निंग और मानव समीक्षकों पर निर्भर करता है। मेटा के अनुसार, इसके स्वचालित उपकरण उपयोगकर्ताओं को रिपोर्ट करने से पहले सबसे अनुचित सामग्री को हटा देते हैं। कंपनी के पास फ्लैग की गई सामग्री की समीक्षा करने के लिए 15,000 से अधिक मानव मध्यस्थ भी हैं।
हालांकि, इस हालिया घटना ने इस बारे में सवाल उठाए हैं कि क्या ये सिस्टम काम कर रहे हैं जैसा कि उन्हें चाहिए, विशेष रूप से मेटा की हालिया नीतिगत परिवर्तनों को देखते हुए।
मेटा की नई सामग्री मॉडरेशन नीतियां
यह मुद्दा मेटा द्वारा अपने सामग्री मॉडरेशन दृष्टिकोण में एक महत्वपूर्ण बदलाव की घोषणा करने के कुछ ही हफ्तों बाद आया है।
7 जनवरी, 2025 को, कंपनी ने कहा कि यह अब गंभीर उल्लंघनों, जैसे कि आतंकवाद, बाल शोषण, धोखाधड़ी और घोटालों पर अधिक ध्यान केंद्रित करेगी, जबकि कम गंभीर उल्लंघनों के लिए उपयोगकर्ता रिपोर्टों पर भरोसा करती है।
मेटा ने यह भी स्वीकार किया कि इसकी पिछली प्रणाली ने भविष्यवाणियों के आधार पर बहुत अधिक सामग्री को कम कर दिया था कि यह “नियमों का उल्लंघन” कर सकता है, और कंपनी अब इनमें से अधिकांश डिमोटेशन को खत्म करने के लिए काम कर रही है।
इसके अलावा, सीईओ मार्क जुकरबर्ग ने मेटा के राजनीतिक सामग्री के लिए दृष्टिकोण में बदलाव की घोषणा करते हुए कहा कि कंपनी “सामुदायिक नोट्स” तथ्य-जाँच प्रणाली को पेश करते समय इसकी अधिक अनुमति देगी, जो एक्स का उपयोग करता है।
कुछ विशेषज्ञों का मानना है कि ये परिवर्तन राष्ट्रपति ट्रम्प के साथ संबंधों को बेहतर बनाने के जुकरबर्ग के प्रयास का हिस्सा हैं, जिन्होंने अतीत में मेटा के संयम की आलोचना की है। इस महीने की शुरुआत में, जुकरबर्ग ने व्हाइट हाउस का दौरा किया ताकि चर्चा की जा सके कि मेटा प्रौद्योगिकी में अमेरिकी नेतृत्व का समर्थन कैसे कर सकता है।
Instagram और मॉडरेशन के मुद्दों पर छंटनी
इंस्टाग्राम ग्लिच भी एक समय में आता है जब मेटा ने अपने कई कर्मचारियों को निकाल दिया है।
2022 और 2023 के बीच, कंपनी ने 21,000 कर्मचारियों को निकाल दिया-तो अपने कार्यबल का एक चौथाई हिस्सा – जिसमें कई लोग शामिल हैं जिन्होंने इसके ट्रस्ट और सुरक्षा टीमों में काम किया था।
इन छंटनी ने इंटरनेट पर कई लोगों के बीच चिंता जताई है कि क्या मेटा के पास अपनी सामग्री मॉडरेशन नीतियों को प्रभावी ढंग से लागू करने के लिए पर्याप्त कर्मचारी हैं।
“विस्तृत मैट्रिक्स ने संकेत दिया कि हिंसक कल्पना और स्पष्ट सामग्री के संचलन में लगभग 500%की गिरावट आई है, एक नाटकीय वृद्धि जो कई विशेषज्ञ मेटा द्वारा हाल के नीतिगत परिवर्तनों से जुड़ रहे हैं,” एक्स पर एक व्यक्ति ने लिखा।
उन्होंने कहा, “मेटा ने विशेष रूप से अपने सामग्री मॉडरेशन के प्रयासों को वापस स्केल किया, जिसमें इसके तीसरे-पक्षीय तथ्य-जाँच कार्यक्रम को समाप्त करना और सक्रिय ओवरसाइट को कम करना शामिल है,” उन्होंने कहा।
“मीडिया से दूर रहने के लिए सबसे अच्छा,” एक्स पर एक अन्य व्यक्ति ने लिखा।
हालांकि मेटा ने उपयोगकर्ताओं को आश्वासन दिया है कि समस्या को हल कर दिया गया है, इस घटना ने सोशल मीडिया प्लेटफार्मों की सुरक्षा के बारे में चर्चा की है। खुद सहित कई उपयोगकर्ताओं के लिए, यह अनुभव एक वेक-अप कॉल रहा है। अगली बार जब हम इंस्टाग्राम खोलते हैं, तो हम दो बार विचारशील रूप से स्क्रॉल करने से पहले सोच सकते हैं, यह जानते हुए कि परेशान करने वाली सामग्री अभी भी दरार के माध्यम से फिसल सकती है।
