फेक न्यूज को पकड़ेगा फैक्ट्स चेकर ऑटोमेटिक वेरिफिकेशन टूल

फेक न्यूज को पकड़ेगा फैक्ट्स चेकर ऑटोमेटिक वेरिफिकेशन टूल

जहां बड़ी-बड़ी तकनीकी कंपनियां से उम्मीद की जा रही है, वहां अपने-अपने स्तर पर कई लोग फेक न्यूज और ऑनलाइन गाली-गलौज से लड़ने की कोशिश कर रहे हैं. छोटे-छोटे स्तर पर हो रहीं ये कोशिशें बड़े नतीजे दे रही हैं. अपने परिवार के खिलाफ वॉट्सऐप पर लगातार फैलाई जा रही फर्जी खबरों से आजिज आकर

जहां बड़ी-बड़ी तकनीकी कंपनियां से उम्मीद की जा रही है, वहां अपने-अपने स्तर पर कई लोग फेक न्यूज और ऑनलाइन गाली-गलौज से लड़ने की कोशिश कर रहे हैं. छोटे-छोटे स्तर पर हो रहीं ये कोशिशें बड़े नतीजे दे रही हैं. अपने परिवार के खिलाफ वॉट्सऐप पर लगातार फैलाई जा रही फर्जी खबरों से आजिज आकर तरुणिमा प्रभाकर ने एक ऑनलाइन टूल बनाया जो फर्जी सूचनाओं को पहचानने में कारगर है. भारतीय टेक कंपनी टैटल की सह-संस्थापक प्रभाकर ने तथ्यों की पुष्टि करने वाले फैक्ट चेकर वेबसाइटों और न्यूज पोर्टल से सामग्री जुटाई और आर्टिफिशियल इंटेलिजेंस की मदद से एक ऑटोमेटिक वेरिफिकेशन टूल तैयार किया.
प्रभाकर के मुताबिक यह ऑनलाइन टूल छात्रों, शोधकर्ताओं, पत्रकारों और अकादमिशनों के लिए उपलब्ध है. वह कहती हैं, फेसबुक और ट्विटर जैसे मंचों पर फर्जी सूचनाओं के फैलाने के कारण बात हो रही है लेकिन वॉट्सऐप पर बात नहीं हो रही है. जो टूल फेसबुक और ट्विटर पर सूचनाओं की जांच और पुष्टि करते हैं, वे इन मंचों पर काम नहीं करते. और वे भारतीय भाषाओं में भी ज्यादा प्रभावी नहीं हैं.
वॉट्सऐप और फेसबुक दोनों ही मेटा कंपनी के एप हैं. दुनिया में मासिक तौर पर औसतन दो अरब लोग वॉट्सऐप का इस्तेमाल करते हैं जिनमें से लगभग आधा अरब तो भारत में ही हैं. 2018 में वॉट्सऐप ने फेक न्यूज को रोकने के लिए कुछ कदम उठाए थे. जब भारत में फेक न्यूज के कारण फैली अफवाओं की वजह से कई जानें गईं, तो उसने मेसेज को तुरंत फॉरवर्ड करने वाला बटन हटा लिया था. इसके बावजूद, वॉट्सऐप पर जमकर फेक न्यूज फॉरवर्ड की जा रही हैं.
तरुणिमा प्रभाकर कहती हैं कि स्थानीय भाषाओं में फर्जी सूचनाओं के प्रसार का तो अक्सर पता ही नहीं चलता. प्रभाकर की कंपनी टैटल ने जो टूल बनाया है, उसका तमिल नाम है यूली, यानी छेनी. यह टूल तमिल, हिंदी और अंग्रेजी में लिंग आधारित अपशब्दों और अभद्रता को पकड़ सकता है.
टैटल की टीम ने लोगों की मदद से ऐसे अभद्र शब्दों और वाक्यांशों को जमा किया, जो ऑनलाइन संवाद में आमतौर पर प्रयोग होते हैं. यूली इन शब्दों को पहचान लेता और किसी पोस्ट में देखता है तो उन्हें ब्लर यानी धुंधला कर देता है. चूंकि यूली सार्वजनिक तौर पर उपलब्ध है तो लोग इसमें खुद भी शब्द जोड़ सकते हैं.
प्रभाकर कहती हैं, “अपशब्दों को पकड़ना बहुत चुनौतीपूर्ण है. यूली का मशीन लर्निंग फीचर पैटर्न को पहचानने की कोशिश करता है. मॉडरेशन यूजर के स्तर पर ही होती है, तो यह नीचे से ऊपर की ओर जाने वाली सोच है.” टैटल की टीम कोशिश कर रही है कि यूली तस्वीरें, मीम और वीडियो भी पहचान पाए और उन्हें रोक पाए.
टैटल एशिया में उभरतीं उन कोशिशों में से एक है जो स्थानीय भाषाओं में फर्जी खबरों, हेट स्पीच और प्रताड़नाओं के खिलाफ लड़ रही हैं. ये कोशिशें तकनीक पर आधारित हैं. आर्टिफिशियल इंटेलिजेंस और क्राउडसोर्सिंग जैसे उपायों के साथ-साथ स्थानीय लोगों को प्रशिक्षित करके कई समूह ऑनलाइन दुनिया की इन समस्याओं से लड़ने की कोशिश कर रहे हैं.
ऐसी ही एक कोशिश इंडोनेशिया में गैर सरकारी संस्था माफिंडो (एंटी स्लैंडर सोसायटी) द्वारा की जा रही है, जिसे गूगल का साथ मिला है. यह संस्था छात्रों से लेकर घरेलू महिलाओं तक को फर्जी सूचनाएं पहचानने और ‘फैक्ट चेकिंग’ में प्रशिक्षित कर रही है. संस्था के पास एक पेशेवर फैक्ट चेकिंग टीम है जो स्वयंसेवकों को रिवर्स इमेज सर्च, जियोलोकेशन और वीडियो मेटाडाट जैसे तकनीकी प्रशिक्षण दे रही है. संस्था का कहना है कि उसने अब तक 8,550 फर्जी खबरों को पकड़ा है.
संस्था की अध्यक्ष शांति इंद्र स्तुति कहती हैं, “बुजुर्गों के इन फर्जी खबरों के झांसे में आने की संभावना ज्यादा होती है क्योंकि उनका तकनीकी कौशल कम होता है.” संस्था ने स्थानीय भाषा इंडोनेशिया में तथ्यों की जानकारी करने वाला एक चैटबॉट कलीमासदा भी तैयार किया है जिसे 2019 के चुनावो से ठीक पहले शुरू किया गया था. यह टूल वॉट्सऐप के जरिए उपलब्ध है और अब तक 37,000 लोग इसका प्रयोग कर चुके हैं. हालांकि आठ करोड़ लोगों के देश में यह संख्या मामूली है.
इंद्र स्तुति कहती हैं, “हम बुजुर्गों को सिखाते हैं कि सोशल मीडिया का प्रयोग कैसे करें, अपने निजी डेटा की सुरक्षा कैसे करें और ट्रेंडिंग टॉपिक्स को आलोचनात्मक नजर से कैसे देखें.”विशेषज्ञ मानते हैं कि फेसबुक, ट्विटर, यूट्यूब और ऐसी ही अन्य महाकाय टेक कंपनियों ने हेट स्पीच और फेक न्यूज जैसी समस्याओं के हल के लिए समुचित कदम नहीं उठाए हैं. मानवाधिकार संगठन आर्टिकल 19 में मीडिया की आजादी पर काम करने वाले फ्रांस्वा डोक्विर कहते हैं, “सोशल मीडिया कंपनियों स्थानीय समुदायों की बात नहीं सुनतीं. जब वे मॉडरेटरों का इस्तेमाल करती हैं तो सांस्कृतिक, सामाजिक, ऐतिहासिक, आर्थिक और राजनीतिक संदर्भ नहीं समझ पातीं. इसका ऑनलाइन और ऑफलाइन दोनों ही रूपों में नाटकीय असर होता है. यह ध्रुवीकरण और हिंसा का खतरा बढ़ा सकता है.”
विशेषज्ञ मानते हैं कि स्थानीय भाषाओं में और ज्यादा कोशिशों की जरूरत है. संयुक्त राष्ट्र के जांचकर्ताओं ने 2018 में पाया था कि म्यांमार में 2017 में रोहिंग्या मुसलमानों के खिलाफ जो हिंसा हुई थी, उसमें फेसबुक की बड़ी भूमिका रही थी. हालांकि फेसबुक ने तब सफाई दी थी कि वह बर्मी भाषा में लोगों और तकनीक पर ज्यादा निवेश कर रही है. इसी तरह ‘आर्टिकल 19′ ने पाया कि इंडोनेशिया में धार्मिक, नस्ली और लैंगिक अल्पसंख्य समूहों के खिलाफ बड़े पैमाने पर ऑनलाइन नफरत फैलाई जा रही है. यह बात महसूस की जा रही है कि स्थानीय लोगों की मदद के बिना इन समस्याओं से निपटना संभव नहीं है. इंडोनेशिया वाली रिपोर्ट लिखने वालीं आर्टिकल 19 की सदस्य शेर्ली हारिस्त्या कहती हैं, “समस्याप्रद सामग्री से निपटने के लिए सोशल मीडिया कंपनियों को स्थानीय स्तर पर हो रही कोशिशों का साथ लेना चाहिए.”

Posts Carousel

Leave a Comment

Your email address will not be published. Required fields are marked with *

Latest Posts

Follow Us