टेलीग्राम पर महिलाओं का नकली जुराब बनाने वाला AI बॉट फल-फूल रहा है

टेलीग्राम पर महिलाओं का नकली जुराब बनाने वाला AI बॉट फल-फूल रहा है

प्रौद्योगिकी की शक्ति के साथ, दुनिया के महानतम दिमाग लगभग कुछ भी हासिल करने की क्षमता रखते हैं। लेकिन, जबकि कुछ विकलांग लोगों के लिए जीवन को आसान बनाने के लिए, या एक वैश्विक महामारी को समाप्त करने में मदद करने के लिए काम करते हैं, अन्य एक कम नेक काम पर ध्यान केंद्रित कर रहे हैं: महिलाओं को गाली देना और आपत्तिजनक बनाना।



एक गुमनाम प्रोग्रामर ने पिछले साल डीपन्यूड नाम से एक ऐप लॉन्च किया था, जिसमें महिलाओं की तस्वीरों से कपड़े हटाने के लिए डीपफेक तकनीक का इस्तेमाल किया गया था। इसे उस महाशक्ति की पेशकश के रूप में वर्णित किया गया है जिसे आप हमेशा से चाहते थे, जिससे उपयोगकर्ता महिलाओं की तस्वीरें अपलोड कर सकें (तकनीक पुरुषों पर काम नहीं करती थी) जो तब पट्टी और विश्वसनीय नकली जुराबों में बदल जाती थी। विभिन्न ऐप स्टोर पर डाउनलोड करने के लिए इसकी कीमत $50 है।

ऐप को इसके निर्माता द्वारा एक विचित्र बैकपेडल के साथ कुछ ही घंटों बाद ऑफ़लाइन ले लिया गया था। हम इस तरह से पैसा नहीं कमाना चाहते, उन्होंने लिखा एक बयान . दुनिया अभी डीपन्यूड के लिए तैयार नहीं है।

एक साल बाद, ऐप लोकप्रियता और उपयोग में तेजी से बढ़ा है। सॉफ्टवेयर को टेलीग्राम पर खोजा गया है, जहां इसे 'डीपफेक इकोसिस्टम' के हिस्से के रूप में नियोजित किया गया है, जिसमें महिलाओं के 104,000 से अधिक नकली नग्न बनाए गए हैं। एक एआई बॉट पर पारिस्थितिकी तंत्र केंद्र जो अनुरोध पर जुराब उत्पन्न करता है, हर दिन हजारों ग्राहकों को नई छवियों की गैलरी भेजता है। चैट सदस्य बॉट के संदेश समूहों में विशिष्ट अनुरोध कर सकते हैं। माना जाता है कि कुछ तस्वीरें कम उम्र की लड़कियों को दर्शाती हैं।



सेंसिटी, एक डीपफेक डिटेक्शन कंपनी, अपने निष्कर्ष प्रकाशित किया इस मुद्दे पर अक्टूबर में कंपनी के सीईओ और मुख्य वैज्ञानिक, डेज़ेड से बात करते हुए, जियोर्जियो पैट्रिनी कहते हैं: हमने पहले चैट रूम बॉट में एम्बेडेड डीपन्यूड तकनीक को नहीं देखा है, जिसमें उपयोगकर्ता की पहुंच और उत्पादन के पैमाने की नाटकीय क्षमता है। वास्तव में पीड़ितों की संख्या के मामले में यह इस तरह की सबसे बड़ी घटना है।

शोधकर्ताओं की रिपोर्ट है कि टेलीग्राम पर नकली जुराबों की संख्या में अप्रैल और जून 2020 के बीच 198 प्रतिशत की वृद्धि हुई। यह आंकड़ा इस खबर के अनुरूप है कि लॉकडाउन के दौरान रिवेंज पोर्न का चलन बढ़ रहा था, अंतरंग छवि के दुरुपयोग के मामलों में 22 प्रतिशत की वृद्धि हुई। इस साल। अपनी रिपोर्ट में, सेंसिटी ने व्यापक खतरे को संबोधित किया कि व्यक्तियों की 'छीन' छवियों को सार्वजनिक या जबरन वसूली-आधारित हमलों के हिस्से के रूप में टेलीग्राम से परे निजी या सार्वजनिक चैनलों में साझा किया जा सकता है।



हालांकि सेंसिटी का अनुमान है कि 104,000 से अधिक महिलाओं को बॉट द्वारा लक्षित किया गया है, वास्तविक संख्या बहुत अधिक होने की संभावना है। यह तकनीक की सादगी के कारण है। सभी उपयोगकर्ताओं को नकली नग्न उत्पन्न करने के लिए बॉट को अपनी चुनी हुई छवि का पाठ करना होता है, जो एक बिना कपड़े वाली छवि को मुफ्त में वापस भेज देगा। फिर इन तस्वीरों को संबद्ध टेलीग्राम चैनलों के साथ साझा किया जाता है। इन चैनलों में से एक में किए गए एक गुमनाम सर्वेक्षण में पाया गया कि 70 प्रतिशत उपयोगकर्ता रूस, यूक्रेन, बेलारूस, कजाकिस्तान और पूर्व-यूएसएसआर देशों से थे; कई लोगों ने कहा कि उन्होंने रूसी सोशल मीडिया नेटवर्क वीके से बॉट की खोज की।

कोई हस्तक्षेप या निष्कासन नहीं हुआ है, और, इसके साथ, हम नहीं जानते कि आज भी बॉट द्वारा बनाई गई छवियों के पास कौन हो सकता है या साझा कर सकता है - जियोर्जियो पैट्रिनी, सेंसिटी

लगभग दो महीने पहले अपने निष्कर्षों के सार्वजनिक होने के बावजूद, सेंसिटी का कहना है कि उसे टेलीग्राम से कभी कोई जवाब नहीं मिला। वे चैनल अभी भी मंच पर सक्रिय हैं, पैट्रिनी जारी है, हालांकि अधिकांश अब खुले तौर पर बॉट या इसकी रचनाओं का विज्ञापन करने से बच रहे हैं। महत्वपूर्ण रूप से, हालांकि, बॉट स्वयं अभी भी पहले की तरह काम कर रहा है। कोई हस्तक्षेप या निष्कासन नहीं हुआ है, और इसके साथ, हम नहीं जानते कि आज भी किसके पास बॉट द्वारा बनाई गई छवियों का स्वामित्व या साझा किया जा सकता है।

कई समूहों ने अपना नाम बदल लिया है ताकि वे पहचाने जाने से बच सकें, जबकि अन्य चैनल पूरी तरह से गायब हो गए हैं, या उनमें साझा की गई नग्न छवियों को हटा दिया गया है। जैसा कि reported द्वारा रिपोर्ट किया गया है वायर्ड अक्टूबर के अंत में, बॉट iPhone और iPads पर अप्राप्य हो गया, जिसमें यह कहते हुए एक त्रुटि संदेश दिखाया गया कि यह Apple के दिशानिर्देशों का उल्लंघन करता है।

पैट्रिनी का कहना है कि बॉट विशेष रूप से टेलीग्राम पर पनपने में सक्षम है क्योंकि प्लेटफॉर्म आसानी से बॉट्स और अन्य ऑटोमेशन को अपने चैट रूम में एकीकृत करने की अनुमति देता है, यह समझाते हुए कि मुख्य कारण तकनीकी है।

हालांकि उनका मानना ​​​​है कि आप वर्तमान में नकली जुराबों को असली जुराबों से अलग कर सकते हैं, पैट्रिनी ने घोषणा की कि यह लंबे समय तक नहीं रहेगा। प्रौद्योगिकी में सुधार हो रहा है और तेज गति से कमोडिटीकरण हो रहा है, वह जारी है। इसे संचालित करने के लिए आपको मशीन लर्निंग शोधकर्ता होने की आवश्यकता नहीं है; सॉफ्टवेयर ओपन-सोर्स है और ट्यूटोरियल और डेवलपर्स के बड़े समुदायों के साथ आता है।

द्वारा टेलीग्राम पर प्रसारित किए जा रहे डीपफेक नूड्स की प्रक्रियाएआई बॉटसंवेदनशीलता के माध्यम से

इस तरह की डीपफेक तकनीक से जुड़ी संभावित कमाई भी अधिक लोगों को इसका दुरुपयोग करने के लिए प्रेरित कर सकती है। पैट्रिनी बताती हैं कि लोग यह समझने में सरल हो रहे हैं कि कैसे डीपफेक तकनीक को एक वैध या अवैध अर्थ के साथ एक व्यावसायिक अवसर में बदला जा सकता है। उदाहरण के लिए, हमारी जांच में बॉट भुगतान किए गए उपयोगकर्ताओं को बिना किसी वॉटरमार्क के छवियों के तेजी से निर्माण के साथ मुद्रीकरण कर रहा है।

हालाँकि, जैसे-जैसे डीपफेक सॉफ़्टवेयर में सुधार होता है, वैसे ही डिटेक्शन तकनीक भी होती है। पैट्रिनी का कहना है कि डिटेक्शन टेक्नोलॉजी भविष्य में और अधिक मौलिक भूमिका निभाएगी, जिससे हमें यह समझने में मदद मिलेगी कि हम क्या देखते हैं और स्वचालित रूप से ऑनलाइन डीपफेक की खोज करते हैं। महिलाओं की विशेषता के रूप में 96 प्रतिशत सभी डीपफेक वीडियो, इन तस्वीरों और वीडियो के निर्माण को रोकने के लिए निवारक और प्रतिक्रियाशील तकनीक लैंगिक समानता के लिए चल रही लड़ाई में महत्वपूर्ण है।

यह एक ऐसी समस्या है जो दुर्भाग्य से हम में से प्रत्येक को निजी व्यक्तियों के रूप में प्रभावित करेगी, पेट्रीनी का निष्कर्ष है। हमारे चेहरे के लक्षणों को चुराया जा सकता है और दृश्य सामग्री में बदल दिया जा सकता है जो हमारी प्रतिष्ठा पर हमला करता है और सार्वजनिक शर्मिंदगी, ब्लैकमेल या जबरन वसूली के लिए हथियार बन सकता है।

यह महत्वपूर्ण है कि हम में से प्रत्येक इस बात से अवगत है कि कोई भी छवि या वीडियो जो हम ऑनलाइन पोस्ट करते हैं, वह पूरी दुनिया को दिखाई दे सकती है, और हो सकता है कि बुरे अभिनेता इसका उपयोग कर रहे हों।