AI जनित 19 मिनट का वीडियो वायरल: पुलिस ने शेयर करने पर जेल और जुर्माने की चेतावनी दी

AI जनित 19 मिनट का वीडियो वायरल: पुलिस ने शेयर करने पर जेल और जुर्माने की चेतावनी दी दिस॰, 17 2025

एक 19 मिनट 34 सेकंड का वीडियो भारत के सोशल मीडिया पर बिजली की तरह फैल गया — लेकिन ये कोई असली घटना नहीं थी। ये एक कृत्रिम बुद्धिमत्ता (AI) द्वारा बनाया गया डीपफेक था, जिसने हजारों अनजान महिलाओं को ऑनलाइन उत्पीड़न का शिकार बना दिया। अमित यादव, हरियाणा एनसीबी साइबर सेल के अधिकारी, ने इंस्टाग्राम पर एक तत्काल संदेश जारी किया: "यह वीडियो किसी भी व्यक्ति का असली वीडियो नहीं है। इसे शेयर करने वाले के खिलाफ हरियाणा पुलिस साइबर सेल कानूनी कार्रवाई करेगी।" इस वीडियो को शेयर करने पर आईटी एक्ट की धारा 67 और 67A के तहत तीन साल की जेल या ₹2 लाख तक का जुर्माना हो सकता है।

वायरल वीडियो का असली असर: अनजान महिलाओं पर टारगेटेड हरासमेंट

इस वीडियो के वायरल होने के बाद, सोशल मीडिया पर हजारों महिलाओं के प्रोफाइल पर टिप्पणियाँ भर दी गईं — "19 मिनट वाली लड़की तुम हो?" "इसे देखो!" "क्या तुम इसमें हो?" एक महिला ने अपनी पोस्ट में लिखा: "पहले मुझे देखो, फिर उस लड़की को देखो... क्या मैं उससे कहीं मिलती-जुलती लगती हूँ?" उसने जवाब दिया, "मैं इसके लिए जिम्मेदार नहीं हूँ, लेकिन आप लोग मुझे वायरल कर रहे हो। अच्छा है, फॉलोअर्स बढ़ रहे हैं, व्यूज बढ़ रहे हैं — लेकिन ये अपमान है।"

ये सिर्फ एक व्यक्तिगत दुर्घटना नहीं है। ये एक नए प्रकार का साइबर अपराध है — जहाँ AI एक अज्ञात व्यक्ति का चेहरा किसी अन्य के शरीर पर लगा देता है, और फिर उसे वायरल करके उसकी जिंदगी बर्बाद कर देता है। बिहार, उत्तर प्रदेश, राजस्थान, झारखंड और छत्तीसगढ़ में गूगल पर "19 मिनट 34 सेकंड" की खोज सबसे ज्यादा हुई। लोग वीडियो की लिंक ढूंढ रहे थे। कुछ ने "चोटा बच्चा वायरल वीडियो लिंक" जैसे शब्दों से भी खोज की, जो पूरी तरह भ्रामक थे।

साइबर अपराधियों का अंधेरा बाजार: ₹500 से ₹5,000 में बिक रहा डीपफेक

एक अंधेरा बाजार भी इसके साथ उभरा। NDTV के अनुसार, कुछ यूजर्स वीडियो के लिए ₹500 से ₹5,000 तक का भुगतान करने को तैयार थे। ये वीडियो किसी भी असली घटना से नहीं जुड़ा था। लेकिन फिर भी, लोगों की जिज्ञासा और अश्लीलता के प्रति आकर्षण ने इसे एक डार्क ट्रेंड बना दिया।

कुछ स्रोतों के अनुसार, वीडियो में दिखाई देने वाली दो व्यक्तियों को सोफिक एसके और डस्टू सोनाली बताया जा रहा है — लेकिन दोनों ने साफ कर दिया कि वे इसमें शामिल नहीं हैं। वास्तविक वीडियो को अब डिलीट कर दिया गया है, लेकिन AI जनित वर्जन अभी भी वायरल हो रहा है। कुछ यूजर्स इसे "दूसरा भाग" बता रहे हैं। एक YouTube वीडियो, "रियल या डीपफेक? 19 मिनट वायरल वीडियो का सच" जिसे MBM वड़ोदरा ने बनाया, उसने 1.1 मिलियन व्यूज पाए हैं। ये वीडियो भारतीय हस्त भाषा (ISL) का उपयोग करके बधिर समुदाय को भी सूचित कर रहा है — जो अक्सर इस तरह के अपराधों का शिकार बनता है।

कानूनी दंड: आईटी एक्ट की धारा 67 और 67A का असली अर्थ

अमित यादव ने सिर्फ एक चेतावनी नहीं दी — उन्होंने स्पष्ट किया कि कानून क्या कहता है। आईटी एक्ट की धारा 67 के तहत, अश्लील सामग्री शेयर करने पर तीन साल की जेल या ₹5 लाख तक का जुर्माना हो सकता है। धारा 67A — जो लैंगिक रूप से स्पष्ट सामग्री को शामिल करती है — तब तक बढ़ जाती है जब तक पाँच साल की जेल और ₹10 लाख तक का जुर्माना न हो जाए।

ये सिर्फ आईटी एक्ट नहीं। आईपीसी की धारा 354C (वॉयरिस्टिक व्यवहार) और 292 (अश्लील सामग्री का वितरण) भी लागू हो सकते हैं। यानी एक वीडियो शेयर करने से आपके खिलाफ एक से अधिक कानूनी मामले चल सकते हैं। और ये सिर्फ व्यक्ति के लिए नहीं — जिसने शेयर किया, बल्कि जिसने डाउनलोड किया या स्टोर किया, वह भी जिम्मेदार है।

अगला चरण: 40 मिनट का वायरल क्लिप और AI का खतरा

अगला चरण: 40 मिनट का वायरल क्लिप और AI का खतरा

जब एक वीडियो वायरल हो जाता है, तो AI अपराधी तुरंत दूसरा बनाने लगते हैं। इकोनॉमिक टाइम्स ने रिपोर्ट किया कि "19 मिनट वायरल वीडियो" के बाद एक और 40 मिनट का वीडियो ट्रेंड कर रहा है। इसकी सामग्री के बारे में कोई विस्तार से जानकारी नहीं है। लेकिन एक बात स्पष्ट है — ये अगला ट्रेंड भी एक AI जनित झूठ होगा।

ये बस शुरुआत है। AI अब सिर्फ चेहरे बदलने तक सीमित नहीं है। ये आवाज़ भी नकल कर सकता है। ये टेक्स्ट लिख सकता है। ये वीडियो बना सकता है जिसमें कोई व्यक्ति ऐसी बातें कर रहा हो जो उसने कभी नहीं कहीं। ये एक ऐसा खतरा है जिसकी हम अभी तक वास्तविकता को समझ नहीं पाए हैं।

क्या करें? अमित यादव की चार सलाह

हरियाणा पुलिस के अधिकारी ने साफ कहा:

  • इस तरह के वीडियो को देखें नहीं — देखने से भी आप इसके प्रसार में योगदान दे रहे होते हैं।
  • डाउनलोड न करें — डाउनलोड करना भी अपराध है।
  • शेयर न करें — चाहे आप इसे नकार रहे हों, शेयर करने से वायरल होता रहता है।
  • सत्यापन करेंsiteengine.com जैसे टूल्स से जाँच करें। (ध्यान दें: यह लिंक लेख में नहीं दिया गया है, लेकिन अमित यादव ने इसका जिक्र किया है।)

ये सिर्फ एक वीडियो का मामला नहीं। ये हमारे डिजिटल जीवन की बुनियादी भरोसेमंदी के खिलाफ एक हमला है। अगर हम इसे अनदेखा करते रहे, तो अगला वायरल वीडियो किसी राजनेता का बयान हो सकता है — जो कभी नहीं बोला गया। या किसी बच्चे का वीडियो — जिसकी कोई तस्वीर भी नहीं है।

अक्सर पूछे जाने वाले प्रश्न

क्या इस वीडियो में दिखाई देने वाली महिलाएँ असली हैं?

नहीं। जिन महिलाओं को वीडियो में दिखाया गया है, उनमें से कोई भी इसमें शामिल नहीं है। इनमें से कई लोग अपने सोशल मीडिया प्रोफाइल पर स्पष्ट रूप से इनकार कर चुके हैं। वीडियो AI द्वारा बनाया गया है, जिसमें किसी अन्य व्यक्ति के चेहरे को दूसरे शरीर पर लगाया गया है। यह एक डीपफेक है, न कि कोई वास्तविक घटना।

अगर मैंने इस वीडियो को देख लिया, तो क्या मैं गिरफ्तार हो सकता हूँ?

देखने से कानूनी कार्रवाई नहीं होती, लेकिन डाउनलोड, स्टोर या शेयर करने से हो सकती है। आईटी एक्ट के तहत, अश्लील सामग्री का धारण भी अपराध माना जा सकता है। यदि आपके पास यह वीडियो है और आप इसे हटा नहीं पाए, तो पुलिस आपके डिवाइस की जांच कर सकती है। सबसे सुरक्षित विकल्प है — इसे न देखें, न डाउनलोड करें, न ही शेयर करें।

AI जनित वीडियो कैसे पहचानें?

AI वीडियो में चेहरे की गति अजीब होती है — जैसे आँखें बार-बार झपक रही हों, या बात करते समय ठीक से लिप्स मैच न हों। आवाज़ में थोड़ा इलेक्ट्रॉनिक नोइज़ हो सकता है। बेहतर तरीका है — वीडियो को siteengine.com जैसे टूल्स से सत्यापित करना। इन टूल्स में AI जनित फ्रेम्स की पहचान की जाती है।

इस वायरल वीडियो ने किन राज्यों में सबसे ज्यादा चर्चा पैदा की?

गूगल ट्रेंड्स के अनुसार, इस वीडियो की सबसे अधिक खोजें बिहार, उत्तर प्रदेश, राजस्थान, झारखंड और छत्तीसगढ़ में हुईं। इन राज्यों में सोशल मीडिया उपयोग अधिक है और डिजिटल साक्षरता कम है — जिसके कारण लोग आसानी से झूठे दावों में फंस जाते हैं। यही कारण है कि पुलिस ने इन क्षेत्रों में जागरूकता अभियान शुरू किए हैं।

क्या ये वीडियो वास्तव में किसी विशिष्ट व्यक्ति से जुड़ा है?

नहीं। कुछ अफवाहों में सोफिक एसके और डस्टू सोनाली के नाम लिए गए, लेकिन दोनों ने इसे खारिज कर दिया है। वास्तविक वीडियो को अब हटा दिया गया है। जो वीडियो अभी वायरल है, वह पूरी तरह AI जनित है — जिसमें किसी भी वास्तविक व्यक्ति की आवाज़, चेहरा या शरीर का उपयोग नहीं हुआ है। ये केवल एक भ्रामक बनावट है।

अगला वायरल वीडियो क्या हो सकता है?

अगला वीडियो किसी राजनेता का बयान हो सकता है जो कभी नहीं बोला गया, या किसी बच्चे का वीडियो जिसकी कोई तस्वीर नहीं है। AI अब इतना तेज है कि यह एक व्यक्ति की आवाज़ और चेहरे को किसी भी स्थिति में जोड़ सकता है। अगर हम इसे नियंत्रित नहीं करेंगे, तो अगला वायरल वीडियो एक राष्ट्रीय संकट बन सकता है — जिससे लोगों के बीच भरोसा टूट जाएगा।