दिखने लगा एआइ की ताकत का असर
भारत में हाल के दिनों में जो वीडियो वायरल हुए उनमें दो ऐसे वीडियो भी हैं, जिनमें एक्टर आमिर खान और रणवीर सिंह लोगों से कांग्रेस पार्टी के लिए वोट मांगते नजर आए.
बॉलीवुड अभिनेता आमिर खान वाला वीडियो 30 सेकेंड का है, जबकि रणवीर सिंह वाला 41 सेकेंड का. वीडियो में इनको प्रधानमंत्री नरेंद्र मोदी की आलोचना करते देखा जा सकता है, जहां उनके दोनों कार्यकाल में चुनावी वादे पूरे नहीं करने, और आर्थिक सुधारों को लागू करने में नाकाम रहने की बात की जा रही है. आर्टिफिशियल इंटेलिजेंस से बनाए गए दोनों वीडियो कांग्रेस के चुनाव निशान और स्लोगन के साथ खत्म होते हैं, "न्याय के लिए वोट दें, कांग्रेस को वोट दें."
समाचार एजेंसी रॉयटर्स की समीक्षा दिखाती है कि पिछले हफ्ते इन दोनों वीडियो को सोशल मीडिया पर 5 लाख से ज्यादा बार देखा गया. एआई से तैयार फेक या डीपफेक का इस्तेमाल अमेरिका, पाकिस्तान और इंडोनेशिया समेत पूरी दुनिया के चुनावों में दिख रहा है.
भारत में चुनाव प्रचार लंबे समय से घर-घर जा कर और रैलियों के माध्यम से होता रहा है. हालांकि 2019 से वाट्सऐप और फेसबुक का प्रचार के उपकरण के रूप में बड़े पैमाने पर इस्तेमाल होने लगा. इस बार भारत के लोकसभा चुनाव में पहली बार आर्टिफिशियल इंटेलिजेंस का इस्तेमाल हो रहा है.
कांग्रेस प्रवक्ता सुजाता पॉल ने रणवीर सिंह का वीडियो अपने 16,000 फॉलोवरों को 17 अप्रैल को एक्स पर शेयर किया. शनिवार शाम यानी 19 अप्रैल तक उनके इस पोस्ट को 2,900 बार रिट्वीट किया गया, 8,700 लोगों ने इसे लाइक किया और 438,000 बार इसे देखा गया.
पॉल ने समाचार एजेंसी रॉयटर्स से टेलिफोन पर बातचीत में कहा कि वह जानती हैं कि एक्स ने इस वीडियो को "मैनिपुलेटेड मीडिया" के रूप में दर्ज किया है, लेकिन वह इसे डिलीट नहीं करना चाहतीं क्योंकि पोस्ट करते समय, उन्होंने सोचा कि यह आदमी रणवीर सिंह जैसा दिखता है और, "निश्चित रूप से यह क्रिएटिविटी है." रॉयटर्स ने इस मामले पर कांग्रेस के मीडिया सेल प्रमुख से प्रतिक्रिया लेनी चाही तो कोई जवाब नहीं मिला. इसके कुछ घंटे बाद रविवार से यह पोस्ट एक्स पर दिखना बंद हो गया.
दोनों अभिनेताओं ने कहा है कि ये वीडियो फेक थे. फेसबुक, एक्स और कम से कम आठ फैक्ट चेकिंग वेबसाइटों ने कहा है कि उनसे या तो छेड़छाड़ की गई है या फिर वो मैनिपुलेटेड हैं. रॉयटर्स डिजिटल वेरिफिकेशन यूनिट ने भी इसकी पुष्टि कर दी है.
अब तक यह पता नहीं चल सका है कि ये वीडियो किसने बनाए. आमिर खान और रणवीर सिंह दोनों की टीम का कहना है कि वो इस मामले को देख रहे हैं. रणवीर सिंह ने एक्स पर लिखा है, "डीफफेक से सावधान रहें दोस्तों." नरेंद्र मोदी के दफ्तर और भारतीय जनता पार्टी के आईटी प्रमुख ने इस बारे में पूछे सवालों का जवाब नहीं दिया.
वीडियो के कुछ वर्जन सोशल मीडिया पर ब्लॉक कर दिए गए हालांकि इसके बाद भी कम से कम 14 वीडियो सोशल मीडिया पर 20 अप्रैल की शाम तक एक्स पर देखे जा सकते थे. रॉयटर्स ने कंपनी को जब जानकारी दी तो फेसबुक ने दो वीडियो डिलीट कर दिए लेकिन एक वीडियो फिर भी दिख रहा था. फेसबुक ने एक बयान में कहा कि उसने कंपनी की नीतियों का उल्लंघन करने की वजह से "वीडियो हटा दिए हैं." एक्स ने रॉयटर्स के सवालों पर कोई जवाब नहीं दिया.
पुलिस इन वीडियो की छानबीन कर रही है. आमिर खान ने मुंबई में अज्ञात लोगों के खिलाफ फेक वीडियो बनाने के लिए धोखाधड़ी और कथित हमशक्ल बनाने के आरोप में मामला दर्ज कराया है. मुंबई पुलिस ने इस मामले पर कोई प्रतिक्रिया नहीं दी लेकिन जांच में शामिल दो अधिकारियों ने नाम जाहिर नहीं करने की शर्त पर बताया कि उन्होंने फेसबुक और एक्स को वीडियो हटाने के लिए लिखा है और कंपनियों का कहना है कि उन्हें हटा दिया गया है.
मृत पिता का एआई वीडियो
इस साल चुनाव में राजनेता दूसरे तरीकों से भी एआई का इस्तेमाल कर रहे हैं. दक्षिण भारत में कांग्रेस नेता विजय वसंत के प्रवक्ता ने बताया कि उनकी टीम ने एआई का इस्तेमाल कर 2 मिनट की एक ऑडियो वीडियो क्लिप बनाई है. सोशल मीडिया प्लेटफार्मों पर दिखाई जा रही इस क्लिप में उनके पिता उनके लिए वोट मांगते नजर आ रहे हैं. वसंत के पिता एच. वसंत कुमार मशहूर राजनेता थे लेकिन अब मर चुके हैं. इस वीडियो में एच वसंत कुमार को यह भी कहते सुना जा सकता है, "भले ही मेरा शरीर आप सबको छोड़ कर चला गया, लेकिन मेरी आत्मा आपके आस पास ही है."
यूट्यूब पर भारतीय कम्युनिस्ट पार्टी-मार्क्सवादी (सीपीएम) ने जो वीडियो डाले हैं उनमें साड़ी पहने एक एआई से बनाई गई न्यूज एंकर दिखाई देती है. यह एंकर अपने बोलचाल और हावभाव में न्यूज चैनलों की नकल करती है और पश्चिम बंगाल की सत्ताधारी पार्टी की आलोचना करती है.
भारत में करीब 90 करोड़ लोगों की इंटरनेट सुविधा तक पहुंच है. रिसर्च इंस्टिट्यूट एसीसा सेंटर और इंडियन इंस्टिट्यूट ऑफ मैनेजमेंट बिजनेस स्कूल के सर्वे में पता चला है कि औसत भारतीय हर दिन 3 घंटे से ज्यादा वक्त सोशल मीडिया पर बिताते हैं. भारत में लगभग एक अरब मतदाता हैं. अंदाजा लगाना ज्यादा मुश्किल नहीं है कि आर्टिफिशियल इंटेलिजेंस यानी एआई से तैयार कंटेंट भारत के चुनाव में कहां तक जा सकते हैं.
बड़े हथियार, डीपफेक और वायस क्लोनिंग
जेनरेटिव एआइ निर्मित कंटेंट में वायस क्लोनिंग और डीपफेक वीडियो को राजनीतिक गलियारे में एक अभिशाप के नजरिये से देखा जाने लगा है, जिसे चैटजीपीटी4 वर्जन से दर्जनों भाषाओं में तैयार करना आसान हो गया है। इसे लेकर अमेरिकी टेक कंपनी माइक्रोसाफ्ट ने भारत को चेताया है। कंपनी की थ्रेट इंटेलिजेंस टीम की रिपोर्ट के अनुसार चीन और उत्तर कोरिया की साइबर समूह भारत समेत दुनियाभर के हाइ-प्रोफाइल चुनावों को निशाना बना सकते हैं। एआइ का उपयोग कर वे वैसे वीडियो और आडियो भेज सकते हैं, जिनसे यहां का चुनाव प्रभावित हो और इसका लाभ उन्हें मिले। इस आशंका को भांपते हुए डीपफेक वीडियो के दुरुपयोग को लेकर प्रधानमंत्री नरेन्द्र मोदी पहले ही आगाह कर चुके हैं। इस बाबत उन्होंने इसके विरुद्ध चेतावनी तब दी थी, जब उनके डांस का एक वीडियो सामने आया था। वीडियो में नरेन्द्र मोदी जैसे दिखने वाले व्यक्ति द्वारा गुजराती पारंपरिक नृत्य गरबा का वीडियो बनाया गया था। इसे एआइ का उपयोग कर तैयार किया गया था, लेकिन वास्तविक प्रतीत होता था।
इस वीडियो ने चुनावों में एआइ द्वारा उत्पन्न खतरों की आशंका जता दी थी और नरेन्द्र मोदी द्वारा इस पर चर्चा करने के साथ ही यह एक महत्वपूर्ण मुद्दा बन गया। एआइ की उन्नत शाखाओं में से एक जेनरेटिव एआइ आसानी से संकेतों के आधार पर टेक्स्ट और तस्वीरें बना सकती हैं। यह शिक्षा, स्वास्थ्य, खाद्य पदार्थों, भोजन, पेय, ग्राहक आदि की देखभाल के लिए एक वरदान है, लेकिन इसके दुरुपयोग की आशंकाएं भी कम नहीं हैं। इसके बढ़ते खतरे के बारे में एआइ गाडफादर कहे जाने वाले जेफ्री हिंटन ने चेतावनी देते हुए गूगल पर सबकुछ छोड़ दिया था। इसे लेकर सबसे अधिक चिंता की बात यह है कि डीपफेक वीडियो को साबित करने वाले एप्स अभी तक पर्याप्त तौर पर प्रभावी नहीं बन पाए हैं। जबकि आने वाले डेढ़ वर्षों में भारत के अतिरिक्त अमेरिका, इंडोनेशिया, मैक्सिको और यूके जैसे देशों में चुनाव होने हैं। ऐसे में डीपफेक वीडियो के दुरुपयोग को लेकर नरेन्द्र मोदी पहले से ही आगाह कर चुके हैं। इस बाबत उन्होंने चेतावनी तब दी थी, जब उनके डांस का एक वीडियो सामने आया था। इस वीडियो में मोदी जैसे दिखने वाले व्यक्ति द्वारा गुजराती पारंपरिक नृत्य गरबा का वीडियो बनाया गया था। इसे एआइ का उपयोग कर तैयार किया गया था, लेकिन वास्तविक प्रतीत होता था।
चैटजीपीटी से जुड़ी चुनौतियां : अमेरिका स्थित एआइ अनुसंधान और परियोजना कंपनी ओपनएआइ का चैटजीपीटी एक अद्भुत एप है, जो आनलाइन यूजर्स के लिए संकेतों के साथ आसानी से टेक्स्ट, आडियो और वीडियो बनाने में मदद करता है। यही कंपनी डेल-ई2 नाम की एक एआइ आर्ट जनरेटर और व्हिस्पर प्रणाली लांच कर चुकी है, जो आटोमेटिक काम करती है। उसके बाद से एआइ तकनीक तेजी में तेजी से विकास हुआ है। इसने आइटी कंपनियों के साथ तालमेल बिठाने में भी कामयाबी हासिल कर ली है। वायस की क्लोनिंग, न्यूड वीडियो और तस्वीरों सहित डीपफेक बनाने के लिए गूगल सर्च से ढेर सारे विकल्प मिल जाते हैं। मोबाइल और पीसी आपरेटिंग सिस्टम के एप स्टोर पर भी विविध संस्करणों के कई न्यूडिफाई एप्स उपलब्ध हैं। उनमें कुछ ऐसे संसाधन हैं, जिनकी मदद से फोटो और वीडियो में हेरफेर आसानी से किया जा सकता है। इसकी बदौलत ब्लैकमेल की कई वारदातें सामने आ चुकी हैं। मुंबई स्थित एक साइबर सिक्योरिटी फर्म ने इसे सेक्सटार्शन का नाम दिया है। इस फर्म की रिपोर्ट के अनुसार इसके निशाने पर महिलाएं सर्वाधिक हैं। यह बेहद गंभीर चुनौती बन चुकी है। इसके उपयोग की जो रफ्तार है उसे दखते हुए ऐसा जान पड़ता है कि आने वाले चार वर्षों यह न केवल व्यक्तिगत गोपनीयता के लिए खतरा होगा, बल्कि दुनिया भर के चुनावों और सामाजिक तानेबाने को भी दुष्प्रभावित करने की क्षमता से पूर्ण हो जाएगा। ऐसे में इस बारे में सतर्क रहना होगा।
बहरहाल, कानूनी तौर पर कदम उठाकर इस पर आंकुश लगाया जा सकता है। यदि कोई व्यक्ति किसी नेता की नकली आवाज या वीडियो बनाकर झूठी खबर फैलाता है, तो उस पर भारतीय दंड संहिता (1860) या नए कानून भारतीय न्याय संहिता (2023), इन्फार्मेशन टेक्नोलाजी एक्ट (2000) और इन्फार्मेशन टेक्नोलाजी (मध्यस्थ दिशानिर्देश और डिजिटल मीडिया नैतिकता संहिता) नियम, 2021 के तहत कार्रवाई हो सकती है। (शंभु सुमन)