अमेरिका की उपराष्ट्रपति कमला हैरिस का एक 'डीपफेक' वीडियो पैरोडी अमेरिकी राष्ट्रपति पद की चुनावी दौड़ गरम होने के साथ-साथ AI-संचालित राजनीतिक गलत सूचनाओं की एक लहर और मतदाताओं को प्रभावित करने की इसकी क्षमता को लेकर चिंता पैदा कर दी है। नवंबर में होने वाले अमेरिका के चुनाव को देखते हुए शोधकर्ताओं ने चेतावनी दी है कि तकनीक द्वारा सक्षम फर्जीवाड़े का उपयोग मतदाताओं को उम्मीदवारों की ओर या उनसे दूर करने के लिए किया जा सकता है । यहां तक कि मतदान से बचने के लिए भी।
गलत सूचनाओं की हालिया लहर ने टेक दिग्गजों को वोटिंग से पहले जनरेटिव आर्टिफिशियल इंटेलिजेंस के आसपास सुरक्षा दीवारों को मजबूत करने के लिए नए सिरे से आह्वान किया है। पिछले हफ्ते टेस्ला के मालिक एलोन मस्क को उपराष्ट्रपति हैरिस का एक डीपफेक वीडियो साझा करने के लिए तीव्र आलोचना का सामना करना पड़ा। इस वीडियो में हैरिस की आवाज की नकल करते हुए एक वॉयसओवर राष्ट्रपति बाइडन को बूढ़ा बताता है। आवाज फिर घोषणा करती है कि उसे 'देश चलाने के बारे में कुछ भी नहीं पता है'।
वीडियो में यह संकेत नहीं दिया गया था कि यह पैरोडी है, सिवाय एक हंसते हुए इमोजी के। बाद में मस्क ने ही स्पष्ट किया कि वीडियो व्यंग्य के रूप में बनाया गया था। शोधकर्ताओं ने चिंता व्यक्त की कि दर्शक गलत तरीके से यह निष्कर्ष निकाल सकते हैं कि हैरिस खुद का मजाक उड़ा रही हैं और बाइडन को बदनाम कर रही हैं। पिछले महीने एक्स पर एक हेरफेर किया गया। एक वीडियो बाइडन को अपने आलोचकों को कोसते हुए दिखा रहा था। इसमें एलजीबीटीक्यू विरोधी अपशब्दों का उपयोग भी शामिल था।
रिवर्स इमेज सर्च ने दिखाया कि फुटेज बाइडन के भाषणों में से एक था, जिसे प्रसारक पीबीएस ने लाइव प्रसारित किया था, जिसमें उन्होंने 13 जुलाई को ट्रम्प पर हुए हत्या के प्रयास के बाद राजनीतिक हिंसा की निंदा की थी। पीबीएस ने कहा कि डॉक्टर्ड वीडियो एक डीपफेक था जिसमें दर्शकों को धोखा देने के लिए इसके लोगो का उपयोग किया गया था। हफ्तों पहले, प्लेटफॉर्म पर साझा की गई एक तस्वीर में ट्रम्प को न्यू यॉर्क की जूरी द्वारा पोर्न स्टार स्टॉर्मी डेनियल्स को चुप कराने के लिए व्यावसायिक रेकॉर्डों में हेराफेरी करने के दोषी पाए जाने के बाद पुलिस द्वारा जबरन गिरफ्तार करते हुए दिखाया गया था। लेकिन फोटो एक डीपफेक थी।
गैर-लाभकारी संस्था CivAI के सह-संस्थापक लुकास हैंसन ने मीडिया को बताया कि ये हालिया उदाहरण इस बात के प्रमाण हैं कि आगे चलकर राजनीति में डीपफेक का इस्तेमाल कैसे किया जाएगा। हालांकि AI-संचालित गलत सूचना निश्चित रूप से एक चिंता का विषय है। सबसे संभावित इस्तेमाल निर्मित छवियां और वीडियो होंगे जिनका उद्देश्य गुस्सा पैदा करना और पक्षपातपूर्ण तनाव को बढ़ाना है। हैंसन ने एएफपी को दिखाया कि एक AI चैटबॉट बड़ी संख्या में झूठे ट्वीट बनाकर मतदान में हेरफेर करने में सक्षम है।
जनवरी में बाइडन की नकल करते हुए एक AI-सक्षम रोबोकॉल ने न्यू हैम्पशायर के निवासियों से राज्य के प्राथमिक चुनाव में मतदान नहीं करने का आग्रह किया। नॉन-प्रॉफिट सेंटर फॉर काउंटरिंग डिजिटल हेत (CCDH) ने जून में कहा कि एक अन्य प्रमुख AI टूल, मिडजर्नी पर किए गए परीक्षणों में बाइडन को गिरफ्तार करते हुए और ट्रम्प को एक बॉडी डबल के साथ दिखाते हुए चित्रों का निर्माण किया गया था।
तकनीकी विशेषज्ञों ने बताया कि मिडजर्नी ने पहले ट्रम्प और बाइडन से संबंधित सभी प्रॉम्प्ट को ब्लॉक कर दिया था, जिससे उपयोगकर्ता फर्जी चित्र बनाने से प्रभावी ढंग से रोक गए थे। लेकिन CCDH ने कहा कि उपयोगकर्ता आसानी से नीति को दरकिनार कर सकते हैं - कुछ मामलों में मिडजर्नी द्वारा पहले ब्लॉक किए गए प्रॉम्प्ट में एक सिंगल बैकस्लैश जोड़कर।
एक्सपर्ट चेतावनी देते हैं कि बड़े पैमाने पर इस तरह की फर्जीवाड़ा चुनाव प्रक्रिया के प्रति जनता के गुस्से को भड़का सकता है। मीडिया समूह एक्सिओस और बिजनेस इंटेलिजेंस फर्म मॉर्निंग कंसल्ट द्वारा पिछले साल प्रकाशित एक सर्वेक्षण के अनुसार, 50% से अधिक अमेरिकी यह उम्मीद करते हैं कि AI-सक्षम झूठ 2024 के चुनाव के नतीजों को प्रभावित करेंगे। सर्वेक्षण के अनुसार, लगभग एक-तिहाई अमेरिकी ने कहा कि वे AI के कारण परिणामों पर कम भरोसा करेंगे। कई टेक दिग्गजों ने कहा है कि वे AI-जेनरेट सामग्री को लेबल करने के लिए सिस्टम पर काम कर रहे हैं।
अप्रैल में टेक सीईओ को लिखे एक पत्र में AI झूठों के खिलाफ लड़ाई को मजबूत करने के लिए एक समूह की तरफ से तत्काल प्रयासों की मांग की गई थी। जिसमें राजनीतिक विज्ञापनों में डीपफेक के उपयोग पर रोक लगाना और वास्तविक चुनाव सामग्री को बढ़ावा देने के लिए एल्गोरिदम का उपयोग करना शामिल है।
ADVERTISEMENT
ADVERTISEMENT
Comments
Start the conversation
Become a member of New India Abroad to start commenting.
Sign Up Now
Already have an account? Login