ईरान के साथ युद्ध ने ऑनलाइन नकली तस्वीरों में वृद्धि को प्रेरित किया है, जिसमें AI-जनित वीडियो और तस्वीरें तेल अवीव को तबाह करने वाले मिसाइल हमलों या ईरानी सेना द्वारा पकड़े गए अमेरिकी सैनिकों को दिखाया गया है।
इज़राइली दुष्प्रचार का पता लगाने वाली फर्म साइब्रा ने बताया कि संघर्ष के पहले दो हफ्तों के दौरान मुख्य रूप से ईरान समर्थक टिकटॉक खातों ने 145 मिलियन से अधिक बार देखे गए कंटेंट को साझा किया। एक्स और टिकटॉक पर लाखों बार देखे गए एक उल्लेखनीय वीडियो में तेल अवीव की अपार्टमेंट इमारतों को मिसाइल हमले में ढहते हुए दिखाया गया था। कई तस्वीरों और वीडियो में दुबई के बुर्ज खलीफ़ा गगनचुंबी इमारत – दुनिया की सबसे ऊंची इमारत – को आग की लपटों में दिखाया गया था।
दोनों को नकली साबित किया गया। एएफपी ने तेल अवीव वीडियो में विकृतियों का पता लगाया, जबकि विशेषज्ञों ने बुर्ज खलीफ़ा की तस्वीरों में धुएं के पैटर्न और रोशनी में विसंगतियां पाईं – अन्य समस्याओं के अलावा। इसके अलावा, लोगों ने अपनी तस्वीरें पोस्ट कीं जिनमें तेल अवीव और बुर्ज खलीफ़ा सामान्य दिख रहे थे।
नकली खबरों का स्तर यह था कि इज़राइल के प्रधानमंत्री ने यह साबित करने के लिए यरुशलम के एक कैफे में कॉफी ऑर्डर करने का अपना वीडियो जारी किया कि वह मर चुके हैं और उनके पांच उंगलियां हैं।
इन दुष्प्रचार अभियानों के पैमाने और प्रभाव को बेहतर ढंग से समझने के लिए, टीपीएस-आईएल ने मीडिया, मनोवैज्ञानिक युद्ध और प्रचार के विशेषज्ञों से बात की, जिन्होंने धारणा में हेरफेर करने के लिए पैमाने, प्रतीकवाद और तात्कालिकता के इन प्रयासों को नोट किया।
यरुशलम स्थित मीडिया निगरानी संस्था ऑनेस्टरिपोर्टिंग के सीईओ जैकी अलेक्जेंडर ने कहा कि नकली तस्वीरें और वीडियो “उन लोगों के मन में प्रवेश करते हैं जो बस नहीं जानते। AI-जनित समाचार चक्र के युग में, लोग नहीं जानते कि क्या विश्वास करें, इसलिए वे कुछ भी नहीं और सब कुछ विश्वास करते हैं।”
उन्होंने कहा कि लोगों को गुमराह करने या AI-जनित होने के लिए छवियों को विशेष रूप से नाटकीय होने की आवश्यकता नहीं है।
अलेक्जेंडर ने कहा, “कुछ सबसे दूरगामी ‘नकली’ छवियां या वीडियो वास्तव में वास्तविक हैं जिन्हें बस (जानबूझकर) गलत लेबल किया गया है।”
एरियल विश्वविद्यालय में मनोवैज्ञानिक युद्ध में विशेषज्ञता रखने वाले वरिष्ठ व्याख्याता डॉ. रॉन श्लीफ़र के अनुसार, AI ने “कुछ भी नहीं बदला; इसने केवल प्रक्रियाओं को छोटा कर दिया।” उन्होंने समझाया कि सोशल मीडिया और AI संदेशों के तेजी से चक्र को सक्षम करते हैं, जिसमें भुगतान किए गए उत्तरदाता, वैचारिक और बॉट शामिल हैं, जो व्यापक सहमति का भ्रम पैदा करते हैं।
उन्होंने कहा कि ये अभियान तात्कालिकता की सोशल मीडिया की आवश्यकता का फायदा उठाते हैं।
श्लीफ़र ने समझाया, “प्लेटफ़ॉर्म को भरा जाना चाहिए। कई, कई साल पहले, दिन में चार बार समाचार आता था, उसके बाद आठ, और उसके बाद, हर घंटे, और उन्हें कुछ से भरा जाना चाहिए। इसे चैनलों और प्लेटफ़ॉर्म और मीडिया से गुणा करें, और इसी तरह। इसलिए लोग पी.आर. पेशे में शामिल हैं, जो कभी अमीरों के लिए होता था, और आज हर कोई इसे करता है।”
मीडिया विशेषज्ञ नॉम बैनट ने टीपीएस-आईएल को बताया कि अरब दुनिया में कार्टून और दृश्य प्रचार अक्सर इज़राइलियों को अमानवीय बनाते हैं और ऐतिहासिक आख्यानों को उलट देते हैं, जैसे कि गाजा को ऑशविट्ज़ के रूप में चित्रित करना। उन्होंने कहा कि AI के उदय ने इस प्रभाव को बढ़ाया है, जिससे चित्रण और वास्तविकता के बीच की रेखा धुंधली हो गई है।
बैनट ने कहा, “AI ऐसे दृश्य उत्पन्न करता है – मिसाइलें विमान वाहक पर हमला करती हैं या अमेरिकी साम्राज्यवाद के प्रतीकात्मक चित्रण – जो वास्तविक लगते हैं और भावनात्मक शक्ति रखते हैं।”
ऐसे माहौल में जहां दुष्प्रचार सत्यापन से तेज फैलता है, विशेषज्ञ सतर्कता पर जोर देते हैं। श्लीफ़र ने अभियानों के पीछे तकनीकी और मानवीय दोनों गतिशीलता को समझने का आग्रह किया।
उन्होंने कहा, “नई बात वह चैनल है जिसके माध्यम से संदेश प्रसारित किया जाता है। पहले, आपको पर्चे और विमानों की आवश्यकता होती थी। आज, यह सब एक फोन से है।”
अलेक्जेंडर ने उपयोगकर्ताओं को “सामग्री का स्क्रीनशॉट लेने और मूल को साझा करने के बजाय टिप्पणी पोस्ट करने और इसकी रिपोर्ट करने” की सिफारिश की।
उन्होंने सामान्य ज्ञान का उपयोग करने की भी सलाह दी।
इज़राइली राष्ट्रपति इसाक हर्ज़ोग को जेफरी एपस्टीन के साथ चित्रित करने वाली एक हेरफेर की गई छवि का उल्लेख करते हुए, अलेक्जेंडर ने जोर दिया, “फोटो में एपस्टीन को एक सेल्फी लेते हुए दिखाया गया था – कुछ ऐसा जो 1990 के दशक में मौजूद नहीं था। इसलिए, धीमा हो जाएं और सुरागों की तलाश करें।