आर्टिफिशियल इंटेलीजेंस: आ एआई मुझे मार
मशीनी होती जिंदगी अब मुहावरा भर नहीं रह गया है। एआई यानी आर्टिफिशियल इंटेलीजेंस के आने के बाद अब इंसान का मशीन बन जाना और मशीन का इंसान बन जाना संभव है। दूसरी तरफ, एआई केे लाभ भी गिनाए जा रहे हैं। यानी, यह केवल खतरा नहीं है बल्कि अवसर भी है। AI बनाम HI के बीच संघर्ष और सफलता, असफलता की कहानी जारी रहेगी। ये आपको तय करना है कि आप इसका इस्तेमाल अपने भले के लिए करते हैं या इसके शिकार होकर अपना और दूसरों का अहित करते हैं।
अमन नम्र
लेखक वरिष्ठ संपादक एवं पत्रकार हैं।
हमारी सभ्यता की चौथी लेकिन सबसे महत्वपूर्ण और संभवत: सबसे खतरनाक औद्योगिक क्रांति है आर्टिफिशियल इंटेलीजेंस। यानी मशीनी बुद्धिमता। इस एआई की एचआई यानी ह्यूमन इंटेलीजेंस से तुलना करें तो देखेंगे कि इंसानी और मशीनी बुद्धिमता के बीच किस तरह का संबंध है, यह हमारे संबंधों और हमारे वर्तमान, हमारे भविष्य पर किस तरह के असर डाल सकता है। विषय जटिल है लेकिन हर व्यक्ति से जुड़ा हुआ है। उस व्यक्ति की मौजूदा सोच और एआई की मदद से उसी व्यक्ति की बदली जा रही सोच से भी जुड़ा है। यह हमारे आज से जुड़ा है, और यही संभवत: हमारा कल तय करेगा।
इसलिए इस पर बात करना और इसे समझने की कोशिश करना बेहद जरूरी और सामयिक है। यह सामयिक इसलिए भी है कि इस साल भारत ही नहीं, अमेरिका, ब्रिटेन, यूरोप समेत दुनिया के करीब 80 देशों में चुनाव होने हैं। इसमें दुनिया की लगभग आधी आबादी यानी 300 करोड़ से भी अधिक लोग वोट देंगे। यह संदर्भ इस लिहाज से ज्यादा अहम हो जाता है कि हाल ही में दावोस में हुई विश्व आर्थिक मंच यानी वर्ल्ड इकोनॉमिक फोरम की बैठक में एक रिपोर्ट जारी की गई। “डब्ल्यूईएफ की वैश्विक जोखिम रिपोर्ट 2024″। इस रिपोर्ट के मुताबिक भारत वह देश है जहां दुष्प्रचार और ग़लत सूचना का ख़तरा सबसे ज़्यादा है। यानी गलत सूचना और दुष्प्रचार के लिए दुनिया भर के विशेषज्ञों ने भारत को नंबर एक जोखिम वाला देश बताया है। इस मामले में भी हम विश्वगुरु निकले।
इस रिपोर्ट में यह भी कहा गया है कि चुनावों के दौरान गलत सूचना और दुष्प्रचार की यह घातक जोड़ी लोकतंत्र के मजबूत स्तंभों की बुनियाद को हिलाने, सामाजिक एकजुटता के ढांचे को कमजोर कर खतरे में डालने और सांविधानिक महत्व के संस्थानों को कमजोर करने की ताकत रखती है। यह तो हम जानते ही होंगे कि गलत सूचना और दुष्प्रचार के लिए इस समय एआई का सबसे ज्यादा इस्तेमाल हो रहा है। इससे हम एआई का महत्व और बढ़ता खतरा बेहतर ढंग से समझ सकते हैं।
आज इस विषय को समझना न केवल जरूरी है बल्कि इसका मकसद बेहद सरल और सीधा सा है। क्या तकनीक और बुद्धि के मेल से हम बेहतर भविष्य बना पाएंगे। क्या हम आपसी संबंधों को संजोकर रख पाएंगे। क्या हम समाज को टूटने, बिखरने से बचा सकेंगे। या फिर इसी तकनीक और बुदि्ध के गलत इस्तेमाल की वजह से हम अपने आसपास बहुत कुछ खोते हुए देखेंगे। आपसी भरोसे को, भाईचारे को, अपने लोकतंत्र की परंपरा को, संविधान पर अपनी आस्था को और देश के भविष्य को।
निश्चित ही अगर सामाजिक, आर्थिक और राजनीतिक परिप्रेक्ष्य में एआई और एचआई के हम पर पड़ने वाले और पड़ रहे असर को देखेंगे, समझेंगे तो ही हम इसे महज तकनीक से इतर समझ पाएंगे। यह जान पाएंगे कि इंसान दरअसल मशीनी बुद्धिमता का इस्तेमाल लोगों के भले से कहीं ज्यादा अपनी राजनीतिक, आर्थिक स्वार्थ को पूरा करने की होड़ में लगा हुआ है। यह अलग बात है कि अब हम एआई युग में आ चुके हैं, यह हमारी जिंदगी का अहम हिस्सा बन चुका है। हम इसके प्रयोग से बच नहीं सकते, लेकिन इसके गलत इस्तेमाल के शिकार होने से बचने का तरीका हमें जरूर सीखना होगा।
सबसे पहले इंटेलीजेंस की बात करते हैं, क्योंकि यह दोनों में कॉमन है। इंटेलीजेंस यानी बुद्धिमता। सामान्य शब्दों में कहें तो चीजों को समझने, बूझने की हमारी क्षमता। यहां इंसानी बुद्धिमता कहना केवल एक शाब्दिक प्रयोग है। इसे हम समझदारी या होशियारी कहने से बेहतर समझ पाएंगे। हालांकि इस पर भी काफी बहस की गुंजाइश है। क्योंकि इसी कथित इंसानी बुद्धिमता या समझदारी का नतीजा है कि हम आज ग्लोबल वॉर्मिंग और क्लाइमेंट चेंज से तो जूझ ही रहे हैं, अब हमने न्यूक्लियर वॉर यानी परमाणु युद्ध के खतरे को भी फिर से अपने सिर पर बिठा लिया है।
कभी इसी इंसानी बुद्धि ने आग और पहिए जैसी खोज कर पूरी मानव सभ्यता को शायद सबसे बड़ा तोहफा दिया था। इसी इंसानी बुद्धि ने हमारे जीवन को आसान करने वाले हजारों, लाखों आविष्कार भी किए हैं। हम जब अपनी बुद्धि से मशीन बनाते हैं तो हमारे काम तेजी से होने लगते हैं, आसान होने लगते हैं। लेकिन जब हम अपनी आसानी और कार्यक्षमता को कई गुना बढ़ाने के लिए मशीन को ही बुद्धि से लैस करने लगते हैं, तो इसके खतरे भी उसी हिसाब से बढ़ जाते हैं। दरअसल यहां खतरा मशीन का नहीं, उस सोच का है जिससे किसी भी नए आविष्कार का गलत उद्देश्य के लिए इस्तेमाल किया जाता है। यह उसी तरह है कि बंदूक से आप सीमा की रक्षा करते हैं या फिर पड़ोसी का घर लूटते हैं। इसमें गलती बंदूक की नहीं, उस इंसान की है जो उसे इस्तेमाल करता है। दरअसल हम इतने ज्यादा होशियार हैं कि आसानी से हल हो सकने वाली हर समस्या को इतना जटिल बना देते हैं कि उसे सुलझाने के नाम पर सत्ता और पैसे का राजनीतिक खेल खेलने लगते हैं। इसलिए फिलहाल इस बहस से इतर केवल शाब्दिक अर्थ से ही इस विषय पर बात करते हैं।
बुद्धिमत्ता की सटीक परिभाषा देना एक बड़ी चुनौती है। सामान्य शब्दों में कहें तो बुद्धिमत्ता यानी ज्ञान पाने की, समस्याओं को हल करने की, नई परिस्थितियों के अनुकूल खुद को ढालने और अनुभव से सीखने की क्षमता। यही नहीं, इसमें सबसे मजबूत पक्ष संभवत: तर्क करने की क्षमता है। यानी जो बताया जाए उसे जस का तस मानने की बजाय तर्क की कसौटी पर कसना। पर, आजकल बुद्धिमता की यह क्षमता हर किसी पर लागू नहीं होती। जिन पर यह लागू नहीं होती, उन्हें आसान शब्दों में समझने के लिए भक्त शब्द का इस्तेमाल भी कर सकते हैं।
आदमी के विकास में उसकी बुद्धि की भूमिका बहुत महत्वपूर्ण है। यह उसकी पढ़ाई-लिखाई, करियर की सफलता, उसके सामाजिक संबंध सहित जीवन के तमाम पहलुओं के लिए जरूरी है। यह भी रोचक है कि हम सब अपनी-अपनी बुद्धि को माप भी सकते हैं। यानी यह जान सकते हैं कि कौन कितना बुद्धिमान है। बुद्धिमत्ता को अक्सर (आईक्यू) से मापा जाता है। आईक्यू हमारे बौद्धिक कौशल को मापता है, जैसे काम के लिए हमारा दिमाग कितनी चीजें याद रखता है, या एक साथ कितने काम कर सकता है या जो हमें सिखाया जाए, उसे सीखने की हमारी क्षमता कितनी है.. आदि आदि।
वहीं बुद्धिमता का एक और पैमाना है ईक्यू यानी इमोशनल कोशेंट। यह आपकी भावनात्मक क्षमताओं और सामाजिक कौशल से मापा जाता है। इसमें सहानुभूति, भावुक होना, प्रेरणा लेना आदि शामिल है। याद रखिएगा कि हम यहां जिस इंसानी बुद्धिमता एचआई की बात कर रहे हैं वह मूलत: आईक्यू से ज्यादा जुड़ाव रखता है। जबकि इंसानी और मशीनी बुद्धिमता में सबसे बड़ा अंतर यही है कि एआई हमारी आईक्यू से मुकाबला कर सकती है पर ईक्यू से नहीं। यानी मशीन हमारे बौद्धिक कुशलता से ही सीखकर उससे आगे भी जा सकती हे लेकिन भावनात्मक पहलू या इक्यू में कोई भी मशीन इंसान से मुकाबला नहीं कर सकती।
संभवत: यह भी एक कारण है कि लोगाें के ईक्यू को उभारने, उकसाने के लिए बाकायदा एआई और एचआई मिलकर कुछ ऐसे प्रयोग कर रहे हैं, जिनसे प्रभावित होकर बड़ी संख्या में लोग भावुक हो जाएं और उनका झुकाव या समर्थन उनकी भावना के अनुरूप किसी खास सोच की ओर हो जाए। जाहिर है ऐसा होने से उनकाे ही ज्यादा फायदा मिलेगा जिनकी वजह से ऐसा हुआ या किया गया है। वह चाहे सामाजिक फायदा हो, राजनीतिक या फिर आर्थिक।
इसका मुकाबला केवल तभी किया जा सकता है जब ऐसे प्रयोगों के जाल में फंस रहे भावुक लोगों में तार्किकता जगाई जाए। उनके ईक्यू के मुकाबले आईक्यू के गुणों को बढ़ाने का प्रयास किया जाए। काम मुश्किल है पर नामुमकिन नहीं। केवल दिक्कत यह है कि इसके लिए पढ़ना, लिखना ज्यादा जरूरी है। भारत जैसे देश में जहां गणेश जी या नंदी अचानक दूध पीने लगते हैं, दीवारों पर साईं बाबा उभर जाते हैं, बरगद या नीम के पेड़ से निकलने वाले कुदरती दूध को चमत्कारी मानकर मेले लगाने शुरू हो जाते हैं। बाबाओं के आशीर्वाद से अपने तमाम दुख दर्द दूर करने के लिए आतुर लोग अपने घर तक बेचने को तैयार हो जाते हैं, ऐसे देश में जहां लोगों की भावना कब, कहां, किस बात पर आहत हो जाए, यह कहना मुश्किल है, वहां लोगों में ईक्यू को बहुमत और आईक्यू को अल्पमत में माना जा सकता है।
इसे सीधे-सीधे यूं समझिए कि मंदिर, मस्जिद जैसे मुद्दे लोगों में ईक्यू को उभारने का काम करते हैं और स्कूल, यूनिवर्सिटी उनके आईक्यू को। आज किसकी चर्चा ज्यादा है और क्यों है, इससे मूल मुद्दे को समझना शायद आपके लिए आसान हो जाएगा। अब हम फिर मूल विषय पर लौटते हैं। एआई ओर एचआई की बात करते हैं। यहां हम देखते हैं कि इंसान की और उसकी बुद्धिमता की खासियत यह है कि वह अनुभवों से लगातार सीख सकता है, नए हालात के अनुकूल खुद को ढाल सकता है। वह सोच सकता है और समझ सकता है। यानी एचआई को हम एआई से बेहतर मान सकते हैं, कम से कम इस मायने में कि इंसान ने एआई को बनाया है, वह एआई का जनक है। लेकिन जरा ठहरिए। खतरा अभी टला नहीं है। दरअसल इंसान ने अब ऐसे एआई विकसित कर लिए हैं जो किसी विशिष्ट संदर्भ में पूर्वानुमान या निर्णय लेने के लिए डेटा और एल्गोरिदम के जरिए बिल्कुल इंसानों की तरह समझ विकसित कर सकते हैं, फैसले ले सकते हैं, वह भी इंसानों की तुलना में बहुत कम समय में और इंसानों से कहीं ज्यादा सटीक। यह सही है कि AI में सच्ची भावनात्मक बुद्धिमत्ता का अभाव है। लेकिन अब कुछ एआई सिस्टम चेहरे की पहचान या भावनाओं के विश्लेषण के जरिए मानवीय भावनाओं को भी पहचान सकते हैं और प्रतिक्रिया भी दे सकते हैं।
चीनी कंपनी शिओमी ने पिछले ही साल अपना पहला ह्यूमनॉइड रोबोट CyberOne लॉन्च किया है। ये रोबोट इंसानों की तरह काम करता है। सबसे खास बात ये है कि ये रोबोट मानवीय भावनाओं को समझने में सक्षम है; यह दुःख, गुस्सा, खुशी आदि भावनाओ को बखूबी समझ सकेगा।
साइबरवन (CyberOne) 177cm लंबा और 52kg वजनी है। यानी एकदम किसी इंसान की ही तरह दिखता है। यह डबल इंजन से लैस है। एआई-संचालित “सिमेंटिक्स रिकग्निशन इंजन” और “वोकल इमोशन आइडेंटिफिकेशन इंजन”। इसे यूं समझिए कि यह 85 तरह की आवाज़ों और 45 तरह की मानवीय भावनाओं को पहचान सकता है। Xiaomi का कहना है कि यह रोबोट दुख के समय में इंसानों को सुकून दे सकता है। हालांकि अभी भी ऐसे रोबोट और इंसानों में बड़ा अंतर यह है कि मनुष्य में रचनात्मकता, मौलिक और नए विचार पैदा करने की क्षमता होती है। वहीं आर्टिफिशियल इंटेलिजेंस सीखे गए पैटर्न के आधार पर ही आउटपुट दे सकता है, लेकिन सच्ची रचनात्मकता और मौलिकता एआई के लिए चुनौती बनी हुई है। वे जितना डेटा फीड किया जाएगा, उसी के अनुसार नतीजे दे सकते हैं। लेकिन खतरा यह है कि अगर इंसानों ने रोबोट को अपने से ज्यादा समझदार बनाने के लिए जरूरत से ज्यादा इनपुट दे दिए तो वह शायद इंसान से ज्यादा बुद्धिमान बन जाए। उसके कैलकुलेट करने की क्षमता तो वैसे भी इंसानों से ज्यादा हो चुकी है। केवल सोचने और अपना भला-बुरा समझने की बात है। इसमें भी अब ज्यादा समय नहीं बचा है।
कुछ लोग कहेंगे कि केवल एआई के खतरों की ही बात क्यों की जाए। इसके फायदे भी तो बहुत हैं। हम इससे बिल्कुल इनकार नहीं कर सकते कि अगर हम एआई की चुनौतियों काे सही ढंग से समझें और इसकी वजह से संभावित आपदाओं या संकट को विकास, इनोवेशन और सह-अस्तित्व यानी एचआई और एआई को मिलाकर काम कर सकें तो बेहतर भविष्य के अवसरों में बदल सकते हैं। यह भी सच है कि आर्टिफिशियल इंटेलिजेंस ने हमारे रहने, काम करने और दुनिया के साथ बातचीत करने के तरीके को नया आकार दिया है। सेल्फ-ड्राइविंग कारों से लेकर वर्चुअल पर्सनल असिस्टेंट और मेडिकल, खेती, इंडस्ट्री, रिसर्च तक, AI हमारे जीवन के हर पहलू में शामिल है।
एआई हमारी क्षमताओं को और बढ़ा सकता है। एआई बड़े पैमाने पर डेटा एनालिसिस करने, पैटर्न पहचानने और दोहराए जाने वाले कामों को सटीकता से करने में माहिर है। एआई डॉक्टरों को बीमारियों काे जल्दी पहचानने और उनके इलाज में सहायता करेगा, छात्रों के लिए शैक्षिक अनुभवों को बढ़ाएगा और जलवायु परिवर्तन जैसी वैश्विक चुनौतियों को हल करने में सहायता करेगा। एआई के साथ काम करके, मनुष्य उन कामों पर ध्यान केंद्रित कर सकते हैं जिनमें भावनात्मक बुद्धिमत्ता, आलोचनात्मक सोच और रचनात्मकता की आवश्यकता होती है।
इसके लिए जरूरी है कि एआई को बनाने वाले और उसका उपयोग करने वाले दोनों के ही ध्यान में रखते हुए नैतिक आधार पर मजबूत सिस्टम बनाए जाएं। ताकि एआई का विकास अनियंत्रित या गैर जिम्मेदार न हो, एआई का इस्तेमाल सही जगह पर सही नजरिए और सही समय पर किया जाए। एआई से जुड़े जोखिमों को कम करने के हमारे प्रयासों में पारदर्शिता, जवाबदेही और सबकी भागीदारी सबसे आगे होनी चाहिए। एआई से जुड़ी सबसे बड़ी चिंताओं में से एक इसकी लोगों को बेरोजगार करने की क्षमता है। बहुत से उद्योगों में ऑटोमेशन से नौकरियाँ ख़त्म हो सकती हैं। जाहिर है कि एआई के बढ़ते इस्तेमाल से आर्थिक असमानता मौजूदा सामाजिक मुद्दों को बढ़ा सकती है और कामकाजी लोगों के बीच अलगाव की भावना को बढ़ावा दे सकती है। ऐसा माना जा रहा है कि एआई की वजह से आने वाले सालों में करीब 40 फीसदी नौकरियां कम हो जाएंगी। यह खतरा भी है कि एआई सिस्टम उतने ही निष्पक्ष हैं जितने डेटा पर उन्हें ट्रेंड किया जाता है। पूर्वाग्रह, भेदभाव और अनुचित निर्णय लेने के कई मामले सामने आ चुके हैं। इससे एआई के नैतिक निहितार्थों के बारे में चिंताएं बढ़ गई हैं। अगर सावधानी से इनपर नियंत्रण नहीं किया गया, तो एआई हानिकारक रूढ़िवादिता को मजबूत करके और विविध दृष्टिकोणों को सीमित करके मानव बुद्धि के लिए खतरा पैदा कर सकते हैं।
यह एक तरह का रिवर्स साइकिल होगा। यानी इंसानी बुद्धिमता से बना यह एआई ऐसी क्षमता रखता है कि बहुत से इंसानों की बुद्धिमता को प्रभावित कर, उनके सोचने, समझने को भी बदल सकता है। शायद ऐसे में यह कहना गलत नहीं होगा कि हमने एआई के ईजाद से आ एआई मुझे मार वाली कहावत को चरितार्थ कर दिया है।
निश्चित ही सच कड़वा है, कठोर है और भविष्य का अंधेरा अभी से देखा जा सकता है। अगर हम वर्ल्ड इकोनॉमिक फ़ोरम 2024 के वैश्विक जोखिम रिपोर्ट की ही बात करें तो यह साफ तौर पर चेतावनी दे रही है कि इस साल के चुनावों के दौरान और इनके बाद जारी दुष्प्रचार और गलत सूचनाओं से तमाम शासकीय संस्थाएं बरबादी के कगार पर खड़ी हो सकती हैं। डब्ल्यूईएफ की चेतावनी स्पष्ट है: हम अव्यवस्था और उथल-पुथल की संभावना से जूझ रहे हैं, जहां मनगढ़ंत बातों और झूठ का अनियंत्रित फैलाव अशांति की आग भड़का सकता है, जो हिंसक विरोध, प्रदर्शन, नफरत से प्रेरित अपराध, नागरिक अशांति और उग्रवाद के संकट के रूप में सामने आ सकता है।
यह रिपोर्ट हमारी दुनिया की यात्रा का एक गंभीर और अशुभ भविष्य हमारे सामने ला रही है। इसमें सरकारों को तमाम जायज, नाजायज तरीके अपनाकर अजेय शक्ति पाते हुए दिखाया जा रहा है, वहीं यह आशंका भी खुलकर जताई जा रही है कि सेंसरशिप के हथियार को लहराने के लिए सरकारें इस बात की , एकतरफा घोषणा कभी भी कर सकती हैं कि उनकी नजर में क्या ‘सच’ माना जाएगा और क्या झूठ। यह प्रवृत्ति दमन की बढ़ती आशंका का संकेत देती है, जो पारंपरिक रूप से इंटरनेट और पत्रकारिता से जुड़ी हमारी स्वतंत्रता में बाधा डालती है, जो भी अब तक बची है। यही नहीं, यह सूचना स्रोतों की एक बड़ी संख्या तक हमारी निर्बाध पहुंच को भी बाधित करती है, जो दुनिया भर के असंख्य देशों में विचारों और ज्ञान के आदान-प्रदान के लिए महत्वपूर्ण मंच है।
हम WEF की भविष्यवाणियों को केवल अकादमिक अनुमान के रूप में खारिज नहीं कर सकते। ये दरअसल लामबंद होने के लिए एक तुरही की आवाज की तरह देखी जानी चाहिएं। जाहिर है कि अब इन उभरते जोखिमों का सामना करने और उनसे निपटने का समय आ गया है। खतरे की घंटी बज रही है, और संदेश स्पष्ट है, आलस या निष्क्रियता की विलासिता अब बर्दाश्त नहीं की जा सकती।
इंटरनेट और सोशल मीडिया संभवतः किसी समुदाय में प्रमुख हस्तियों, विशिष्ट समूहों और महत्वपूर्ण आबादी को टारगेट करने के लिए आभासी या ऑनलाइन युद्ध में उपयोग किए जाने वाले सबसे शक्तिशाली उपकरण हैं। यह भी एक बड़ा खतरा है कि जिन टूल का इस्तेमाल हम जानकारी हासिल करने के लिए कर रहे हैं उन्हें भी खास मकसद से एआई की मदद से तैयार किया जा रहा है। मसलन, चैटजीपीटी जानता है कि इंसानों से कैसे बात की जाए और उन्हें सच और झूठ के एक निश्चित मिश्रण पर विश्वास कैसे कराया जाए। इससे उनकी राजनीति को प्रभावित किया जा सकता है। यानी किसी विषय पर अगर आपकी मास्टरी नहीं है और इसके बारे में आप एआई की मदद से सर्च करके जानना चाहते हैं तो बहुत संभव है कि एआई अपने हिसाब से आपको उस विषय के पक्ष या विपक्ष में राय बनाने पर मजबूर कर दे।
हमें यह भी जानना चाहिए कि कैंब्रिज एनालिटिका जैसी दुष्प्रचार करने वाली कंपनियों ने प्रदर्शित किया कि किस तरह फर्जी खबरें फैलाकर और इससे भी अहम बात यह है कि फर्जी सूचनाओं को व्यक्तियों पर लागू करके – उनकी उम्र, लिंग, पारिवारिक स्थिति, शौक, पसंद और नापसंद पर एकत्र किए गए डेटा का उपयोग करके – चुनाव को प्रभावित किया जा सकता है। अमेरिका में डोनाल्ड ट्रंप की चुनावी जीत के पीछे फेसबुक के अमेरिकी यूजर्स के डेटा का इस्तेमाल किया गया।
कैम्ब्रिज एनालिटिका का सच तो सबको पता चल गया लेकिन उनके साथ काम करने वाले इज़राइली आर्किमिडीज़ समूह के बारे में चुप्पी साध ली गई। उसे जवाबदेह नहीं ठहराया गया। फॉरबिडन स्टोरीज़ की एक रिपोर्ट से पता चला है कि आर्किमिडीज़ समूह संपूर्ण दुष्प्रचार और चुनाव-धांधली उद्योग के रूप में इज़राइल में स्थित है, लेकिन दुनिया भर में काम कर रहा है। ये कंपनियां पहले से ही नकली अवतारों की सेना बनाने के लिए एआई के प्राथमिक रूपों का उपयोग करती हैं, जो सोशल मीडिया पर दुष्प्रचार फैलाती हैं। जो उम्मीदवार अपने विरोधियों की प्रतिष्ठा को नष्ट करने का जोखिम उठा सकते हैं, वे ऐसी कंपनियों की मदद लेते रहते हैं। यह अवैध है, लेकिन इज़रायली सरकार ने इस क्षेत्र को इज़रायल से बाहर स्वतंत्र रूप से संचालित करने की अनुमति देने का विकल्प चुना है। इजरायल के स्पाईवेयर यानी खुफिया सॉफ्टवेयर पेगासस से हमारे देश में भी नेताओं, पत्रकारों की जासूसी बहुत पुरानी बात नहीं है।
एआई से जुड़ा एक और बड़ा खतरा है डीपफेक। इस पर रोक लगाने के लिए सरकार ने तमाम सोशल मीडिया कंपनियों के लिए निर्देश भी जारी किए हैं। हो सकता है, आने वाले समय में ऑनलाइन डीपफेक वीडियो के साथ आप यह डिस्क्लेमर भी पढ़ें कि यह वीडियो डीपफेक हे। पर यह मामला केवल तकनीकी नहीं है। डीपफेक पर बात करने से पहले यह समझिए कि यह उन तमाम टूल में से केवल एक है जो एआई की मदद से आपकी सोच बदलने या झूठ को सच बताने की मुहिम के तहत इस्तेमाल हो रहा है।
आपके वाॅट्सएप ग्रुप में हर दिन ऐसे तमाम संदेश आते ही होंगे जो आपको किसी के समर्थन या किसी के विरोध में उकसाते होंगे। अगर आप समझदार हुए तो ऐसे संदेश इग्नोर कर देंगे। लेकिन कुछ ही देर बाद फेसबुक, ट्विटर पर फिर आपको ऐसे ही संदेशों से जुड़े वीडियो या फोटो आदि दिखने लगेंगे। अगर आप ज्यादा समझदार हुए तो इन्हें भी इग्नोर कर देंगे। लेकिन जब आप टीवी पर न्यूज चैनलों को भी लगभग ऐसे ही एजेंडे के साथ खबरें, विशेष कार्यक्रम या इंटरव्यू करते दिन भर देखेंगे तो कहीं न कहीं मन में, दिमाग में यह कीड़ा घुसेगा कि कहीं यह सच तो नहीं है। शक का यही बीज बोने का काम एआई बेहद सटीक तरीके से करता है। इसी का एक अहम टूल है डीपफेक।
डीपफेक को दो हिस्सों में तोड़ें तो यह डीप और फेक से मिलकर बनता है। यानी गहरा झूठ। इसे सरल भाषा में समझाएं तो डीपफेक यानी वह गहरा झूठ जो इतनी कुशलता और चतुराई के ताने-बाने से तैयार किया गया है कि लोग उसे सच मानने को मजबूर हाे जाएं। जाहिर है यह केवल वीडियाे तक सीमित रहने वाली बात नहीं है। यह लेखों, संपादकीय से लेकर चुनावी नारों, वादों आदि में भी अपनी भूमिका बखूबी निभाता आया है। दरअसल यह फेक उतना ही डीप है जितना हमारी राजनीति का इतिहास है। तकनीकी तो काफी बाद में आई। उससे पहले ही झूठी उम्मीदें, दुर्भावना, डर, लालच आदि ने लोगों को गुमराह करने, भरोसा करने, अपने स्वर्णिम भविष्य की लालच में नकली वादे करने वालों का साथ देने का भरपूर काम कर डीपफेक के लिए मजबूत जमीन तैयार कर दी थी। इसे केवल दो उदाहरणों से समझते हैं।
पहला, 1933 के जर्मनी के आम चुनाव में हिटलर ने जर्मनी की जनता से वादा किया था, “आप सब मुझे पांच साल दीजिये और आप दुबारा जर्मनी को पहचान नहीं पाएंगे।” लोगों ने हिटलर के वादे पर भरोसा किया। हिटलर को देश की सत्ता सौंप दी। यह अवधि खत्म होते-होते यूरोप में विश्वयुद्ध के बादल मंडराने लगे और 1939 में दूसरा विश्वयुद्ध छिड़ गया। 1945 के आधा बीतते ही जर्मनी तहस-नहस हो गया। हिटलर ने मेज के नीचे छिप कर आत्महत्या कर ली। उसके साथियों को मित्रदेशों की सेना और पुलिस ने ढूंढ-ढूंढ कर पकड़ा। उनपर मुक़दमा चला। अधिकांश को फांसी दी गई। जो बचे उन्हें उम्रकैद हुई। तानाशाही, अहंकार, जनता पर भेदभाव भरे अत्याचार, और भावुकता भरे प्रलाप करने वाले नेताओं के लुभावने वादों पर भरोसा करने का हश्र जर्मनी से देखा और सीखा जा सकता है। हिटलर का यह नारा भी था कि One people, one empire and one leader। सचमुच जिन्होंने हिटलर के वादे पर यकीन कर के उसे पांच साल दिये, वे दुबारा उस जर्मनी को पहचान नहीं पाए।
अब दूसरा उदाहरण देखते हैं, अपने ही देश का। नवंबर 1969 में बनी और मार्च 1971 में भंग हुई दूसरी इंदिरा गांधी सरकार स्वतंत्र भारत की पहली अल्पमत सरकार थी। विभाजन के बाद, कांग्रेस (आर) के पास 523 सीटों वाली संसद में 221 सीटें थीं, जो बहुमत से 41 सीटें कम थीं। 27 दिसंबर 1970 को राष्ट्रपति वीवी गिरि ने इंदिरा गांधी की सिफारिश पर लोकसभा भंग कर दी। मार्च 1971 में आम चुनाव हुए। इससे पहले इंदिरा गांधी ने एक लोकप्रिय नारा दिया, गरीबी हटाओ, देश बचाओ। इस नारे का असर यह हुआ कि चुनाव के बाद 352 सीटों के शानदार बहुमत के साथ वे सत्ता में लौट आईं। और सच यह भी है कि इस नारे के 52 साल बाद आज की केंद्र सरकार 80 करोड़ गरीबों को मुफ्त भोजन दे रही है। आने वाले पांच साल तक यह योजना जारी रखने का वादा भी किया है। यह अलग बात है कि नीति आयोग यह भी कहता हे कि भारत में 10 साल में 24.82 करोड़ लोग गरीबी रेखा से बाहर निकल गए हैं। गरीबी 2013-14 में 29.17 प्रतिशत से घटकर 2022-23 में मात्र 11.28 प्रतिशत रह गई है। लेकिन इसे समझना आईक्यू का काम है, 80 करोड़ गरीबों को राशन देते रहना ईक्यू वाले लोगों को ज्यादा भाता है। अब शायद आपको डीपफेक का इतिहास या इसकी प्रेरणा का स्रोत कुछ-कुछ समझ आने लगा होगा। जी हां, यह मूल रूप से किसी को बहलाने, फुसलाने या एक कदम और आगे बढ़कर बहकाने का जरिया है। चुनावी राजनीति में अक्सर नेता जनता को भविष्य के सुनहरे सपने दिखाने के लिए इसी का इस्तेमाल करते हैं। जनता उनके वादों पर यकीन कर लेती है, अपना वोट उनकी पार्टी को देकर उन्हें सत्ता सौंप देती है और नतीजे में अगले पांच साल अपनी किस्मत को काेसते हुए यथार्थ की खुरदुरी जमीन पर अपने मखमली सपनों को चूर-चूर होते देखती है। यह सिलसिला हर पांच साल में रिपीट होता है। ज्यादा कुछ नहीं बदलता। हां, अब तकनीकी की तरक्की ने चुनावी वादों की ही तर्ज पर डीपफेक को विकसित किया है।
जो लोग इसे महज मनोरंजन मानते हैं, उनके लिए तो कोई दिक्कत नहीं है। वे इसे अच्छी से समझते हैं, उन्हें पता होता है कि वीडियो में जो कहा जा रहा है और जो व्यक्ति इसे कह रहा है वे दोनों ही चीजें नकली हैं, झूठी हैं, बनावटी हैं। उस पर भरोसा नहीं करना, केवल सुन-देखकर मनोरंजन करना है। लेकिन ऐसे लोगों की संख्या उतनी ही है, जितनी उन लोगों की जो चुनावी वादों की असलियत को जानते हैं। नेताओं के वादों को नकली, झूठे या बनावटी समझते हैं। हमारे देश की दिक्कत यह है कि यहां लोग असल से ज्यादा नकल पर भरोसा करते हैं। और इसीलिए डीपफेक हमारे यहां एक तरह का ऐसा हैंडग्रेनेड है, जिसे देखने वाला अगर इसे सच मान बैठा तो हैंडग्रेनेड का पिन निकालकर ब्लास्ट करने की स्थिति बना देगा।
दरअसल डीपफेक ऐसे हथियार की तरह है जो सही हाथों में रहे तो खुद भी सुरक्षित रहेगा और सही उपयोग होने पर दूसरों का मनोरंजन भी कर सकेगा, लेकिन गलत हाथों में जाने पर यह विनाशकारी भी साबित हो सकता है। खासकर आज के दौर में, जब सत्ता में आने के लिए राजनीतिक दल, मर्यादा, नैतिकता या उचित-अनुचित को नहीं मानते, डीपफेक का अपने स्वार्थ के लिए किसी भी हद तक इस्तेमाल कर सकते हैं। हमारी श्रद्धा, आस्था में डूबी जनता जो किसी भी बयान, वीडियो को फैक्ट चेक तो दूर, तर्क की कसौटी पर देखने तक के लिए तैयार नहीं हे, वह तो पेट्रोल का ऐसा समुद्र है, जिसके लिए कब, कौन सा डीपफेक वीडियो माचिस की जलती तीली का काम कर जाए, कहा नहीं जा सकता।
यह बात यहीं खत्म करता हूं केवल एक छोटी सी खबर के साथ…
एक कंपनी है, द माइंडफुल एआई लैब। इसका लोगो है We empower humans to build ethical AI यानी हम लोगों को नैतिक एआई बनाने के लिए सशक्त करते हैं। इस कंपनी की मालकिन जो खुद काफी बड़ी इंजीनियर है, देश की टॉप 100 महिलाओ में शुमार रह चुकी है। आजकल जेल में है। सूचना सेठ नामक इस महिला ने अपने चार साल के बेटे की महज इसलिए हत्या कर दी कि वह उसे अपने तलाकशुदा पति के पास नहीं भेजना चाहती थी। एआई, नैतिकता जैसी तमाम बातें पीछे छूट गईं, निराशा, गुस्सा, बदला और साजिश जैसी तमाम खालिस इंसानी बुद्धिमता के साथ एचआई की जीत हुई। जाहिर है कि AI बनाम HI के बीच संघर्ष और सफलता, असफलता की कहानी जारी रहेगी। ये आपको तय करना है कि आप इसका इस्तेमाल अपने भले के लिए करते हैं या इसके शिकार होकर अपना और दूसरों का अहित करते हैं।