कृत्रिम बुद्धिमत्ता के कारण आसन्न जन सुरक्षा खतरों के लिए हमें तैयार रहने की जरूरत

टोरंटो, दुनिया के ज्यादातर हिस्सों में सम-सामयिक आपातकालीन प्रबंधन का ध्यान बाढ़, भूकंप, तूफान, औद्योगिक दुर्घटनाओं, मौसम संबंधी घटनाओं और साइबर हमलों जैसी प्राकृतिक, प्रौद्योगिकी और मानव निर्मित खतरों पर रहा है। बहरहाल, कृत्रिम बुद्धिमत्ता की उपलब्धता तथा क्षमताओं में वृद्धि से, हम इन प्रौद्योगिकियों से जुड़े जन सुरक्षा खतरों को जल्द ही देख सकते हैं जिनसे हमें निपटने तथा उनके लिए तैयार रहने की आवश्यकता होगी।

            पिछले 20 से अधिक वर्षों में मेरे सहकर्मी और मैं, अन्य अनुसंधानकर्ताओं के साथ ऐसे मॉडल और एप्लिकेशन्स विकसित करने के लिए कृत्रिम बुद्धिमत्ता (एआई) का लाभ उठा रहे हैं जो आपात प्रतिक्रिया अभियान की सूचना देने तथा निर्णय निर्धारण के जोखिमों की पहचान करने, अनुमान लगाने, निगरानी करने के साथ साथ उनका पता भी लगा सकते हैं।

            हम अब एक ऐसे मोड़ पर पहुंच रहे हैं जहां एआई बड़े पैमाने पर खतरे का बड़ा स्रोत बन रहा है जिसे खतरों और आपातकालीन प्रबंधन चरणों – शमन या रोकथाम, तैयारी, प्रतिक्रिया और बहाली में शामिल किया जा सकता है।

            एआई और खतरों का वर्गीकरण :एआई के खतरों को दो प्रकार से वर्गीकृत किया जा सकता है : जानबूझकर उत्पन्न किए गए खतरे और अनजान खतरे। अनजान खतरे वे हैं जो मानव द्वारा की गयी गलतियों या प्रौद्योगिकी नाकामी के कारण पैदा होते हैं। एआई का इस्तेमाल बढ़ने पर एआई आधारित तकनीक में एआई मॉडल या प्रौद्योगिकी नाकामी में मानव गलतियों से हुई प्रतिकूल घटनाएं अधिक होंगी। ये घटनाएं परिवहन (जैसे कि ड्रोन, ट्रेन या स्वचालित कार), बिजली, तेल और गैस, वित्त तथा बैंकिंग, कृषि, स्वास्थ्य और खनन समेत सभी प्रकार के उद्योगों में हो सकती हैं।

            वहीं, जानबूझकर उत्पन्न किए गए एआई के खतरे वे संभावित खतरे हैं जो लोगों तथा संपत्तियों को नुकसान पहुंचाने के लिए एआई का इस्तेमाल कर होते हैं। एआई का इस्तेमाल सुरक्षा से खिलवाड़ कर गैरकानूनी फायदे उठाने में भी किया जा सकता है।

जन सुरक्षा को खतरे : जन सुरक्षा और आपातकालीन प्रबंधन विशेषज्ञ खतरों का आकलन तथा उनकी तुलना करने के लिए जोखिम मैट्रिक्स का इस्तेमाल करते हैं। इस पद्धति का इस्तेमाल कर खतरों का गुणात्मक या मात्रात्मक आकलन उनकी आवृत्ति तथा परिणाम के आधार पर किया जाता है तथा उनके असर को निम्न, मध्यम या उच्च के रूप में वर्गीकृत किया जाता है।

            एआई जोखिम आकलन : विभिन्न क्षेत्रों में संस्थान, संगठन और कंपनियां एआई प्रौद्योगिकियों का व्यापक स्तर पर इस्तेमाल कर रही हैं और एआई से जुड़े खतरे सामने आना शुरू हो गए हैं। अकाउंटिंग कंपनी केपीएमजी ने 2018 में ‘एआई रिस्क एंड कंट्रोल मैट्रिक्स’ विकसित किया। यह कारोबारों द्वारा एआई का इस्तेमाल करने के खतरे को दिखाता है और उनसे इन नए उभरते खतरों की पहचान करने का अनुरोध करता है। रिपोर्ट में आगाह किया गया है कि एआई तकनीक बहुत तेजी से उभर रही है और इसकी वजह से होने वाले जोखिम को नियंत्रण करने के उपाय होने चाहिए।

            सरकारों ने भी एआई आधारित तकनीकों के इस्तेमाल के लिए कुछ जोखिम आकलन दिशा निर्देश विकसित करना शुरू कर दिया है। हालांकि, ये दिशा निर्देश एल्गोरिदमिक पूर्वाग्रह तथा व्यक्तियों के अधिकारों के उल्लंघन तक सीमित हैं।

            खतरे और प्रतिस्पर्धा : एआई पर राष्ट्रीय स्तर की नीति का ज्यादातर ध्यान राष्ट्रीय सुरक्षा और वैश्विक प्रतिस्पर्धा के दृष्टिकेाण से रहा है यानी एआई प्रौद्योगिकी में पिछड़ने के पीछे राष्ट्रीय सुरक्षा तथा आर्थिक जोखिम के खतरे। कृत्रिम बुद्धिमत्ता पर अमेरिका के राष्ट्रीय सुरक्षा आयोग ने कहा है कि राष्ट्रीय सुरक्षा के खतरों का संबंध एआई से है। विश्व आर्थिक मंच ने 2017 की अपनी ‘‘ग्लोबल रिस्क रिपोर्ट’’ में कहा कि एआई इकलौती उभरती प्रौद्योगिकियों में से एक है जो वैश्विक खतरा बढ़ाती है। सरकार और कॉरपोरेट नीतियों में जितनी गति से खतरों को समझा गया तथा उनका प्रबंधन किया जा रहा है, उससे कहीं अधिक तेजी से एआई विकास हो रहा है।

            एआई प्रौद्योगिकियों के लिए बाजार की प्रतिस्पर्धा के साथ मौजूदा वैश्विक परिस्थितियां, सरकारों के लिए जोखिम शासन तंत्र को विकसित करने के बारे में सोचना मुश्किल बनाती हैं।

             हमें सामूहिक रूप से और सक्रियता से ऐसे शासन तंत्रों के लिए प्रयास करना चाहिए। हम सभी को हमारी प्रणालियों तथा समाज पर एआई के विनाशकारी असर से निपटने की आवश्यकता है।

क्रेडिट : प्रेस ट्रस्ट ऑफ़ इंडिया
फोटो क्रेडिट : Wikimedia commons

%d bloggers like this: