Mon. Dec 23rd, 2024

माइक्रोसॉफ्ट ने ‘चुनावों में बाधा उत्पन्न करने की नियत से आर्टिफिशियल इंटेलिजेंस(AI) के दुरुपयोग’ के बारे में एक रिपोर्ट जारी की है

आर्टिफिशियल इंटेलिजेंस(AI) रिपोर्ट के मुख्य बिंदुओं पर एक नजरः

• चीन ने ताइवान में हुए राष्ट्रपति चुनाव में AI-जनित दुष्प्रचार अभियान चलाने का प्रयास किया था।

• चुनाव के अलग-अलग पहलुओं को प्रभावित करने के उद्देश्य से AI-जनरेटेड ऑडियो, AI-जनरेटेड एंकर, AI-एनहेंस्ड वीडियो, AI-जनरेटेड मीम्स आदि का इस्तेमाल किया गया था।

चुनावों में आर्टिफिशियल इंटेलिजेंस का खतरा:

• चुनाव व्यवहार को प्रभावित करनाः

राजनीतिक विज्ञापन भ्रामक और झूठे कंटेंट वाले बनाए जा सकते हैं।

इसके अलावा, आर्टिफिशियल इंटेलिजेंस की मदद से इन विज्ञापनों को व्यक्ति विशेष को प्रभावित करने वाला बनाया जा सकता है।

• जनमत को भ्रमित करनाः

आर्टिफिशियल इंटेलिजेंस के माध्यम से चुनाव लड़ रहे उम्मीदवारों के बयानों को बदला जा सकता है।

अलग-अलग मुद्दों पर जनता के रुख को प्रभावित किया जा सकता है।

यहां तक कि कुछ घटनाओं की प्रामाणिकता को भी प्रभावित किया जा सकता है।

आर्टिफिशियल इंटेलिजेंस की मदद से आसानी से फेक न्यूज बनाई और प्रसारित की जा सकती है।

• साइबर सुरक्षा संबंधी खतरेः

इसका इस्तेमाल चुनावी अवसंरचना, मतदाता डेटाबेस और अन्य महत्वपूर्ण प्रणालियों को नुकसान पहुंचाने के उद्देश्य से किया जा सकता है।

• विदेशी प्रभावः

आर्टिफिशियल इंटेलिजेंस किसी विदेशी शक्ति को किसी अन्य देश के चुनाव में अपना प्रभाव बढ़ाने और लोगों को झांसे में लाने में भी मदद कर सकता है।

चुनाव में आर्टिफिशियल इंटेलिजेंस के खतरे को कम करने के लिए आवश्यक कदम:

• ‘भारत के चुनाव आयोग को नवीनतम आर्टिफिशियल इंटेलिजेंस प्रौद्योगिकियों की गहरी समझ रखने वाले बाहरी विशेषज्ञों को शामिल करने पर विचार करना चाहिए।

• सरकार ऐसे नियम बना सकती है,

जो राजनीतिक उद्देश्यों हेतु आर्टिफिशियल इंटेलिजेंस के उपयोग में पारदर्शिता सुनिश्चित करे।

• तकनीकी कंपनियों को भारत में गलत और भ्रामक सूचनाओं को प्रसारित होने से रोकने लिए मेटा फैक्ट चेकिंग हेल्पलाइन जैसे उपाय करने चाहिए।

• सरकार को भ्रम पैदा करने वाले आर्टिफिशियल इंटेलिजेंस के बारे में जन-जागरूकता बढ़ाने का प्रयास करना चाहिए।

Leave a Reply

Your email address will not be published. Required fields are marked *