Artificial Intelligence
कृत्रिम बुद्धिमत्ता की शक्ति और लोकतांत्रिक मानदंडों के बीच टकराव
Securities.io कठोर संपादकीय मानकों को बनाए रखता है और समीक्षा किए गए लिंक से मुआवज़ा प्राप्त कर सकता है। हम पंजीकृत निवेश सलाहकार नहीं हैं और यह निवेश सलाह नहीं है। कृपया हमारे देखें सहबद्ध प्रकटीकरण.

जैसे-जैसे एआई तकनीक अधिक प्रचलित और शक्तिशाली होती जा रही है, लोकतांत्रिक मूल्यों और तकनीकी प्रगति के बीच संतुलन बनाना उतना ही मुश्किल होता जा रहा है। एक ओर, लोगों के लिए अपने विचारों को जनसमूह के साथ साझा करना पहले से कहीं अधिक आसान हो गया है।
हालांकि, कृत्रिम बुद्धिमत्ता (एआई) में सुरक्षा उपायों की कमी है, जिसका अर्थ है कि यह लगभग हर सामाजिक मापदंड की सीमाओं को लगातार आगे बढ़ाती रहती है। यहां बताया गया है कि एआई डेवलपर एआई की क्षमताओं और लोकतांत्रिक मूल्यों के बीच सामंजस्य स्थापित करने के लिए किस प्रकार प्रयास कर रहे हैं, और ऐसा करना क्यों असंभव हो सकता है।
एआई किस प्रकार अभिव्यक्ति की स्वतंत्रता की सुरक्षा को नया आकार दे रहा है?
कृत्रिम बुद्धिमत्ता ने अभिव्यक्ति की स्वतंत्रता पर गहरा प्रभाव डाला है। एक तो, इसने लोगों के लिए अपने दृष्टिकोण को जीवंत रूप से प्रस्तुत करना और सोशल मीडिया के माध्यम से जनता के साथ साझा करना आसान बना दिया है। साथ ही, इसने उत्पादन लागत को लगभग शून्य कर दिया है, जिससे कोई भी संगठन अपने उद्देश्य का प्रचार वर्चुअल रूप से कर सकता है।
कृत्रिम बुद्धिमत्ता (एआई) उपकरण कई लाभ प्रदान करते हैं, जिनमें विशिष्ट जनसांख्यिकी के अनुरूप संदेशों को आसानी से बदलने और अनुकूलित करने की क्षमता शामिल है। साथ ही, एआई सामग्री को अब तक प्रथम संशोधन के संरक्षण के अंतर्गत माना जाता रहा है। इस प्रकार, यह रचनाकारों को खुलकर अभिव्यक्ति की स्वतंत्रता देता है।
दूसरी ओर, कृत्रिम बुद्धिमत्ता के कारण गलत सूचनाओं का अंबार लग गया है। लोगों के लिए यह पहचानना पहले से कहीं अधिक कठिन हो गया है कि कौन सी जानकारी किसी वास्तविक विशेषज्ञ से प्राप्त हुई है और कौन सी एल्गोरिदम द्वारा बनाई गई है। दुख की बात है कि इसका परिणाम प्रणालियों में विश्वास का क्षरण है।
सोशल मीडिया एल्गोरिदम कृत्रिम बुद्धिमत्ता से उत्पन्न गलत सूचनाओं को कैसे बढ़ावा देते हैं?
इस अराजकता को और बढ़ाते हुए, सोशल मीडिया एल्गोरिदम डीपफेक को बढ़ावा दे सकते हैं क्योंकि वे अक्सर अधिक विवादास्पद होते हैं, जिसके परिणामस्वरूप अधिक इंटरैक्शन होता है। इससे एक ऐसा चक्र बनता है जहां झूठी जानकारी वास्तविक जानकारी से अधिक प्रमुखता से प्रदर्शित होती है। दुर्भाग्य से, ऐसा कोई अनिवार्य नियम नहीं है कि कृत्रिम बुद्धिमत्ता से उत्पन्न गलत सूचना को लेबल किया जाना चाहिए।
लोकतांत्रिक प्रणालियों में कृत्रिम बुद्धिमत्ता और नागरिक भागीदारी
कृत्रिम बुद्धिमत्ता नागरिकों की व्यापक भागीदारी के द्वार खोलती है। इसके सिस्टम सरकार और नागरिकों के लिए अपने विचारों का आदान-प्रदान करना और जनमत का पता लगाना आसान बनाते हैं। इसके अलावा, यह जटिल कानूनों को संक्षेप में प्रस्तुत करने और नागरिकों को सूचित करने के लिए महत्वपूर्ण डेटा साझा करने में भी सहायक सिद्ध हुई है।
एआई निगरानी के जोखिम और लोकतांत्रिक गोपनीयता संबंधी चिंताएँ
वहाँ कई हैं निगरानी जोखिम ऐसी प्रणालियाँ जो कृत्रिम बुद्धिमत्ता (एआई) के माध्यम से भागीदारी बढ़ाने के साथ-साथ विकसित होती हैं। ये प्रणालियाँ मतदाताओं को आसानी से ट्रैक कर सकती हैं। कुछ एआई प्रणालियाँ आपके संपूर्ण डिजिटल पदचिह्न की समीक्षा कर सकती हैं और आपकी वेब गतिविधि के आधार पर आपके राजनीतिक विचारों का आकलन प्रदान कर सकती हैं।
इसके अलावा, इस तकनीक का उपयोग किसी व्यक्ति के डिजिटल फुटप्रिंट या प्राथमिकताओं के आधार पर उसकी पहचान निर्धारित करने के लिए किया जा सकता है। इन सभी उपकरणों के लिए पूर्व तकनीकों की तरह वारंट की आवश्यकता नहीं होती है। ऐसे में, इसके दुरुपयोग की संभावना बढ़ जाती है।
आधुनिक चुनावों और चुनावी निष्पक्षता में कृत्रिम बुद्धिमत्ता की भूमिका
कृत्रिम बुद्धिमत्ता चुनाव प्रक्रिया को कई लाभ प्रदान करती है। उदाहरण के लिए, इससे परिणामों की निगरानी आसान हो जाती है। एआई सिस्टम मतदाताओं को डराने-धमकाने या धमकियों जैसी किसी भी प्रकार की गड़बड़ी का पता लगाने में भी मदद कर सकते हैं।
एआई डीपफेक और राजनीतिक विश्वास का संकट
आज कृत्रिम बुद्धिमत्ता (AI) से उत्पन्न होने वाली तमाम भ्रामक सूचनाओं में से, मुख्य समस्या डीपफेक से जुड़ी है। यह तकनीक लोगों को सार्वजनिक अधिकारियों, उद्योग जगत के पेशेवरों या किसी भी व्यक्ति, यहाँ तक कि राजनीतिक उम्मीदवारों की भी आसानी से प्रतिकृति बनाने में सक्षम बनाती है।

स्रोत - बीबीसी
राजनीतिक डीपफेक वीडियो अधिकारियों के लिए लगातार सिरदर्द बने हुए हैं और जनता के बीच गलत जानकारी फैला रहे हैं। समस्या यह है कि ये नकली वीडियो असली से लगभग अविभेदनीय हो गए हैं। इसी वजह से, अराजकता फैलाने या जनता में अविश्वास पैदा करने की कोशिश करने वाले लगभग हर तरह के समूह ने इनका इस्तेमाल करना शुरू कर दिया है।
“झूठे का लाभांश” और जनता के भरोसे का क्षरण
एआई डीपफेक की लगातार बढ़ती संख्या का एक और अप्रत्याशित प्रभाव है - झूठे का लाभ। इस शब्द का प्रयोग ऐसी घटना के संदर्भ में किया जाता है जिसमें वास्तविक तथ्य और सबूत मौजूद होते हैं, लेकिन फिर भी आरोपी इसे एआई डीपफेक बताकर नकार देता है।
यह रणनीति व्यवस्थाओं पर भरोसे को कम करती है और एक ऐसा परिदृश्य बनाती है जहां आम आदमी सोच-समझकर निर्णय नहीं ले पाता। गलत सूचनाओं के कारण सभी पक्ष विभिन्न विषयों पर ध्रुवीकृत हो जाते हैं, जिससे तर्कसंगत बहस की कोई संभावना भी खत्म हो जाती है।
चुनावों में एआई डीपफेक के वास्तविक दुनिया के उदाहरण
हाल ही में चुनावों के दौरान डीपफेक के कारण हुई गड़बड़ी के कई उदाहरण सामने आए हैं। एक उल्लेखनीय घटना 21 जनवरी, 2024 को घटी, जब एक रोबोकॉल डीपफेक का इस्तेमाल किया गया। एआई सिस्टम को पंजीकृत डेमोक्रेटों से संपर्क करने के लिए तैयार किया गया था।
जब उन्होंने जवाब दिया, तो राष्ट्रपति जो बाइडेन की डीपफेक आवाज उन्हें प्रेरित करने के लिए इसका इस्तेमाल किया गया था।नवंबर के लिए अपना वोट बचाकर रखेंरिपोर्टों से पता चलता है कि उनका संदेश 20,000 लोगों तक पहुंचा, जिसके परिणामस्वरूप कई लोगों ने संदेश में बताए अनुसार चुनाव में भाग न लेने का विकल्प चुना।
रोबोकॉल की खबरें सामने आने के बाद जांच शुरू की गई। हालांकि, तब तक चुनाव समाप्त हो चुका था और कोई भी मतपत्र दोबारा नहीं डाला गया था। यह घटना कृत्रिम बुद्धिमत्ता द्वारा किए गए डीपफेक चुनावी हस्तक्षेप के खतरों को उजागर करने वाले कई उदाहरणों में से एक है।
स्लोवाकिया के 2023 के चुनाव में डीपफेक कांड
चुनावों में एआई के हस्तक्षेप का एक और उदाहरण देखने को मिला। स्लोवाकिया के 2023 के चुनावइस घटना में, प्रोग्रेसिव स्लोवाकिया के नेता माइकल शिमेका को चुनाव में धांधली पर चर्चा करते हुए दिखाने वाला एक फर्जी वीडियो सामने आया। बाद में इस वीडियो को फर्जी घोषित कर दिया गया, लेकिन तब तक इसे टिकटॉक, फेसबुक और टेलीग्राम पर लाखों बार देखा और शेयर किया जा चुका था।
2026 में एआई डीपफेक का पता कैसे लगाएं
डीप फेक वीडियो का पता लगाना आसान काम नहीं है। पहले इस तकनीक में कई तरह की गलतियाँ रह जाती थीं, जैसे कि अप्राकृतिक पलकें झपकना, अजीब रोशनी या यहाँ तक कि लिप सिंकिंग का दिखना। शोध से पता चलता है कि मनुष्य अक्सर उच्च गुणवत्ता वाले डीप फेक वीडियो का पता लगाने में कमजोर होते हैं, और संदर्भ और तरीके के आधार पर उनका प्रदर्शन लगभग संयोग के स्तर का होता है।
किसी वीडियो के डीपफेक होने का पता लगाने का एक तरीका यह है कि गूगल का उपयोग करके इमेज फ्रेम में मूल सामग्री की खोज की जाए। वे ऑडियो का उपयोग करके भी असामान्य ध्वनियों की तलाश करने का प्रयास करेंगे। कुछ मामलों में, कुछ तकनीकी उपकरणों के बिना उच्च गुणवत्ता वाले डीपफेक का पता लगाना असंभव है।
शीर्ष एआई डीपफेक डिटेक्शन टूल्स और उनकी सीमाएं
विडंबना यह है कि किसी वीडियो की वैधता निर्धारित करने के लिए एआई उपकरण सबसे अच्छा विकल्प हैं। इन विकल्पों में शामिल हैं: डीपवेयर स्कैनर, वास्तविकता डिफेंडर, माइक्रोसॉफ्ट वीडियो प्रमाणक, और अधिक.
इन प्रोटोकॉल में ऐसे विशेष एल्गोरिदम होते हैं जो एआई वीडियो फ्रेम में पाई जाने वाली किसी भी पिक्सेल विसंगति या पैटर्न का पता लगाने के लिए डिज़ाइन किए गए हैं। ये सिस्टम स्थानीय डेटा के साथ इन विसंगतियों का मिलान भी कर सकते हैं, जिससे वे एआई हस्तक्षेप का खुलासा कर सकते हैं।
सर्वश्रेष्ठ एआई डिटेक्शन टूल भी पूरी तरह से सटीक नहीं होते, उनमें कुछ प्रोटोकॉल की कमियां होती हैं। बायो-आईडी हाल ही में किए गए परीक्षण में 98% अंक प्राप्त हुए। यह तथ्य कि 2% डीपफेक अन्य एआई प्रणालियों द्वारा भी पहचाने जा सकते थे, भविष्य के लिए चिंता का विषय है।
कृत्रिम बुद्धिमत्ता के हेरफेर से बचाव के रूप में मीडिया साक्षरता
डीपफेक से निपटने का शायद सबसे अच्छा तरीका जनता के बीच मीडिया साक्षरता को बढ़ावा देना है। विशेष रूप से, एक अनिवार्य लेबल होना चाहिए जिससे यह आसानी से निर्धारित किया जा सके कि कोई वीडियो डीपफेक है या असली।
एआई गवर्नेंस में बिग टेक की स्व-नियमन की प्रक्रिया विफल क्यों हुई?
इतिहास गवाह है कि तकनीकी कंपनियां स्व-नियमन नहीं कर सकतीं। उनका ध्यान लाभ और नवाचार पर केंद्रित होता है। यह लालसा गोपनीयता और सच्चाई की कीमत पर आ सकती है। ऐसे में, कोई भी ऐसी स्थिति संभव नहीं है जिसमें कोई तकनीकी कंपनी डीपफेक को अपने अनुयायियों तक पहुंचने से प्रभावी ढंग से रोक सके।
2026 में सरकार द्वारा एआई विनियमन के लिए किए जा रहे प्रयास
तकनीकी कंपनियां इन समस्याओं से बचाव के लिए आवश्यक सुरक्षा उपाय प्रदान करने में असमर्थ हैं, इसलिए सरकारों ने यह जिम्मेदारी उठानी शुरू कर दी है। हालांकि, यह स्थिति आदर्श नहीं है क्योंकि सरकारें प्रौद्योगिकी को उस तरह से नहीं समझती हैं जिससे वे ऐसे सुरक्षा उपाय बना सकें जो नवाचार को बाधित न करें।
एआई कंपनियां बनाम सरकार: 2026 का नीतिगत टकराव
पिछले कुछ महीनों में सरकारों और एआई प्रदाताओं के बीच दरार बढ़ने लगी है। जहां एक ओर सांसद जनता को डीप फेक और गलत सूचनाओं से बचाने के लिए उत्सुक हैं, वहीं दूसरी ओर सेना अपने शस्त्रागार में एआई उपकरणों के पूर्ण एकीकरण के लिए दबाव बना रही है।
इस तकनीक को घातक हमलों की श्रृंखला में शामिल करने की चाहत के चलते कंपनियों और अमेरिकी सरकार के बीच कई सार्वजनिक विवाद हुए हैं। यहाँ कुछ सबसे हालिया घटनाएँ दी गई हैं, जो कृत्रिम बुद्धिमत्ता से होने वाले युद्ध के जोखिमों और संभावित भयावह पहलुओं को उजागर करती हैं।
मानवजनित बनाम अमेरिकी रक्षा विभाग
anthropic क्लाउड एआई मॉडल के इस्तेमाल को लेकर अमेरिका के रक्षा विभाग के साथ सार्वजनिक विवाद चल रहा है। यह असहमति एआई को असीमित पहुंच प्रदान करने को लेकर है, जिसके परिणामस्वरूप सिस्टम का इस्तेमाल बड़े पैमाने पर घरेलू निगरानी के लिए किया जा सकता है।
2021 में लॉन्च हुई एंथ्रोपिक ने भी एआई लक्ष्यीकरण प्रणालियों की विश्वसनीयता को लेकर चिंताओं के कारण पूर्ण पहुंच से इनकार कर दिया है। कंपनी के सीईओ डारियो अमोदेई ने विश्वसनीयता की कमी को मुख्य चिंता बताते हुए इन दोनों सीमाओं को स्पष्ट किया था।
एन्थ्रोपिक द्वारा सैन्य एआई के उपयोग पर प्रस्तावित सीमाएँ
इस संबंध में, पेंटागन का तर्क है कि इस 200 मिलियन डॉलर के अनुबंध में पूर्ण पहुंच शामिल होनी चाहिए। एंथ्रोपिक ने बहस के दौरान कुछ रियायतें दीं, जिनमें मिसाइल और रक्षा में एआई सिस्टम के उपयोग की अनुमति देना शामिल था। इसने यह भी कहा कि अगर एनएसए के अभियानों में अमेरिकी नागरिकों की बड़े पैमाने पर निगरानी शामिल नहीं है, तो उसे कोई आपत्ति नहीं होगी।
पेंटागन ने एंथ्रोपिक के प्रतिबंधों को क्यों अस्वीकार किया?
हालांकि, पेंटागन के अधिकारियों के लिए यह काफी नहीं था। एंथ्रोपिक द्वारा इस दावे को खारिज करने के तुरंत बाद, ट्रम्प प्रशासन ने किसी भी संघीय संगठन द्वारा उनके उत्पादों के उपयोग पर प्रतिबंध लगा दिया। विशेष रूप से, राष्ट्रपति ने एंथ्रोपिक उत्पादों को "राष्ट्रीय सुरक्षा के लिए खतरा" बताया। इस विवाद से संबंधित रिपोर्टों में रक्षा उत्पादन अधिनियम को संभावित दबाव उपकरण के रूप में भी संदर्भित किया गया, हालांकि सटीक कानूनी तर्क का सावधानीपूर्वक वर्णन किया जाना चाहिए जब तक कि इसे सीधे आदेश से उद्धृत न किया जाए।
इस कदम का मतलब है कि एंथ्रोपिक आगे चलकर कोई भी सैन्य या सरकारी अनुबंध हासिल करने में असमर्थ रहेगा, जिससे कंपनी एक अनिश्चित स्थिति में आ गई है जहां उसे अपने मूल सिद्धांतों और मुनाफे के बीच चुनाव करना होगा।
पेंटागन के इस बदलाव पर OpenAI और xAI ने कैसे प्रतिक्रिया दी?
एन्थ्रोपिक की प्रतिस्पर्धी कंपनी ओपनएआई ने तुरंत एन्थ्रोपिक की जगह ले ली और पेंटागन के साथ पूर्ण अनुपालन का वादा किया। इसी क्रम में, कंपनी ने सरकार के साथ एक गोपनीय समझौता किया, जिसमें उसके एआई सिस्टम के अप्रतिबंधित और वैध उपयोग की अनुमति शामिल है।
कृत्रिम बुद्धिमत्ता के वर्तमान सैन्य अनुप्रयोग
युद्ध की गति और पैमाने को बढ़ाने में कृत्रिम बुद्धिमत्ता प्रणालियों के कई उदाहरण पहले से ही मौजूद हैं। ये प्रणालियाँ झुंड ड्रोन तकनीक जैसी बढ़ती स्वायत्त प्रणालियों के साथ मिलकर काम करने के लिए अनुकूलित हैं।
कृत्रिम बुद्धिमत्ता को क्रांतिकारी बदलाव लाने वाली तकनीक के रूप में देखा जाता है क्योंकि यह सेंसरों की एक विशाल श्रृंखला से प्राप्त जानकारियों को एकीकृत करके त्वरित लक्ष्यीकरण और अन्य कई कार्य कर सकती है। यह सैन्य रसद और वित्तीय क्षेत्रों में भी महत्वपूर्ण भूमिका निभाती है, जहां यह निवारक रखरखाव और अन्य प्रमुख कार्यों को समय पर पूरा करने में सहायक होती है।
इज़राइल द्वारा गाज़ा में एआई लक्ष्यीकरण प्रणालियों का उपयोग
इजरायल के गाजा अभियान में एआई लक्ष्यीकरण प्रणालियों के उपयोग पर विशेष रूप से प्रकाश डाला गया। इन अभियानों में एआई जैसे उपकरणों का उपयोग किया गया। लैवेंडर किसी व्यक्ति की गतिविधियों की तुलना संभावित उग्रवादी व्यवहारों से करना।
इस उपकरण की मदद से इजरायली सेना हमास के निचले स्तर के लड़ाकों को ट्रैक करके उनके घरों पर बमबारी करने में सक्षम हुई। गौरतलब है कि इजरायली सैन्य कर्मियों के अनुसार, इस प्रणाली की त्रुटि दर कथित तौर पर 10% है। हालांकि, यह आंकड़ा काफी विवादास्पद है।
“गॉस्पेल” एआई टारगेटिंग सिस्टम की व्याख्या
एक अन्य इजरायली एआई टूल जिसे नाम दिया गया है सुसमाचार यह प्रणाली प्रतिदिन 100 लक्ष्य प्रदान करने के लिए स्थापित की गई है। यह दुश्मन लड़ाकों को पनाह दे सकने वाली संभावित इमारतों का पता लगाने के लिए गतिविधियों और अन्य डेटा का क्रॉस-रेफरेंस करती है। इस प्रणाली का उपयोग अक्सर "पापा कहाँ हैं? एक एआई प्रोग्राम जो चिह्नित कर्मियों की स्वचालित ट्रैकिंग को सक्षम बनाता है।
कानून प्रवर्तन में एआई: खतरे का पता लगाना और गोपनीयता संबंधी जोखिम
कानून प्रवर्तन में एआई प्रणालियों का उपयोग एक और विवादास्पद मुद्दा है। कई लोगों को यह जानकर आश्चर्य हुआ कि चैटजीपीटी की प्रणालियों ने कुछ त्रुटियों को चिह्नित किया। कनाडा के टम्बलर रिज में सामूहिक गोलीबारी की घटनाजेसी वैन रूट्सलार को संभावित खतरे के रूप में देखा जा रहा है।
विशेष रूप से, एआई सिस्टम ने आठ महीने पहले नीति उल्लंघनों को नोट किया, जिसमें उपयोगकर्ता ने बार-बार बंदूक हिंसा से संबंधित प्रश्न पूछे थे। यह प्रश्न कई मानव समीक्षकों को भेजा गया, जिसके परिणामस्वरूप खाते को प्रतिबंधित कर दिया गया और उपयोगकर्ता को चिह्नित किया गया।
एआई फ्लैगिंग सिस्टम अक्सर हस्तक्षेप शुरू करने में विफल क्यों होते हैं?
खतरे की घंटी बजने के बावजूद, कंपनी का कहना है कि यह खाता उनके हिसाब से सक्रिय खतरे की श्रेणी में नहीं आता। इसलिए, अधिकारियों को इसकी सूचना नहीं दी गई। अगर सूचना मिल जाती, तो शायद 10 फरवरी, 2026 को आठ लोगों की जान बचाई जा सकती थी।
दिलचस्प बात यह है कि कंपनी के आंतरिक रिकॉर्ड से पता चलता है कि खाता प्रतिबंधित होने के बाद अधिकारियों को सूचित करने के संबंध में बहस हुई थी। बाद में पता चला कि हमलावर ने अपने हमलों से पहले प्रतिबंध से बचने के लिए एक और खाता खोल लिया था।
सरकारी अधिकारियों का तर्क है कि संदिग्ध चैट की सूचना अधिकारियों को देना OpenAI की जिम्मेदारी थी, और अगर उन्होंने ऐसा किया होता, तो कई जानें बचाई जा सकती थीं। वहीं दूसरी ओर, कंपनी ने कहा कि वह अपने डेटा साझाकरण और प्रतिक्रिया समय में सुधार करेगी और अपनी सीमा को कम करेगी।
“हम विभाजित नहीं होंगे” एआई नैतिकता पत्र
"हम विभाजित नहीं होंगे (पत्र)यह पत्र एआई कर्मचारियों से पूर्णतः स्वायत्त हथियारों और व्यापक निगरानी का सार्वजनिक रूप से विरोध करने और उद्योग भर में लागू करने योग्य सुरक्षा प्रतिबद्धताओं के लिए दबाव बनाने का खुला आह्वान है। पत्र में एआई डेवलपर्स से आग्रह किया गया है कि वे पूर्णतः स्वायत्त हथियारों या व्यापक निगरानी अभियानों का किसी भी तरह से समर्थन न करें।
इसमें साझा सुरक्षा दिशानिर्देशों की एक सूची भी शामिल है, जिनका उद्देश्य अनियंत्रित एआई परिदृश्य को रोकना है। इन दिशानिर्देशों में निगरानी के लिए मानव हस्तक्षेप और किसी भी घातक गतिविधि को मंजूरी देना जैसी बातें शामिल हैं। यह दुरुपयोग को रोकने के लिए पारदर्शिता को भी बढ़ावा देता है।
इस पत्र का मुख्य उद्देश्य नैतिक मानकों का एक ऐसा समूह तैयार करना है जिसका पालन सभी एआई कंपनियां कर सकें ताकि यह तकनीक पृथ्वी पर सभी के लिए जीवन नरक न बना दे। यह पत्र एआई को अपनाने के एक महत्वपूर्ण मोड़ पर आया है, क्योंकि सेनाएं लक्ष्यीकरण और सूचना एकत्र करने के अभियानों के लिए इस तकनीक पर निर्भर हो गई हैं।
प्रमुख एआई कंपनियां सरकार और सेना द्वारा इसके उपयोग पर क्या रुख अपनाती हैं?
इन दो बिल्कुल अलग-अलग परिदृश्यों का अध्ययन करने पर आप देख सकते हैं कि एआई कंपनियां सरकारी एजेंसियों के साथ अपने कार्यों का विलय कैसे कर रही हैं। इस विलय के लिए दुरुपयोग को रोकने के लिए क्षमताओं, सुरक्षा उपायों और पारदर्शिता के बीच एक नाजुक संतुलन की आवश्यकता होगी। सरकारी कार्यों को लेकर प्रत्येक कंपनी का वर्तमान रुख इस प्रकार है।
स्क्रॉल करने के लिए स्वाइप करें →
| Provider | मुद्रा | अनुबंध स्थिति |
|---|---|---|
| anthropic | सीमित पहुँच | संघीय उपयोग प्रतिबंधित/चरणबद्ध तरीके से समाप्त किया जा रहा है |
| गूगल | पूर्ण उद्यम समर्थन | CDAO द्वारा रिपोर्ट किए गए अनुबंध (~$200 मिलियन) |
| OpenAI | “कानूनी उपयोग” तैनाती (दावा किए गए सुरक्षा उपाय) | रक्षा तैनाती की सूचना मिली |
| Xai | “कानूनी उपयोग” की सहमति दर्ज की गई | सरकारी कार्य की रिपोर्ट |
anthropic
एन्थ्रोपिक अपने मूल सिद्धांतों पर कायम रहा है और स्वायत्त लक्ष्यीकरण और बड़े पैमाने पर निगरानी के उपयोग के मामलों पर कड़ी सीमाएं बनाए रखने का प्रयास कर रहा है। हालांकि, ऐसा लगता है कि उसे अपने नैतिक दृष्टिकोण के लिए भारी कीमत चुकानी पड़ रही है, क्योंकि संघीय एजेंसियों ने कुछ खास परिस्थितियों में इसके मॉडलों के उपयोग को प्रतिबंधित या चरणबद्ध तरीके से समाप्त करने की दिशा में कदम उठाए हैं।
OpenAI
ओपनएआई सरकारी एकीकरण के पक्षधर है। जब एंथ्रोपिक्स ने अपने मूल मिशन पर अडिग रहने के कारण रक्षा विभाग का अनुबंध खो दिया, तो कंपनी ने इस अवसर का लाभ उठाने की तीव्र इच्छा दिखाई। ओपनएआई ने "कानूनी उपयोग" के ढांचे के तहत रक्षा परिवेश में मॉडल तैनात करने पर सहमति जताई है। कंपनी का कहना है कि वह घरेलू स्तर पर बड़े पैमाने पर निगरानी को प्रतिबंधित करती है और बल प्रयोग के लिए मानवीय उत्तरदायित्व अनिवार्य करती है।
Xai
एलन मस्क की xAI युद्ध रणनीति में कृत्रिम बुद्धिमत्ता के एकीकरण की प्रबल समर्थक रही है। रिपोर्टों से संकेत मिलता है कि xAI ने "कानूनी उपयोग" की शर्तों के तहत गोपनीय सरकारी तैनाती का समर्थन करने की इच्छा जताई है, हालांकि परिचालन संबंधी विवरण अभी सीमित हैं।
गूगल
गूगल (GOOGL -2.34%) युद्ध में अपनी प्रणाली के उपयोग को लेकर कंपनी के भीतर काफी बहस चल रही है। कंपनी के 300 से अधिक प्रमुख कर्मचारियों ने एक खुले पत्र पर हस्ताक्षर किए, जिसमें एआई प्रदाताओं से पेंटागन के साथ खुले अनुबंधों को अस्वीकार करने का आग्रह किया गया था। हालांकि, गूगल के पास सीडीएओ के साथ 200 मिलियन डॉलर से अधिक के अनुबंध हैं, जिसका अर्थ है कि उन पर झुकने का काफी दबाव है।
गूगल (GOOGL) की ताज़ा खबरें और प्रदर्शन
टेक्सास के वकील और अंशकालिक पादरी जिन्होंने मेटा और गूगल को मात दी
क्या अल्फाबेट के शेयर अभी भी खरीदने लायक हैं?
अल्फ़ाबेट: सोशल मीडिया से जुड़ा मुकदमा दीर्घकालिक जोखिम नहीं है
ऑस्टिन लियोन्स ने NVDA, ARM, Google TurboQuant और नए AI नवाचारों पर बात की।
ये 3 'मैग 7' स्टॉक बाकी शेयरों से आगे निकलने की संभावना रखते हैं
वॉल स्ट्रीट राउंडअप: बाजार का रुख रक्षा क्षेत्र की ओर
एआई शासन और लोकतांत्रिक स्थिरता का भविष्य
सरकारी कामकाज से लेकर सैन्य अभियानों तक, हर क्षेत्र में कृत्रिम बुद्धिमत्ता (एआई) प्रणालियों के एकीकरण का अध्ययन करने पर सुरक्षा उपायों की आवश्यकता स्पष्ट रूप से दिखाई देती है। ये प्रणालियाँ तकनीकी और सामाजिक दोनों दृष्टियों से बेहद शक्तिशाली हो गई हैं। उम्मीद है कि एआई कंपनियाँ समय रहते अपने इस विभाजन के महत्व को समझेंगी और नैतिक मानकों का पालन करेंगी। वर्तमान स्थिति को देखते हुए ऐसा लगता है कि इस दौड़ में मुनाफा ही जीतेगा।
एआई के अन्य विकासों के बारे में जानें यहाँ उत्पन्न करें.












