मानवता के लिए एआई के खतरे

आर्टिफिशियल इंटेलिजेंस (एआई) द्वारा मानवता के लिए उत्पन्न गंभीर खतरों की खोज करें, जिसमें संभावित समाधान भी शामिल हैं जो हमारे भविष्य को सुरक्षित रखने में मदद कर सकते हैं।

मार्च 22, 2023, पर विशालकाय AI प्रयोगों को रोकें खुला पत्र प्रकाशित हुआ, जिसमें दुनिया भर की सभी प्रयोगशालाओं से विकासशील दिग्गजों को तत्काल बंद करने का आह्वान किया गया AI सिस्टम से बड़ा OpenAI का GTP-4.

इस पत्र के पीछे तर्क उन्नत एआई मॉडल मानवता के सामने आने वाले कई खतरों के बारे में है, जिससे दुनिया भर में उन्नत कृत्रिम बुद्धि प्रणालियों के लिए सुरक्षा प्रोटोकॉल को संयुक्त रूप से विकसित और कार्यान्वित करना आवश्यक हो गया है।

यह पोस्ट एआई द्वारा मानवता के लिए उत्पन्न सभी खतरों को देखता है और इन खतरों के संभावित समाधानों पर भी विचार करता है।

GPT-4 और 1,000-हस्ताक्षर पत्र

ज्यादातर लोगों के लिए, एआई मजेदार है। आप आर्टिफिशियल इंटेलिजेंस एल्गोरिदम के लिए धन्यवाद, स्मार्ट तस्वीरें और वीडियो कैप्चर कर सकते हैं, अपनी सामग्री को आसानी से संपादित कर सकते हैं, तेजी से काम कर सकते हैं, बेहतर जानकारी, सिफारिशें प्राप्त कर सकते हैं।

हालाँकि, जब मार्च 2023 में एआई के विकास को कुछ समय के लिए रोकने के लिए एक खुले पत्र की खबर आई, तो सबसे अधिक लोगों का ध्यान उन हस्ताक्षरों के पीछे के नामों पर गया। से एलोन मस्क सेवा मेरे एप्पल के स्टीव वोज्नियाक, और सैकड़ों अन्य उल्लेखनीय वैज्ञानिक और प्रमुख शोधकर्ता, इस पत्र की गंभीरता स्पष्ट थी।

पत्र के बाद से 27k से अधिक हस्ताक्षर और गिनती हुई है, लेकिन सच कहा जाए- एआई विकास हथियारों की दौड़ की तरह है। आप धीमे हो जाते हैं, आप हार जाते हैं।

मानवता के लिए एआई के खतरे

आर्टिफिशियल इंटेलिजेंस लोगों के निजी और पेशेवर जीवन के कई क्षेत्रों को छूता है, यह इस बात पर निर्भर करता है कि आप कौन हैं और आप क्या करते हैं। निम्नलिखित सामान्य रूप से मानवता के लिए एआई के प्रमुख खतरों की एक सूची है।

  1. नौकरी विस्थापन और बेरोजगारी संकट: सभी प्रकार के व्यवसायों में मानव श्रमिकों का संभावित विस्थापन एआई के बारे में प्रमुख चिंताओं में से एक है। नौकरी छूटने के अलावा, इससे प्रभावित समाजों में संकट, सामाजिक-आर्थिक विषमताएँ और समाज पर अन्य नकारात्मक प्रभाव पड़ सकते हैं।
  2. नैतिक चिंताएं: पक्षपातपूर्ण एल्गोरिदम से गोपनीयता की हानि और जवाबदेही की कमी, नैतिक चिंताएं एआई द्वारा मानवता के लिए एक और बड़ा खतरा हैं। यह किसकी गलती है जब एआई चालक पैदल यात्री को चोट पहुँचाता है या मारता है? एआई से गलत चिकित्सा निदान के लिए कौन जिम्मेदार है? और अन्य अनपेक्षित परिणामों के लिए किसे जवाबदेह ठहराया जाना चाहिए, जैसे कि जब AI अनजाने में हानि पहुँचाता है? जैसे-जैसे एआई-संचालित रोबोट और स्वायत्त ड्राइविंग वाहन एक वास्तविकता बनेंगे, ये खतरे मुख्यधारा बन जाएंगे।
  3. सुरक्षा जोखिम: निगरानी, ​​साइबर सुरक्षा और स्वायत्त हथियारों जैसे कुछ सुरक्षा कार्यों के लिए कृत्रिम बुद्धिमत्ता पर निर्भरता कई संभावित कारनामों को खोलती है। उदाहरण के लिए, स्वायत्त हथियार गंभीर हताहतों का कारण बन सकते हैं, क्योंकि खराब अभिनेता उस डेटा को जहरीला बना सकते हैं, जिस पर एआई निर्भर करता है, जिससे निर्णय लेने में मदद मिलती है जिससे गंभीर हताहत हो सकते हैं या पहले से ही तनावपूर्ण संघर्ष बढ़ सकते हैं।
  4. मानव नियंत्रण का नुकसान: सरल एआई सिस्टम जो डिजाइन सुझाव देते हैं ठीक हैं, क्योंकि वे अनिवार्य रूप से मानव विशेषज्ञों के सहायक के रूप में कार्य करते हैं। लेकिन अधिक जटिल एआई मॉडल के साथ, जो बड़ी मात्रा में डेटा के आधार पर निर्णय ले सकते हैं, मानव नियंत्रण और पर्यवेक्षण कम प्रासंगिक हो जाने का खतरा अधिक है। यह अप्रत्याशित परिस्थितियों को जन्म दे सकता है, क्योंकि उदाहरण के लिए, एआई की सिफारिशों का पालन करना बुद्धिमानी होगी, लेकिन क्या वे वास्तव में उस उदाहरण में सही हैं?
  5. कौशल और आर्थिक निर्भरता: समाज की विशेषज्ञता और आर्थिक सेवाओं के लिए एआई पर निर्भरता खतरों का एक और सेट प्रस्तुत करती है। सबसे पहले, सूचना के लिए एआई पर निर्भरता से मनुष्यों की सोचने की क्षमता कम हो सकती है, क्योंकि सिस्टम इन कर्तव्यों को संभाल लेता है। दूसरे, सेवाओं और महत्वपूर्ण आर्थिक बुनियादी ढांचे के लिए एआई पर निर्भरता उस समाज को साइबर हमलों और अन्य एआई-विशिष्ट खतरों के लिए खोलती है।
  6. डीपफेक और गलत सूचना: डीपफेक ने कुछ साल पहले दुनिया को अपनी अद्भुत क्षमताओं से चकित कर दिया था, लेकिन यह तो बस शुरुआत थी। जैसा कि एआई फोटो- और वीडियो-जेनरेशन मॉडल हर दिन बेहतर होते जा रहे हैं, वह दिन आएगा जब एआई-जेनरेट की गई सामग्री को वास्तविक तस्वीरों और वीडियो से अलग करना बहुत मुश्किल हो जाएगा - यदि असंभव नहीं है। और हमेशा की तरह, गलत सूचना, मानहानि, जबरन वसूली, ब्लैकमेल, रिवेंज पोर्न, धोखाधड़ी, चरित्र हनन और सोशल इंजीनियरिंग के लिए इसके संभावित कार्यान्वयन असीम हैं।
  7. आर्थिक असमानता और सामाजिक असमानता: दुनिया पहले से ही अमीरों और वंचितों के दो वर्गों में विभाजित है, जिससे 1% अभिजात वर्ग और 99% उत्पीड़ित जैसे शब्द सामने आते हैं। जैसा कि एआई विकास और आर्थिक कार्यान्वयन के लिए पूंजी पर निर्भर करता है, यह खतरा अधिक रहता है कि आबादी का कुछ प्रतिशत भी आर्थिक रूप से और व्यापक रूप से बाजारों में निवेशित कृत्रिम बुद्धिमत्ता के वित्तीय रिटर्न से लाभान्वित होगा।
  8. सामाजिक अलगाव: कई सोशल मीडिया उपयोगकर्ता पहले से ही अपने स्मार्टफोन से जुड़े हुए हैं, एआई एल्गोरिदम के लिए धन्यवाद जो उन्हें वही दिखाता है जो वे देखना चाहते हैं और उन्हें अन्य मनोरंजक तरीकों से जोड़ते हैं। इस भावनात्मक निर्भरता ने कुछ स्तर की लत और परिणामी सामाजिक अलगाव पैदा कर दिया है, जिसमें कई उपयोगकर्ता अपने फोन के साथ अकेले सहज महसूस कर रहे हैं। इसके अलावा, जैसे-जैसे अधिक एआई सेवाएं मनुष्य के जीवन में मनुष्यों की जगह लेती हैं, वैसे-वैसे उनकी शारीरिक बातचीत भी कम होती जा रही है।
  9. हेरफेर और प्रभाव: खोज इंजन परिणामों, सोशल मीडिया फीड्स, आभासी सहायकों और चैटबॉट्स में सफलतापूर्वक हेरफेर करने के लिए एआई एल्गोरिदम पहले से ही हर जगह उपयोग किए जाते हैं। लाभ या मौज-मस्ती के लिए इन प्रभावों को अधिकतम करने के लिए किसी के अभिनव तरीके से ठोकर खाने से पहले यह केवल समय की बात है।
  10. स्वास्थ्य और सुरक्षा जोखिम: स्वास्थ्य देखभाल के लिए एआई पर निर्भरता के साथ ऐसे जोखिम भी आते हैं जो रोगी के स्वास्थ्य और तंदुरुस्ती को खतरे में डाल सकते हैं। उनमें पक्षपातपूर्ण या भेदभावपूर्ण प्रशिक्षण डेटा के आधार पर बीमारी के संभावित गलत निदान और गलत उपचार शामिल हैं। एक अन्य संभावना यह है कि एआई से अस्वास्थ्यकर या यहां तक ​​कि घातक उपचार की सिफारिश को प्रभावित करने के लिए एक बुरे अभिनेता द्वारा रोगी के डेटा का जानबूझकर जहर दिया जाता है।
  11. मानव रचनात्मकता का नुकसान: OpenAI के GPT-4, स्थिर प्रसार, और Midjourney 5 वर्तमान में आगे बढ़ने के साथ पाठ, छवि और वीडियो निर्माण क्षमताओं के साथ बड़े भाषा मॉडल हर दिन बेहतर हो रहे हैं। ये प्रणालियां आमतौर पर कलाकारों और स्वाभाविक रूप से प्रतिभाशाली लोगों के लिए संगीत से लेकर लिखित पाठ, कविताएं, पेंटिंग, वीडियो और पेंसिल स्केच के लिए छोड़ी गई सभी प्रकार की सामग्री को बनाना आसान और तेज़ बनाती हैं। जैसे-जैसे वे बेहतर होते जाते हैं और सभी के लिए उपलब्ध होते जाते हैं, आदर्श मानव निर्माता समाज में कम से कम प्रासंगिक होता जाता है।
  12. अस्तित्वगत जोखिम: एक आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) प्रणाली का खतरा किसी भी मानव से कहीं अधिक क्षमताओं और संसाधनों के साथ इतना शक्तिशाली है कि यह मनुष्यों को अधीन करने या किसी तरह से नुकसान पहुंचाने का फैसला कर सकता है, यह बहुत वास्तविक है।
  13. पारदर्शिता की कमी: कोई भी वास्तव में यह नहीं समझता कि आर्टिफिशियल इंटेलिजेंस कैसे काम करता है, खासकर जब एल्गोरिदम जटिल होते हैं। इसका मतलब यह है कि शायद ही कोई जानता है कि कुछ महत्वपूर्ण निर्णय कैसे किए जाते हैं, पक्षपाती या भेदभावपूर्ण आउटपुट, ज्ञानी सुरक्षा कमजोरियों और दुर्भावनापूर्ण हमलों, और परिणामों की गैर-जवाबदेही के खतरे के कारण।
  14. कम मानवीय मूल्य और स्वायत्तता: मनुष्यों के लिए चीजों की भविष्यवाणी और सिफारिश करके, एआई लगातार मानव निर्णय लेने और नियंत्रण पर कब्जा कर रहा है। इसके अलावा, इससे और भी बेहतर विकसित मशीनें या मॉडल बन सकते हैं जो मानव नियंत्रण से परे हैं। और यह कई क्षेत्रों और व्यवसायों में मानवीय प्रासंगिकता को कम करेगा, साथ ही प्रत्येक समाज में विभिन्न व्यवसायों से मानव कौशल, विशेषज्ञता और सामाजिक योगदान का अवमूल्यन करेगा।
  15. अनायास नतीजे: यह एआई द्वारा मानवता के लिए उत्पन्न सभी खतरों में से शायद सबसे खतरनाक है। अनपेक्षित परिणाम क्या हैं? कोई नहीं जानता। बहुत देर होने तक कोई नहीं जान सकता। वह कम से कम, सिद्धांत रूप में है।

एआई के खतरों के संभावित समाधान

मानवता के लिए एआई के खतरे बहुआयामी हैं और इसका मतलब है कि इन खतरों का समाधान बहुआयामी होना चाहिए। एआई के खतरों को मानवता के लिए रोकने या उन्हें कम करने में मदद करने के लिए यहां कुछ संभावित समाधान दिए गए हैं।

  • मजबूत विनियमन और शासन: सरकारों को नैतिक मानकों, पारदर्शिता और जवाबदेही के साथ एआई विकास को प्रबंधित और विनियमित करने के लिए नियामक निकायों की स्थापना करने की आवश्यकता है।
  • अंतरराष्ट्रीय सहयोग: दुनिया भर की सरकारों को एआई के विकास के लिए नैतिक दिशानिर्देश विकसित करने और अपने स्थानीय एआई उद्योगों को विनियमित करने के लिए मिलकर काम करने की आवश्यकता है।
  • सार्वजनिक शिक्षा और जागरूकता: आर्टिफिशियल इंटेलिजेंस, इसके लाभों और संभावित जोखिमों के बारे में आम जनता को शिक्षित करने से भी व्यक्तियों और व्यवसायों को सही निर्णय लेने में मदद मिलेगी।
  • व्याख्या करने योग्य एआई (एक्सएआई): जैसा कि नाम से पता चलता है, XAI या eExplainable AI एक AI विकास दृष्टिकोण है जो मनुष्यों के लिए मॉडल की भविष्यवाणियों के पीछे तर्क को समझना संभव बनाता है।
  • सामाजिक भलाई के लिए जिम्मेदार एआई: मुनाफाखोर पूंजीपति इसे खारिज कर देंगे, लेकिन मानवता अपने लिए सबसे अच्छी चीजों में से एक है। सभी के लिए एक निःशुल्क एआई डॉक्टर या सहायक क्यों नहीं बनाया जाता? सोशल एआई द्वारा संचालित सहायक तकनीकों, पर्यावरण संरक्षण, मानसिक स्वास्थ्य सहायता, सामाजिक सेवाओं, खाद्य सुरक्षा और सामाजिक कल्याण के बारे में क्या ख्याल है?
  • सतत निगरानी और मूल्यांकन: हर संबंधित टेक्नोलॉजिस्ट, शोधकर्ता या वैज्ञानिक को एआई के विकास पर नजर रखनी होगी। क्योंकि जबकि प्रमुख कंपनियों को आसानी से विनियमित किया जा सकता है और नैतिक दिशानिर्देशों का पालन करने के लिए बनाया जा सकता है, फिर भी ऐसे अप्रत्याशित समूह या दल हैं जो दुनिया को चौंका देने का निर्णय ले सकते हैं।

निष्कर्ष

जबकि कृत्रिम बुद्धिमत्ता में मानवता के भविष्य को नाटकीय रूप से प्रभावित करने की क्षमता है, इसके खतरों को समझना भी गंभीर रूप से महत्वपूर्ण है, क्योंकि तभी हम इन जोखिमों को कम करते हुए सभी के लिए इसके लाभों के लिए सुरक्षित और समान रूप से काम कर सकते हैं।

ननमदी ओकेके

ननमदी ओकेके

ननमदी ओकेके एक कंप्यूटर उत्साही हैं जो पुस्तकों की एक विस्तृत श्रृंखला को पढ़ना पसंद करते हैं। उसे विंडोज़/मैक पर लिनक्स के लिए प्राथमिकता है और वह उपयोग कर रहा है
अपने शुरुआती दिनों से उबंटू। आप उसे ट्विटर पर पकड़ सकते हैं बोंगोट्रैक्स

लेख: 278

तकनीकी सामान प्राप्त करें

तकनीकी रुझान, स्टार्टअप रुझान, समीक्षाएं, ऑनलाइन आय, वेब टूल और मार्केटिंग एक या दो बार मासिक

एक जवाब लिखें

आपका ईमेल पता प्रकाशित नहीं किया जाएगा। आवश्यक फ़ील्ड इस तरह चिह्नित हैं *