مخاطر الذكاء الاصطناعي على البشرية

اكتشف المخاطر العميقة التي يشكلها الذكاء الاصطناعي على البشرية، بما في ذلك الحلول المحتملة التي يمكن أن تساعد في حماية مستقبلنا.

في مارس 22 و 2023 و إيقاف تجارب الذكاء الاصطناعي العملاقة تم نشر رسالة مفتوحة تدعو جميع المختبرات في جميع أنحاء العالم إلى التوقف فورًا عن تطوير اللقاحات العملاقة AI أنظمة أكبر من برنامج GTP-4 من OpenAI.

السبب وراء هذه الرسالة هو المخاطر العديدة التي تشكلها نماذج الذكاء الاصطناعي المتقدمة على البشرية، مما يجعل من الضروري تطوير وتنفيذ بروتوكولات السلامة لأنظمة الذكاء الاصطناعي المتقدمة في جميع أنحاء العالم بشكل مشترك.

تتناول هذه التدوينة جميع المخاطر التي يشكلها الذكاء الاصطناعي على البشرية، وتنظر في الحلول الممكنة لهذه المخاطر أيضًا.

GPT-4 والرسالة ذات الألف توقيع

بالنسبة لمعظم الناس، يعد الذكاء الاصطناعي أمرًا ممتعًا. فبفضل خوارزميات الذكاء الاصطناعي، يمكنك التقاط صور ومقاطع فيديو ذكية وتحرير ملفاتك بسهولة والعمل بشكل أسرع والحصول على معلومات وتوصيات أفضل وما إلى ذلك.

ومع ذلك، عندما انتشرت أخبار في مارس 2023 حول رسالة مفتوحة لوقف تطوير الذكاء الاصطناعي لفترة من الوقت، كان ما لفت انتباه معظم الناس هو الأسماء التي تقف وراء تلك التوقيعات. إيلون ماسك إلى ستيف وزنياك من شركة آبل، ومئات العلماء البارزين والباحثين الرائدين الآخرين، كان مدى جدية هذه الرسالة واضحًا.

وقد جمعت الرسالة منذ ذلك الحين أكثر من 27 ألف توقيع وما زال العدد في تزايد، ولكن الحقيقة أن تطوير الذكاء الاصطناعي يشبه سباق التسلح. فإذا أبطأت، خسرت.

مخاطر الذكاء الاصطناعي على البشرية

يؤثر الذكاء الاصطناعي على العديد من مجالات الحياة الخاصة والمهنية للأشخاص، اعتمادًا على هويتك وما تفعله. فيما يلي قائمة بالمخاطر الرئيسية التي يفرضها الذكاء الاصطناعي على البشرية بشكل عام.

  1. فقدان الوظائف وأزمة البطالة:إن النزوح المحتمل للعمالة البشرية في جميع أنواع المهن هو أحد المخاوف الرئيسية بشأن الذكاء الاصطناعي. وبالإضافة إلى فقدان الوظائف، يمكن أن يؤدي هذا إلى أزمات في المجتمعات المتضررة، وتفاوتات اجتماعية واقتصادية، وغيرها من الآثار السلبية على المجتمع.
  2. مخاوف أخلاقية:من الخوارزميات المتحيزة إلى فقدان الخصوصية والافتقار إلى المساءلة، تشكل المخاوف الأخلاقية خطرًا رئيسيًا آخر يفرضه الذكاء الاصطناعي على البشرية. من هو المخطئ عندما يؤذي سائق الذكاء الاصطناعي أحد المشاة أو يقتله؟ من المسؤول عن التشخيص الطبي الخاطئ من الذكاء الاصطناعي؟ ومن يجب أن يتحمل المسؤولية عن العواقب غير المقصودة الأخرى، مثل عندما يتسبب الذكاء الاصطناعي في ضرر غير مقصود؟ مع تزايد عدد الروبوتات التي تعمل بالذكاء الاصطناعي والمركبات ذاتية القيادة، ستصبح هذه المخاطر سائدة.
  3. المخاطر الأمنية:إن الاعتماد على الذكاء الاصطناعي في بعض المهام الأمنية، مثل المراقبة والأمن السيبراني والأسلحة ذاتية التشغيل، يفتح الباب أمام العديد من الثغرات المحتملة. فقد تتسبب الأسلحة ذاتية التشغيل في خسائر بشرية جسيمة، على سبيل المثال، لأن الجهات الفاعلة السيئة قد تسمم البيانات التي يعتمد عليها الذكاء الاصطناعي، مما يدفعه إلى اتخاذ قرارات قد تؤدي إلى خسائر بشرية جسيمة أو تصعيد الصراعات المتوترة بالفعل.
  4. فقدان السيطرة البشرية:إن أنظمة الذكاء الاصطناعي البسيطة التي تقدم اقتراحات تصميمية مقبولة، لأنها تعمل حتمًا كمساعدين للخبراء البشريين. ولكن مع نماذج الذكاء الاصطناعي الأكثر تعقيدًا، والتي يمكنها اتخاذ القرارات بناءً على كميات متزايدة من البيانات، فإن الخطر المتمثل في أن يصبح التحكم والإشراف البشري أقل أهمية مرتفعًا. وقد يؤدي هذا إلى ظروف غير متوقعة، لأنه على سبيل المثال، سيكون من الحكمة اتباع توصيات الذكاء الاصطناعي، ولكن هل هي صحيحة حقًا في هذه الحالة؟
  5. المهارة والاعتماد الاقتصاديإن الاعتماد على الذكاء الاصطناعي في توفير الخبرات والخدمات الاقتصادية للمجتمع يشكل مجموعة أخرى من المخاطر. أولاً، يمكن أن يؤدي الاعتماد على الذكاء الاصطناعي في الحصول على المعلومات إلى انخفاض قدرات التفكير لدى البشر، حيث يتولى النظام هذه المهام. ثانياً، يؤدي الاعتماد على الذكاء الاصطناعي في الخدمات والبنية الأساسية الاقتصادية الحيوية إلى فتح هذا المجتمع أمام الهجمات الإلكترونية وغيرها من التهديدات الخاصة بالذكاء الاصطناعي.
  6. التزييف العميق والمعلومات المضللةلقد أذهلت تقنية التزييف العميق العالم بقدراتها المذهلة قبل بضع سنوات، لكن هذه كانت مجرد البداية. ومع تحسن نماذج توليد الصور والفيديو بالذكاء الاصطناعي كل يوم، سيأتي اليوم الذي يصبح فيه من الصعب للغاية - إن لم يكن من المستحيل - التمييز بين المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والصور ومقاطع الفيديو الحقيقية. وكما هو الحال دائمًا، فإن تطبيقاتها المحتملة في التضليل والتشهير والابتزاز والانتقام الإباحي والاحتيال واغتيال الشخصية والهندسة الاجتماعية لا حدود لها.
  7. التفاوت الاقتصادي والتفاوت الاجتماعي:لقد انقسم العالم بالفعل إلى فئتين من الأغنياء والفقراء، مما أدى إلى ظهور مصطلحات مثل النخبة التي تشكل 1% والمضطهدين الذين يشكلون 99%. وبما أن الذكاء الاصطناعي يعتمد على رأس المال من أجل التنمية والتنفيذ الاقتصادي، فإن الخطر يظل قائما بأن نسبة ضئيلة من السكان قد ينتهي بهم الأمر إلى الاستفادة اقتصاديا وبشكل كبير من العائدات المالية للذكاء الاصطناعي المستثمر في الأسواق.
  8. عزلة اجتماعية:أصبح العديد من مستخدمي وسائل التواصل الاجتماعي مدمنين على هواتفهم الذكية، بفضل خوارزميات الذكاء الاصطناعي التي تُظهر لهم ما يريدون رؤيته بالضبط، وتُشركهم في أنشطة ترفيهية أخرى. وقد أدى هذا الاعتماد العاطفي إلى نوع من الإدمان، ما أدى إلى عزلة اجتماعية، حيث يشعر العديد من المستخدمين بالراحة التامة مع هواتفهم. ومع تزايد حلول خدمات الذكاء الاصطناعي محل البشر في حياة الإنسان، سيقلّ تفاعلهم الجسدي.
  9. التلاعب والتأثيرتُستخدم خوارزميات الذكاء الاصطناعي في كل مكان للتلاعب بنجاح بنتائج محركات البحث، ومنشورات مواقع التواصل الاجتماعي، والمساعدين الافتراضيين، وروبوتات الدردشة. إنها مسألة وقت فقط قبل أن يعثر أحدهم على طريقة مبتكرة لتعظيم هذه التأثيرات، سواءً للربح أو للمتعة.
  10. مخاطر الصحة والسلامة:إن الاعتماد على الذكاء الاصطناعي في الرعاية الصحية ينطوي أيضًا على مخاطر قد تعرض صحة المريض ورفاهته للخطر. وتشمل هذه المخاطر التشخيص الخاطئ المحتمل للمرض والعلاج الخاطئ بناءً على بيانات تدريب متحيزة أو تمييزية. وهناك احتمال آخر يتمثل في تسميم بيانات المريض عمدًا من قبل شخص سيئ للتأثير على توصية علاج غير صحية أو حتى قاتلة من الذكاء الاصطناعي.
  11. فقدان الإبداع البشري:تتحسن نماذج اللغة الكبيرة مع إمكانيات إنشاء النصوص والصور والفيديو كل يوم، حيث تقود GPT-4 وStable Diffusion وMidjourney 5 من OpenAI الطريق حاليًا. تجعل هذه الأنظمة من الأسهل والأسرع إنشاء جميع أنواع المحتوى التي تُترك عادةً للفنانين والموهوبين بطبيعتهم، من الموسيقى إلى النصوص المكتوبة والقصائد واللوحات ومقاطع الفيديو والرسومات بالقلم الرصاص. ومع تحسنها وإتاحتها للجميع، يصبح المبدع البشري النموذجي أقل أهمية في المجتمع.
  12. المخاطر الوجودية:إن خطر نظام الذكاء الاصطناعي العام (AGI) الذي يمتلك قدرات تفوق قدرات أي إنسان وبموارد قوية لدرجة أنه يمكنه أن يقرر إخضاع البشر أو إيذاءهم بطريقة ما هو خطر حقيقي للغاية.
  13. انعدام الشفافية:لا أحد يفهم حقًا كيف يعمل الذكاء الاصطناعي، وخاصة عندما تكون الخوارزميات معقدة. وهذا يعني أن لا أحد يعرف بالضبط كيف يتم التوصل إلى قرارات مهمة معينة، مما يؤدي إلى خطر النتائج المتحيزة أو التمييزية، والثغرات الأمنية غير القابلة للكشف والهجمات الخبيثة، وعدم المساءلة عن النتائج.
  14. انخفاض قيمة الإنسان واستقلاليته:من خلال التنبؤ بالأشياء والتوصية بها للبشر، يتولى الذكاء الاصطناعي بشكل مستمر عملية اتخاذ القرار والسيطرة البشرية. وعلاوة على ذلك، قد يؤدي هذا إلى ظهور آلات أو نماذج أكثر تطوراً خارج نطاق السيطرة البشرية. وهذا من شأنه أن يقلل من أهمية الإنسان في العديد من المجالات والمهن، فضلاً عن خفض قيمة المهارات البشرية والخبرة والمساهمات المجتمعية من مختلف المهن في كل مجتمع.
  15. العواقب غير المقصودة:ربما يكون هذا هو أخطر المخاطر التي يفرضها الذكاء الاصطناعي على البشرية. ما هي العواقب غير المقصودة؟ لا أحد يعلم. ولا أحد يستطيع أن يعرف إلا بعد فوات الأوان. هذا على الأقل من الناحية النظرية.

حلول ممكنة لمخاطر الذكاء الاصطناعي

إن المخاطر التي يفرضها الذكاء الاصطناعي على البشرية متعددة الأبعاد، وهذا يعني أن الحلول لهذه المخاطر لابد أن تكون متعددة الأوجه. وفيما يلي بعض الحلول المحتملة للمساعدة في منع مخاطر الذكاء الاصطناعي على البشرية أو الحد منها.

  • التنظيم والحوكمة القوية:تحتاج الحكومات إلى إنشاء هيئات تنظيمية لإدارة وتنظيم تطوير الذكاء الاصطناعي مع المعايير الأخلاقية والشفافية والمساءلة.
  • التعاون الدولي:تحتاج الحكومات في مختلف أنحاء العالم إلى العمل معًا لتطوير المبادئ التوجيهية الأخلاقية لتطوير الذكاء الاصطناعي وتنظيم صناعات الذكاء الاصطناعي المحلية.
  • التثقيف والتوعية العامة:إن تثقيف عامة الناس حول الذكاء الاصطناعي وفوائده ومخاطره المحتملة سيساعد الأفراد والشركات أيضًا على اتخاذ القرارات الصحيحة.
  • الذكاء الاصطناعي القابل للتفسير (XAI):كما يوحي الاسم، فإن XAI أو eXplainable AI هو نهج تطوير الذكاء الاصطناعي الذي يجعل من الممكن للبشر فهم الأسباب وراء تنبؤات النموذج.
  • الذكاء الاصطناعي المسؤول من أجل الصالح الاجتماعي:سوف يرفض الرأسماليون الباحثون عن الربح هذا، لكنه أحد أفضل الأشياء التي يمكن للبشرية أن تفعلها لنفسها. لماذا لا ننشئ طبيبًا أو مساعدًا للذكاء الاصطناعي مجانًا للجميع؟ ماذا عن التقنيات المساعدة، والحفاظ على البيئة، ودعم الصحة العقلية، والخدمات الاجتماعية، والأمن الغذائي، والرفاهة الاجتماعية، وكلها مدعومة بالذكاء الاصطناعي الاجتماعي؟
  • المراقبة والتقييم المستمر:يتعين على كل خبير تقني أو باحث أو عالم مهتم بالذكاء الاصطناعي أن يراقب تطور الذكاء الاصطناعي. فبينما يمكن تنظيم الشركات الكبرى بسهولة وإجبارها على اتباع المبادئ الأخلاقية، لا تزال هناك مجموعات أو فرق غير متوقعة قد تقرر إحداث صدمة للعالم.

الخاتمة

في حين أن الذكاء الاصطناعي لديه القدرة على التأثير بشكل كبير على مستقبل البشرية، فإن فهم مخاطره مهم للغاية أيضًا، لأنه حينها فقط يمكننا العمل بشكل آمن وعادل نحو تحقيق فوائده للجميع، مع التخفيف من هذه المخاطر.

ننامدي أوكيكي

ننامدي أوكيكي

ننامدي أوكيكي هو من عشاق الكمبيوتر ويحب قراءة مجموعة كبيرة من الكتب. يفضل Linux على Windows/Mac وكان يستخدمه
أوبونتو منذ بداياته. يمكنك متابعته على تويتر عبر بونجوتراكس

المقالات: 298

تلقي المواد التقنية

اتجاهات التكنولوجيا، واتجاهات الشركات الناشئة، والمراجعات، والدخل عبر الإنترنت، وأدوات الويب والتسويق مرة أو مرتين شهريًا