الذكاء الاصطناعي من أجل السلام والأمن الدوليين
عناية ناصر
ليس هناك شكّ في أن الذكاء الاصطناعي هو تقنية تمكين قوية يمكن استخدامها لدفع التنمية المستدامة العالمية قدماً. يرتبط الذكاء الاصطناعي العسكري والذكاء الاصطناعي من أجل السلام والأمن ارتباطاً وثيقاً، إلا أنهما يختلفان اختلافاً جوهرياً في جوانب معينة، وبوصفه ركيزة أساسية لأهداف التنمية المستدامة، يجب دفع الذكاء الاصطناعي إلى الأمام من أجل إحلال السلام الدولي، والحدّ من مخاطر الأمن والسلامة وليس إذكاءها.
عند التفكير في الذكاء الاصطناعي من أجل الخير وصالح البشرية من منظور السلام والأمن، سيكون من الأفضل بكثير بذل جهود لاستخدام الذكاء الاصطناعي لتحديد وإبراز المعلومات المضللة، وإزالة سوء الفهم بين مختلف البلدان والهيئات السياسية، واستخدام الذكاء الاصطناعي للدفاع عن الشبكة وليس الهجوم، بدلاً من البحث عن طرق لخلق معلومات مضلّلة للأغراض العسكرية والسياسية.
يجب استخدام الذكاء الاصطناعي لربط الناس والثقافات، وليس لفصلهم عن بعضهم البعض، ولهذا السبب تمّ إنشاء محرك تفاعلات ثقافي لإيجاد القواسم المشتركة والتنوعات بين مختلف تراث الثقافة العالمية لليونسكو.
إن أنظمة الذكاء الاصطناعي الحالية، بما في ذلك أنظمة الذكاء الاصطناعي التوليدية الحديثة، كلها أدوات لمعالجة المعلومات، لكن من دون تفاهمات حقيقية. من الواضح أن هذا هو السبب في أنه لا يمكن الوثوق بهم كوكلاء مسؤولين يمكن أن يساعدوا البشر على اتخاذ القرارات. على سبيل المثال، على الرغم من أن العالم لم يتوصل إلى توافق في الآراء بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل، فلا ينبغي استخدام الذكاء الاصطناعي على الأقل لاتخاذ قرارات مباشرة تؤدي إلى تدمير حياة الإنسان. يجب تطبيق التحكم البشري الفعّال والمسؤول من أجل تفاعلات كافية بين الإنسان والذكاء الاصطناعي. أيضاً، لا ينبغي استخدام الذكاء الاصطناعي لأتمتة المهام الدبلوماسية، وخاصة المفاوضات الخارجية بين الدول المختلفة، حيث يمكن أن يكون الذكاء الاصطناعي بهذه الطريقة كارثياً على البشرية. إنه أمر مضحك للغاية ومضلّل وغير مسؤول أن أنظمة الحوار المدعومة بالذكاء الاصطناعي التوليدي تجادل دائماً بـ”أعتقد” و”أنا أقترح”، بينما لا يوجد “أنا”، أو حتى لا يوجد “لأني” في نماذج الذكاء الاصطناعي، وهنا لا بد من التأكيد مرة أخرى، لا ينبغي للذكاء الاصطناعي أبداً التظاهر بأنه إنسان، أو اتخاذ الموقف البشري أو تضليل البشر للحصول على تصوّر خاطئ للذكاء الاصطناعي. يجب أن نستخدم أنظمة الذكاء الاصطناعي التوليدية للمساعدة، لكن لا يجب الوثوق بها أبداً لتحلّ محل البشر في اتخاذ قراراتهم.
يجب أن نضمن التحكم البشري في جميع أنظمة الأسلحة التي تدعم الذكاء الاصطناعي، ويجب أن يكون التحكم البشري كافياً وفعالاً ومسؤولاً. على سبيل المثال، يجب تجنّب الإفراط الإدراكي أثناء التفاعلات بين الإنسان والذكاء الاصطناعي، كما يجب منع انتشار أنظمة الأسلحة التي تدعم الذكاء الاصطناعي، لأن التكنولوجيا ذات الصلة من المرجّح جداً أن يتمّ استخدامها بشكل ضار أو حتى إساءة استخدامها.
سيكون خطر استبدال الذكاء الاصطناعي على المدى القصير والطويل، والتسبّب في انقراض البشرية قائماً. وذلك لأنه على المدى القصير، لم نجد طريقة لحماية أنفسنا من استخدام الذكاء الاصطناعي في الضعف البشري. تستخدم أنظمة الذكاء الاصطناعي التكنولوجيا، لكن ليس لديها فهم لحياة الإنسان أو موته، وعلى المدى الطويل، لم يعطِ الذكاء الخارق أي أسباب عملية تحتّم حماية البشرية، الأمر الذي قد يستغرق عقوداً لتحقيقه، واستناداً إلى ذلك قد نحتاج إلى تغيير الطريقة التي نتفاعل بها مع بعضنا البعض، وكذلك مع الأنواع الأخرى، والبيئة، الأمر الذي سيتطلّب من جميع البشر العمل معاً.
بسبب هذه التحديات قصيرة وطويلة الأجل، لا يمكن حلّ مشكلة الذكاء الاصطناعي من أجل السلام والأمن اليوم. ومع ذلك، على الرغم من أن هذه المناقشة تمثل تحدياً، فقد تكون نقطة انطلاق جيدة للدول الأعضاء. وهنا يتوجب على مجلس الأمن التابع للأمم المتحدة النظر في إمكانية وجود مجموعة عمل معنية بالذكاء الاصطناعي من أجل السلام والأمن للعمل على التحديات قصيرة وطويلة المدى، لأنه على مستوى الخبراء، سيكون العمل معاً أكثر مرونة وعلمياً، ومن الأسهل الوصول إلى توافق في الآراء من وجهة نظر علمية وتقنية، وتقديم المساعدة والدعم للدول الأعضاء في المجلس لاتخاذ القرارات، كما يجب على أعضاء مجلس الأمن أن يضعوا نموذجاً جيداً، وأن يلعبوا دوراً مهماً في هذه القضية المهمّة.
يجب أن يكون الذكاء الاصطناعي لمساعدة الإنسان على حلّ المشكلات، وليس خلق المزيد منها، وهنا سؤال يطرح نفسه حول ما إذا كانت القنبلة النووية بمساعدة الذكاء الاصطناعي يمكن استخدامها لتفجير الكويكب الذي يهاجم الأرض، أو تغيير مساره لتجنّب الاصطدام بالأرض لإنقاذ حياة البشرية. على الرغم من أن الفكرة قد لا تكون راسخة علمياً ومحفوفة بالمخاطر في هذه المرحلة، إلا أنها على الأقل تستخدم الذكاء الاصطناعي لحلّ مشكلة للبشرية، وهو على الأقل أفضل بكثير من تمكين الذكاء الاصطناعي لمهاجمة بعضهم البعض بالأسلحة النووية على هذا الكوكب، مما يخلق مشكلات للبشرية.
مؤخراً، أعلنت العديد من الدول عن استراتيجيتها الخاصة، وآرائها تجاه الذكاء الاصطناعي للأمن والحوكمة بشكل عام، بما في ذلك، على سبيل المثال لا الحصر، الأعضاء الخمسة الدائمون في مجلس الأمن التابع للأمم المتحدة، ويمكن رؤية أن هناك قواسم مشتركة، وتعمل كمدخلات مهمّة للإجماع الدولي، لكن هذا لا يزال غير كافٍ، حيث يجب أن تلعب الأمم المتحدة دوراً مركزياً في وضع إطار عمل لتطوير الذكاء الاصطناعي والحوكمة، لضمان السلام والأمن العالميين. وكمستقبل مشترك للجميع، يجب على الجميع العمل معاً، ووضع جدول أعمال وإطار عمل، دون ترك أي أحد يتخلف عن الركب.