مفتاح التحكم بمخاطر نظام الأسلحة الموجهة بالذكاء الاصطناعي
إن تطوير الذكاء الاصطناعي وأنظمة الأسلحة المستقلة من شأنه أن يعزز القدرة الدفاعية لبعض البلدان، ويغير المناظر الاستراتيجية والتكتيكية التقليدية، ما يؤدي إلى ظهور تحديات جديدة ويجعل إدارة المخاطر أكثر صعوبة.
وبشكل عام، يمكن أن يؤدي تطبيق تكنولوجيا الذكاء الاصطناعي في قطاع الدفاع إلى زيادة دقة الهجمات، ولكنه قد يؤدي أيضاً إلى المزيد من سوء الفهم وسوء التقدير، وتصعيد النزاعات والمواجهات وعلى سبيل المثال، يمكن لأنظمة الأسلحة الموجهة بدقة أن تضرب الأهداف بكفاءة وفعالية أكبر، ويمكن أن تعمل عملية اتخاذ القرار السريعة للذكاء الاصطناعي على تحسين كفاءة القتال ولكنها تزيد من فرص سوء التقدير السياقي.
وبشكل خاص، يمكن لتطبيق الذكاء الاصطناعي في حرب المعلومات، بما في ذلك التزييف العميق، أن ينشر معلومات كاذبة وبالتالي يزيد من فرص الأعداء في اتخاذ القرار الخاطئ، ما يجعل الصراعات أكثر صعوبة في التنبؤ بها والسيطرة عليها.
أولاً، قد تخطئ أنظمة الأسلحة الموجهة بالذكاء الاصطناعي في الحكم على الأهداف وتحديدها بشكل خاطئ، وتخطئ في اعتبار المدنيين أو القوات الصديقة وغير العسكرية أهدافاً، ما يتسبب في وفيات وتدمير غير ضروريين ويمكن أن تؤدي مثل هذه الأحكام الخاطئة إلى ردود فعل قوية أو انتقام من الأعداء.
وإذا لم تتمكن أنظمة الأسلحة الموجهة بالذكاء الاصطناعي من فهم بيئة ساحة المعركة المعقدة، فقد تتخذ قرارات خاطئة وعلى سبيل المثال، قد يفشل الذكاء الاصطناعي في فهم النوايا التكتيكية للعدو أو المعلومات الخلفية، مما يؤدي إلى فشل العمل أو الاستخدام المفرط للقوة.
ثانياً، قد تفتقر أنظمة الأسلحة الموجهة بالذكاء الاصطناعي إلى المرونة في اتخاذ القرار أو تفشل في التعامل مع الديناميكيات المعقدة لساحة المعركة، بسبب اعتمادها على قواعد وخوارزميات محددة مسبقاً.
ثالثاً، قد تكون أنظمة الأسلحة الموجهة بالذكاء الاصطناعي عرضة لهجمات القرصنة وتحمل مخاطر الأمن السيبراني وعلى سبيل المثال، يمكن للقراصنة تعطيل أنظمة الدفاع أو الأسوأ من ذلك، التلاعب بها لاتخاذ قرار خاطئ أو شنّ هجمات وفي الواقع، يمكن أن تشكل أنظمة الأسلحة الموجهة بالذكاء الاصطناعي، بمجرد خروجها عن السيطرة، تهديداً خطيراً لجانبها كما يمكن أن تقع أنظمة الأسلحة الموجهة بالذكاء الاصطناعي في أيدي الإرهابيين.
ورابعاً، على الرغم من أن تطبيقات الذكاء الاصطناعي يمكن أن تسرع عملية اتخاذ القرار، فمن المشكوك فيه ما إذا كان الذكاء الاصطناعي قادراً على اتخاذ قرارات سريعة بعد تقييم عواقب قراراته وهذا يتطلب وضع قواعد دولية صارمة وآليات إشراف لتقليل المخاطر التي تشكلها أنظمة الأسلحة الموجهة بالذكاء الاصطناعي، وضمان استخدام الذكاء الاصطناعي لتحسين حياة الناس.
وللتأكد من إمكانية التحكم في أنظمة الأسلحة الموجهة بالذكاء الاصطناعي، يجب تصميمها بالتعاون بين الإنسان والآلة، مع سيطرة البشر على العملية ويجب أن تكون هناك واجهات وآليات ردود فعل لتزويد المشغلين بتحديثات منتظمة حول التطورات، بحيث يمكن التدخل في الوقت المناسب إذا لزم الأمر.
أما بالنسبة للدول التي تتعاون لصياغة القواعد واللوائح الدولية، فيجب عليها تسليط الضوء على أهمية المعاهدات والاتفاقيات العالمية – على غرار اتفاقية الأسلحة البيولوجية واتفاقية الأسلحة الكيميائية – في تنظيم استخدام الذكاء الاصطناعي في التطبيقات العسكرية وتجدر الإشارة إلى أن وضع المعايير التكنولوجية وتعزيز أفضل الممارسات يمكن أن يساعد في ضمان تلبية أنظمة أسلحة الذكاء الاصطناعي لمتطلبات السلامة والأخلاق.
وإلى جانب ذلك، يجب أن تكون أنظمة الذكاء الاصطناعي أكثر شفافية، وتحتاج البلدان إلى اتباع عملية تطوير مفتوحة وشفافة، والتي يمكن مراجعتها والتحقق منها إذا نشأت مثل هذه الحاجة وسيساعد هذا في تحديد المشاكل المحتملة وجعل الأنظمة أكثر موثوقية ويجب توظيف شركات تدقيق مستقلة لمراجعة حسابات الشركات المصنعة سنوياً وإجراء عمليات تفتيش منتظمة للتأكد من امتثالها للأنظمة الدولية.
وهناك حاجة أيضاً إلى تعزيز الأطر الأخلاقية والقانونية لضمان تطبيق أنظمة الذكاء الاصطناعي للاستخدام العسكري بما يتماشى مع القوانين الإنسانية والدولية، ومحاسبة مصنعي أنظمة أسلحة الذكاء الاصطناعي إذا انتهكوا المعايير المعمول بها.
والأمر الأكثر أهمية هو ضرورة إنشاء آليات التحكم والمراقبة لضمان الإشراف البشري في عمليات صنع القرار المتعلقة بالذكاء الاصطناعي، لأن البشر وحدهم قادرون على منع الأنظمة الآلية من الخروج عن السيطرة.
وينبغي أيضاً اتخاذ تدابير لتعزيز الأمن السيبراني من أجل إحباط محاولات القرصنة والتلاعب بترتيبات الأمن متعددة الطبقات مثل التشفير والمصادقة وكشف التسلل وآليات الاستجابة للطوارئ، وإذا لزم الأمر، استعادة العمليات بسرعة بعد هجوم سيبراني أو فشل النظام.
وباختصار، ينبغي للدول أن تنخرط في التعاون الدولي وتبادل المعلومات في مجال تطبيقات الذكاء الاصطناعي العسكرية للتغلب بشكل جماعي على التحديات التكنولوجية، مع اتخاذ التدابير اللازمة لضمان عدم انتهاك القواعد واللوائح، لأنها قد تؤدي إلى خلق حالة من الفوضى، ما يؤدي إلى سوء التقدير والقرارات الخاطئة التي قد تؤدي إلى نشوب الصراعات وينبغي أن تهدف الجهود العالمية إلى الحد من مخاطر الصراع وضمان سيطرة البشر على تطبيقات الذكاء الاصطناعي العسكرية.
عائدة أسعد