دراساتصحيفة البعث

تطوّر الذكاء الاصطناعي وآثاره في حروب المستقبل

عناية ناصر

أحدث التقدّم التكنولوجي السريع ثورة في جوانب مختلفة من حياة الإنسان، بما في ذلك الحرب. وبرز من بين هذه التطوّرات التكنولوجية، الذكاء الاصطناعي كأداة قوية لديها القدرة على إعادة تشكيل مشهد الحرب المستقبلية، حيث يوفّر الذكاء الاصطناعي قدراتٍ جديدة في تحليل البيانات، واتخاذ القرار، والأنظمة المستقلة، ما قد يؤدّي إلى تغييرات كبيرة في الاستراتيجيات والعمليات العسكرية والاعتبارات الأخلاقية.

لقد اكتسب الذكاء الاصطناعي الذي يعدّ المجال الذي يركّز على إنشاء آلات ذكية قادرة على محاكاة الوظائف المعرفية البشرية، قوة جذب هائلة في مختلف القطاعات، بما في ذلك الدفاع. إن دمج الذكاء الاصطناعي في الحرب مدفوع بالحاجة إلى معالجة أسرع وأكثر دقة للبيانات، وتحسين عملية صنع القرار، وتقليل المخاطر البشرية في ساحة المعركة.

لقد أصبحت الأنظمة المستقلة التي تعتمد على الذكاء الاصطناعي، مثل الطائرات دون طيار، والروبوتات الأرضية، والمركبات تحت الماء، جزءاً لا يتجزأ من العمليات العسكرية الحديثة، حيث يمكن لهذه الأنظمة تنفيذ عمليات الاستطلاع والمراقبة وحتى الضربات المستهدفة دون تعريض الجنود البشريين للأذى.

تتيح قدرة الذكاء الاصطناعي على معالجة كميات هائلة من البيانات في الوقت الفعلي إدراكاً أكثر دقة للموقف، حيث يمكن للتحليلات التنبّؤية التنبّؤ بتحركات العدو وتحليل الأنماط وتعزيز التخطيط الاستراتيجي، الأمر الذي يمكّن القادة العسكريين من اتخاذ قرارات مستنيرة.

يمكن لأنظمة الذكاء الاصطناعي معالجة المعلومات وتحليلها بسرعة، ما يساعد القادة في اتخاذ قرارات أسرع وأكثر استنارة، كما أن تكامل خوارزميات التعلم الآلي يمكّن الذكاء الاصطناعي من التعلم من البيانات التاريخية، وتحسين قدراته على اتخاذ القرار بمرور الوقت. إن إحدى المزايا الأكثر وضوحاً للذكاء الاصطناعي في الحرب هي القدرة على تقليل الخسائر البشرية، كما يمكن استخدام الأنظمة المستقلة في السيناريوهات العالية المخاطر، ما يخفف من المخاطر التي يواجهها الجنود على الخطوط الأمامية. وفي هذا الإطار يمكن لأنظمة الأسلحة الموجهة بالذكاء الاصطناعي أن تزيد من دقة الهجمات، ما يقلل من الأضرار الجانبية والإصابات بين المدنيين، ويمكن أن تؤدّي هذه الدقة المتزايدة إلى استخدام أكثر كفاءة للموارد وتصوّر عام أكثر إيجابية للعمليات العسكرية.

يثير استخدام الذكاء الاصطناعي في الحرب أسئلة أخلاقية كبيرة، حيث يثير  تفويض عملية صنع القرار المميت إلى الأنظمة المستقلة مخاوف بشأن المساءلة، فضلاً عن احتمال انتهاك أنظمة الذكاء الاصطناعي للمعايير الأخلاقية والقانونية أثناء القتال، كما أن أنظمة الذكاء الاصطناعي ليست محصّنة ضد الأعطال التقنية أو الهجمات السيبرانية. إن الاعتماد بشكل كبير على الذكاء الاصطناعي يمكن أن يجعل العمليات العسكرية عرضة للقرصنة، ما يؤدّي إلى عواقب كارثية محتملة إذا تعرضت الأنظمة التي يسيطر عليها الذكاء الاصطناعي للخطر، إضافة إلى أن تطوير ونشر التكنولوجيا العسكرية المعتمدة على الذكاء الاصطناعي يمكن أن يؤدي إلى سباق تسلح، حيث تسعى الدول جاهدة للتفوق على بعضها في قدرات الذكاء الاصطناعي، الأمر الذي قد يؤدّي إلى زعزعة استقرار الأمن العالمي إذا لم يتم تنظيمه بشكل صحيح.

لقد أصبح تحديد المسؤولية عن الإجراءات التي تقوم بها أنظمة الذكاء الاصطناعي في ساحة المعركة أمراً معقداً، كما أن تحديد المسؤولية ومعالجتها في حالات الضرر غير المقصود أو انتهاكات القانون الدولي تشكّل تحدّياً. وبالمثل، فإن الاعتماد المفرط على الذكاء الاصطناعي في الحرب قد يؤدّي إلى الانفصال عن العواقب الفعلية للأعمال العسكرية، ما قد يقلل من النفور من الصراع المسلح ويجعل الحرب أكثر احتمالاً.

إن الحفاظ على الفاعلية البشرية في القرارات الحاسمة يضمن بقاء الاعتبارات الأخلاقية والمعنوية محورية في الحرب. وينبغي أن يكون الذكاء الاصطناعي أداة تساعد الإنسان في اتخاذ القرار بدلاً من أن يحل محلّه.

إن استخدام الذكاء الاصطناعي في حروب المستقبل ليس مسألة ما إذا كان سيتم استخدامه أم لا، بل كيف. ومع استمرار تقدّم تكنولوجيا الذكاء الاصطناعي، فمن المرجّح أن يصبح دمجها في العمليات العسكرية أكثر شمولاً. إن تحقيق التوازن الصحيح بين قدرات الذكاء الاصطناعي والاعتبارات الأخلاقية أمر بالغ الأهمية، ويجب على الحكومات والمنظمات الدولية أن تتعاون من أجل إنشاء أطر تنظيمية لتوجيه تطوير ونشر واستخدام الذكاء الاصطناعي في الحرب، ويجب أن تعالج هذه الأطر قضايا مثل المساءلة والشفافية والاستخدام المسؤول للأنظمة المستقلة.

يحمل دور الذكاء الاصطناعي في حروب المستقبل وعداً هائلاً، ولكنه يحمل أيضاً تحدّيات كبيرة، ولابدّ من الموازنة بين قدرتها على تعزيز عملية صنع القرار، والحدّ من الخسائر البشرية، وزيادة الكفاءة، في مقابل المخاوف الأخلاقية، ونقاط الضعف الفنية، وخطر زعزعة الاستقرار.

من الضروري اتباع نهج متعدّد التخصصات، لا يشمل الخبراء العسكريين فحسب، بل أيضاً علماء الأخلاق وعلماء القانون وصانعي السياسات، للإبحار في المشهد المعقد للذكاء الاصطناعي في الحرب والتأكد من أن استخدامه يتماشى مع قيم وتطلعات البلدان المشتركة من أجل عالم آمن وسلمي.

تبدو إمكانات الذكاء الاصطناعي لا حدود لها، وربما تُحدث ثورة في كل شيء بدءاً من البحث عبر الإنترنت وحتى إنشاء المحتوى وخدمة الزبائن وحتى التعليم. وفي الوقت نفسه، فإن المخاطر التي يشكّلها الذكاء الاصطناعي متنوعة وتشمل جميع جوانب الحياة، من المخاوف المتعلقة بالخصوصية إلى تهديد الأمن القومي، والمعلومات المضللة، وحقوق الطبع والنشر، وإساءة استخدام العلامات التجارية، إلى الضرر المحتمل لحريات الإنسان الأساسية.

يساعد تنظيم الذكاء الاصطناعي على حماية بيانات المستخدم وضمان الاستخدام المسؤول للذكاء الاصطناعي لغرض استراتيجيات إدارة المخاطر الفعّالة من خلال تقديم مجموعات بيانات التدريب، وتنفيذ تدابير الأمن السيبراني، والقضاء على التحيزات والأخطاء المحتملة في نماذج الذكاء الاصطناعي. ومع ذلك، فإن كتابة أي نوع من التنظيم على الورق أسهل من تطبيقه عملياً، وذلك نظراً لطبيعة التطوّر السريع لهذه التكنولوجيا.