يشهد العالم تحولاً جذرياً في المشهد العسكري مع تزايد استخدام تقنيات الذكاء الاصطناعي، مما يثير مخاوف عميقة على المستوى الدولي. وقد تجلى هذا القلق بوضوح في قرار تاريخي اتخذته الجمعية العامة للأمم المتحدة في ديسمبر 2023، حيث صوتت 152 دولة لصالح تنظيم أنظمة الأسلحة المستقلة.
وفي خطوة لافتة، دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش إلى حظر شامل للأنظمة العسكرية المستقلة التي تعمل خارج نطاق السيطرة البشرية بحلول عام 2026. كما اقترح إنشاء مجلس متخصص لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري، مؤكداً على ضرورة وضع إطار قانوني دولي ملزم.
غير أن هذه الجهود تواجه تحديات كبيرة، حيث تتحفظ القوى العسكرية الكبرى مثل روسيا والولايات المتحدة والصين على هذه المقترحات، محتفظة بحقها في تطوير أنظمة أسلحة تعتمد على الذكاء الاصطناعي. وتزداد المسألة تعقيداً مع حجم الاستثمارات الضخمة التي ضختها هذه الدول بالفعل في مجال البحث والتطوير.
وفي مواجهة هذه التحديات، تتضافر جهود المجتمع الدولي من خلال تشكيل فريق خبراء حكومي معني بأنظمة الأسلحة الفتاكة المستقلة. وقد انضمت أكثر من مئة دولة إلى الدعوة لصياغة معاهدة دولية جديدة، بدعم من منظمات مثل هيومن رايتس ووتش وحملة وقف الروبوتات القاتلة.
يتطلب مستقبل تنظيم الذكاء الاصطناعي العسكري وضع تعريف واضح لمفهوم استقلالية أنظمة الأسلحة، وإيجاد توازن دقيق بين المتطلبات العسكرية والمبادئ الإنسانية. كما يجب ضمان استمرار السيطرة البشرية الفعالة على هذه الأنظمة، مع الحفاظ على القدرة على اتخاذ القرارات الحاسمة في ساحة المعركة.
وتبقى القضية الأساسية هي كيفية تحقيق توافق دولي يضمن استخدام الذكاء الاصطناعي بشكل مسؤول في المجال العسكري، مع حماية القيم الإنسانية والأخلاقية الأساسية. ويتطلب ذلك تعاوناً دولياً غير مسبوق وإرادة سياسية قوية من جميع الأطراف المعنية.