منذ أواخر فبراير، شهدت العمليات العسكرية بين الولايات المتحدة وإسرائيل وإيران منعطفاً حاداً بفضل الاعتماد المتزايد على أنظمة الذكاء الاصطناعي في الاستهداف والتنفيذ. للمرة الأولى على هذا المستوى من الحجم، يتم استخدام أنظمة ذكاء اصطناعي لتحليل المعلومات الاستخباراتية واختيار الأهداف وتوجيه آلاف الضربات عبر الأراضي الإيرانية. غير أن هذا التكامل التكنولوجي غير المسبوق قد كشف عن ثغرات حرجة في المراقبة والإشراف، مما أثار تساؤلات جوهرية حول دقة هذه الأنظمة والمسؤولية عن الضربات التي تقتل المدنيين.
يبقى الخبراء والمسؤولون العسكريون منقسمين حول مدى السيطرة الفعلية التي يحتفظ بها الإنسان على هذه الأنظمة المؤتمتة، خاصة مع تطور التكنولوجيا بسرعة تفوق قدرة متخذي القرار البشريين على التحقق منها.
كيفية استخدام الذكاء الاصطناعي في الحملة ضد إيران
أصبح الذكاء الاصطناعي الآن متكاملاً في مراحل متعددة من العمليات العسكرية الحديثة. يعتمد الجيش الأمريكي على أنظمة مثل Maven Smart System (MSS)، التي طورتها شركة الدفاع Palantir، وهي مصممة لتحديد وأولويات الأهداف المحتملة من خلال معالجة حجم هائل من بيانات الأقمار الصناعية والرادار وفيديو الطائرات بدون طيار والإشارات الكهرومغناطيسية.
وفقاً للتقارير الأخيرة، تم دمج نموذج Claude AI من شركة Anthropic مع نظام Maven لتحسين قدرات الكشف والمحاكاة، مما يسمح للأنظمة العسكرية بمعالجة المعلومات بسرعات لم تكن ممكنة سابقاً. أوضح مدير الذكاء الاصطناعي العسكري الفرنسي، بيرتران رونديبيير: “خوارزميات الذكاء الاصطناعي تسمح لنا بالتحرك بسرعة أكبر في التعامل مع المعلومات، والأهم من ذلك أن تكون أكثر شمولاً.”
كما نشرت إسرائيل أنظمة استهداف ذكاء اصطناعي في هذا النزاع والعمليات السابقة. برنامج “Lavender” المستخدم خلال العمليات في غزة أظهر قدرة الذكاء الاصطناعي على غربلة مجموعات بيانات ضخمة لتحديد الأهداف، مع الاعتراف بهوامش خطأ معينة.
قصف المدرسة الإيرانية وأسئلة المسؤولية
قصف مدرسة إيرانية، تؤكد السلطات الإيرانية أنها أسفرت عن مقتل 150 شخصاً، أصبح نقطة محورية في النقاش حول دقة أنظمة الاستهداف بالذكاء الاصطناعي. لم تعترف لا الولايات المتحدة ولا إسرائيل بمسؤوليتها عن الضربة. كانت المنشأة تقع بالقرب من منشآت يسيطر عليها الحرس الثوري الإسلامي، القوة العسكرية الأيديولوجية لإيران.
هذا القرب يثير سؤالاً حاسماً: هل فشلت أنظمة الذكاء الاصطناعي في التمييز بين مدرسة مدنية ومنشأة عسكرية قريبة، أم أن الخطأ ارتكبه مشغلون بشريون اعتمدوا على بيانات قديمة؟
أشار بيتر أسارو، رئيس اللجنة الدولية لمراقبة أسلحة الروبوتات، إلى أن المسؤولية تصبح غامضة عندما تكون الآلات متورطة. وتساءل: “إذا حدث شيء خاطئ، فمن يكون مسؤولاً؟ هل فشلوا في التمييز عن القاعدة العسكرية كما يجب، لكن من هم ‘هم’: الإنسان أم الآلة؟”
مشكلة البيانات
إذا كانت أنظمة الذكاء الاصطناعي مسؤولة عن استهداف المدرسة، فإن السؤال الحاسم، كما أكد أسارو، يصبح “كم عمر البيانات المستخدمة للاستهداف”، وما إذا كان الخطأ ناشئاً من “خطأ قاعدة بيانات” بدلاً من فشل خوارزمي.
كانت قدرات المراقبة الشاملة لإسرائيل في غزة تغذي ذكاء حقيقي للنظام Lavender، مما يتيح دقة أكبر في منطقة محصورة. “يبدو أنه من غير المرجح أن تم إنشاء مثل هذا النظام في إيران”، كما لاحظت لور دي روسي-روشيجوند من معهد IFRI الفرنسي للدراسات، مما يشير إلى أن الضربات هناك قد تعتمد على معلومات أقل حداثة.
السيطرة البشرية مقابل الأتمتة
يصر المسؤولون العسكريون على أن البشر يبقون في السيطرة على قرارات الاستهداف. جادل رونديبيير بحزم بأن أنظمة الذكاء الاصطناعي “التي تعمل بدون أحد في السيطرة” تبقى “خيال علمي”، وأنه على الأقل في فرنسا، “القادة العسكريون هم في قلب العمل وتصميم هذه الأنظمة.”
غير أن النقاد يشككون في هذا الادعاء. مع قيام أنظمة الذكاء الاصطناعي العسكرية بمعالجة المعلومات بسرعة أسية أكبر من قدرة الإنسان على التحليل، تصبح القدرة العملية على الحفاظ على إشراف بشري ذي مغزى محصورة بشكل متزايد.
ميزة السرعة التي يوفرها الذكاء الاصطناعي تخلق مفارقة: القدرة التي تجعل هذه الأنظمة جاذبة هي ذاتها التي تقلل الوقت المتاح للمراجعة والحكم البشري. هذا التسريع في “سلسلة القتل” (الفترة الزمنية لاتخاذ القرار بين الكشف عن الهدف وتنفيذ الضربة) قد يقلل بدلاً من تعزيز المساءلة.
الخلاف الأوسع بين البنتاغون و Anthropic
تزامن نشر الذكاء الاصطناعي في ضربات إيران مع نزاع حاد بين البنتاغون في إدارة ترامب وشركة Anthropic، مطورة نموذج Claude.
صنف البنتاغون رسمياً Anthropic باعتبارها “مخاطر سلسلة التوريد” على الأمن القومي الأمريكي، وهي المرة الأولى التي تتلقى فيها شركة أمريكية مثل هذا التصنيف. ينبع التصنيف من موقف Anthropic العلني بأن تكنولوجيتها لا يجب أن تُستخدم في المراقبة الجماعية أو الأسلحة المستقلة بالكامل.
تعهدت الرئيسة التنفيذية لـ Anthropic، داريو أمودي، بالطعن في التصنيف أمام المحكمة، محتجة بأن تصنيف البنتاغون يسيء تمثيل النطاق العملي للقيد ويعاقب الشركة على موقفها الأخلاقي.
لماذا يهم هذا
يعكس الخلاف بين البنتاغون و Anthropic قلقاً أعمق حول دور الذكاء الاصطناعي في الحرب. تشمل التطبيقات العسكرية للذكاء الاصطناعي الآن “الإمدادات والاستطلاع والمراقبة والحرب الإعلامية والحرب الإلكترونية والأمن السيبراني”، وفقاً لمحللي الدفاع. كما لاحظ أحد الخبراء، “يمكن تعزيز تقريباً أي وظيفة عسكرية بالذكاء الاصطناعي.”
غير أن هذا التوسع حدث مع نقاش عام ضئيل حول المسؤولية والمعايير الدقيقة للاستهداف أو ما هو مستوى استقلالية الذكاء الاصطناعي المقبول في الحرب.
آفاق المستقبل
لاحظ بنجامين جينسن من مركز الدراسات الاستراتيجية والدولية أن الجيوش العالمية بدأت للتو في فهم إمكانات الذكاء الاصطناعي. “لم تعد جيوش العالم تفكر بشكل جذري في كيفية التخطيط وكيفية إجراء العمليات للاستفادة من” قدرات الذكاء الاصطناعي، قال. “سيستغرق الأمر جيلاً واحداً لنا حتى نفهم هذا فعلاً.”
من المرجح أن تكون الأزمة الحالية في إيران مجرد فصل افتتاحي في دور الذكاء الاصطناعي في النزاعات العسكرية. مع أن تصبح الأنظمة أكثر تطوراً وتكاملاً، ستشتد الأسئلة حول المساءلة البشرية ودقة البيانات والأخلاقيات المتعلقة بتفويض قرارات الحياة والموت إلى الخوارزميات.
Conclusion:
كشف نشر الذكاء الاصطناعي في الضربات على إيران عن القوة التكنولوجية والمخاطر العميقة للقرار العسكري المؤتمت. بينما يمكن للذكاء الاصطناعي معالجة المعلومات بسرعة أكبر من أي مشغل بشري، تُظهر الأزمة الحالية أن السرعة بدون مساءلة يمكن أن تؤدي إلى ضحايا من المدنيين. يُبرز الصدام المتزامن بين البنتاغون و Anthropic أن الحدود الأخلاقية للذكاء الاصطناعي العسكري تبقى غير محددة وموضع نقاش وفي الواقع لم تُحل بعد.






