في إبريل 2024، سألت لجنة تحقيق إسرائيلية أحد الضباط: من اتخذ قرار استهداف هذا المبنى؟ أشار الضابط إلى شاشة الكمبيوتر أمامه وقال: “النظام أوصى بذلك.” اللجنة لم تعرف كيف تحاكم شاشة.
هذا ليس مستقبلاً — هذا الآن
حين يتحدث الناس عن الذكاء الاصطناعي في الحروب، يتخيلون روبوتات معدنية من أفلام هوليوود. الواقع أكثر إثارة للقلق — وأكثر تعقيداً.
الذكاء الاصطناعي العسكري اليوم ليس روبوتاً يحمل بندقية. إنه برنامج يجلس بين الضابط وقرار الضربة. يحلل آلاف البيانات في ثوانٍ — صور الأقمار الاصطناعية، اتصالات الهاتف، بيانات التنقل، أنماط السلوك — ثم يقول: “هذا هدف.”
والضابط، الذي أمامه عشرات القرارات يومياً، كثيراً ما يضغط: موافق.
مشروع مافين — حين دخل Silicon Valley الحرب
عام 2017، أطلق الجيش الأمريكي مشروع Maven — شراكة مع Google لتحليل مقاطع الفيديو من الطائرات المسيّرة باستخدام الذكاء الاصطناعي. الهدف: تحديد الأهداف البشرية تلقائياً.
حين علم موظفو Google بما يفعله المشروع، تمرّد أكثر من 3,000 منهم ووقّعوا عريضة رفض. قالوا: “لا نريد أن يُستخدم عملنا في قتل البشر.”
Google انسحبت من العقد عام 2018. لكن الجيش الأمريكي لم يتوقف — وجد شركاء آخرين. مشروع Maven لا يزال يعمل حتى اليوم، تحت إشراف شركات أقل شهرة وأقل خضوعاً للرقابة العامة.
النظام الذي سمّوه “لافندر”
في غزة، كشفت تحقيقات صحفية عن نظام اسمه “لافندر” — برنامج ذكاء اصطناعي طوّرته وحدات الاستخبارات الإسرائيلية لتحديد المقاتلين المحتملين في غزة.
كيف يعمل النظام؟ يجمع بيانات عن الأفراد — اتصالاتهم، تنقلاتهم، علاقاتهم الاجتماعية — ويعطي كل شخص “درجة خطورة” من 1 إلى 100. من يصل لدرجة معينة يصبح هدفاً محتملاً.
التقارير أشارت إلى أن الضباط كانوا يخصصون في المتوسط 20 ثانية لمراجعة كل توصية قبل الموافقة عليها.
عشرون ثانية لقرار يُنهي حياة إنسان.
الخوارزمية لا تعرف الفرق
المشكلة الجوهرية في الذكاء الاصطناعي العسكري ليست تقنية — بل فلسفية.
الخوارزمية تتعلم من البيانات التي تُعطى لها. إذا كانت بيانات التدريب تحتوي على تحيزات — عنصرية، جغرافية، اجتماعية — فإن الخوارزمية ستُكرّر هذه التحيزات وتُضخّمها.
مثال بسيط: إذا كان النظام تعلّم أن “الشخص الذي يتصل بهذا الرقم في هذه المنطقة في هذا الوقت هو مقاتل محتمل” — فإنه سيُصنّف كل من يفعل ذلك بنفس الطريقة. بما فيهم الصحفيون والأطباء وأفراد العائلة.
الخوارزمية لا تفهم السياق. لا تفهم الاستثناءات. لا تفهم الإنسانية.
إيران — حين ضربت الخوارزمية مدرسة
في الضربات الأمريكية على إيران عام 2024، استُخدمت أنظمة ذكاء اصطناعي لاختيار أكثر من ألف هدف في 24 ساعة — سرعة لم يكن ممكناً تحقيقها بالتخطيط البشري التقليدي.
بعض هذه الأهداف كانت مواقع عسكرية واضحة. لكن بعضها كان مبانيَ في مناطق سكنية حدّد النظام أنها تحتوي على “نشاط مشبوه”.
مدرسة بنات في طهران دُمّرت في إحدى الضربات. 168 طالبة لقين حتفهن. التحقيق الأمريكي قال إن النظام حدّد المبنى بناءً على “أنماط حركة مرتبطة بالبنية التحتية العسكرية في المنطقة المجاورة.”
الخوارزمية لم تكن تعرف أن هناك مدرسة. أو ربما كانت تعرف — لكن لم يكن ذلك في معادلتها.
من يتحمل المسؤولية؟
هذا هو السؤال الذي يُرعب الجميع — ولا أحد يريد الإجابة عنه.
المطوّر يقول: “أنا صنعت أداة، ما يفعله الجيش بها ليس مسؤوليتي.”
الجيش يقول: “الضابط وافق على القرار، هو المسؤول.”
الضابط يقول: “النظام أوصى، وأنا لا أملك الوقت لمراجعة كل توصية.”
والضحايا لا يقولون شيئاً.
في القانون الدولي الإنساني، يجب أن يكون هناك “إنسان في الحلقة” — شخص مسؤول عن كل قرار قتل. لكن حين تكون الحلقة مكوّنة من خوارزمية تُوصي وضابط يضغط موافق في 20 ثانية — هل هذا فعلاً “إنسان في الحلقة”؟
الدول العربية والذكاء الاصطناعي العسكري
الصورة لا تقتصر على أمريكا وإسرائيل. تركيا طوّرت طائراتها المسيّرة Bayraktar التي تعمل باستقلالية جزئية. الإمارات تستثمر بشكل ضخم في تقنيات الدفاع الذكي. المملكة العربية السعودية تبني قدرات مماثلة.
والأخطر: هذه التقنيات تنتشر. ما كان حكراً على القوى الكبرى قبل عشر سنوات بات متاحاً لجيوش أصغر وميليشيات ودول هشة المؤسسات.
حين تمتلك جماعة مسلحة في منطقة نزاع طائرة مسيّرة بذكاء اصطناعي يحدد الأهداف تلقائياً — لا أحد يعرف ما الذي سيحدث بعد ذلك.
ماذا يقول العلماء؟
في عام 2015، نشر أكثر من ألف عالم وباحث في مجال الذكاء الاصطناعي — بينهم ستيفن هوكينج وإيلون ماسك وعشرات من كبار الباحثين — رسالة مفتوحة تطالب بحظر “أسلحة الذكاء الاصطناعي المستقلة الهجومية.”
لم يحدث شيء.
في 2023، جاءت رسالة أخرى. أكثر توقيعاً. أكثر إلحاحاً. قالت إن الذكاء الاصطناعي العسكري يمثل خطراً وجودياً على البشرية.
لم يحدث شيء.
الحكومات تستمع — ثم تواصل التطوير. لأن المنطق العسكري يقول: إذا لم نطوّره نحن، سيطوّره الآخرون.
خلاصة رصد
الحروب كانت دائماً وحشية. لكن وحشيتها كانت بشرية — يمكن محاكمتها، إدانتها، محاسبتها.
الآن نحن نُدخل في المعادلة شيئاً لا يُحاكَم ولا يُدان ولا يشعر بالذنب.
الجنرال لم يعد يقرر من يموت. الكمبيوتر يفعل ذلك. والكمبيوتر لا يقرأ التاريخ، ولا يعرف أسماء الضحايا، ولا يتذكر ما فعل.
نحن نبني أكثر الأسلحة كفاءةً في التاريخ — وأقلها ضميراً.
رصد — تحليل مستقل · أخبار موثوقة
rasad.press
