” غوسبيل”.. كيف استخدمت إسرائيل الذكاء الاصطناعي في حربها ضد حماس؟
يثير استخدام الجيش الإسرائيلي لبرامج ذكاء اصطناعي متطورة في حربه ضد حركة حماس، الكثير من الجدل بشأن دقة بياناتها وقدرتها على تحديد الأهداف التي تتضمن قادة ومسلحي تلك الجماعة المصنفة إرهابية في الولايات المتحدة ودول أخرى، وفقا لما ذكرت صحيفة " غارديان " البريطانية.
وأوضحت الصحيفة أن الجيش الإسرائيلي يستخدم برنامج ذكاء اصطناعي يدعى "غوسبيل" (The Gospel)، لافتة إلى أنه تتم تغذيته بالبيانات، ليقوم باختيار "الأهداف" التي يراد قصفها في قطاع غزة، "والتي تشمل الجماعات المسلحة وقادتها".
وذكرت الصحيفة أن وحدة استخبارات عسكرية سرية، يديرها الذكاء الاصطناعي، تلعب دورًا مهمًا في رد إسرائيل على هجمات حماس التي وقعت جنوبي البلاد في 7 أكتوبر، وأسفرت وقتها عن مقتل 1200 شخص، معظمهم من المدنيين وبينهم نسا وأطفال، بحسب السلطات الإسرائيلية.
وفي بيان مقتضب للجيش الإسرائيلي بشأن تلك الوحدة، قال مسؤول كبير إن عناصرها ينفذون "هجمات دقيقة على البنية التحتية المرتبطة بحماس، ويتم إلحاق أضرار كبيرة بالعدو، مع حدوث خسائر من جهة المدنيين".
وكان قد جرى التأكيد على دقة الضربات التي أوصى بها "بنك أهداف الذكاء الاصطناعي" في تقارير متعددة في وسائل الإعلام الإسرائيلية، إذ ذكرت صحيفة "يديعوت أحرونوت" اليومية، أن الوحدة "تتأكد قدر الإمكان من عدم وقوع أي ضرر للمدنيين الذين لا يشاركون في أعمال قتالية".
وبالمقارنة، مع حرب عام 2014 التي استمرت 51 يومًا، فقد أوضحت التقارير أن الجيش الإسرائيلي استهدف وقتها ما بين 5000 إلى 6000 هدف.
وقالت مصادر متعددة لصحيفة "غارديان ومجلة "972+ Mag"، وموقع "Local Call" الإسرائيليين، إنه عندما يتم السماح بشن غارة على منازل خاصة لأفراد تم تحديدهم على أنهم نشطاء في حماس أو الجهاد الإسلامي، فإن المشرفين على برامج الذكاء الاصطناعي يكون لديهم علم مسبق بشأن عدد المدنيين المتوقع مقتلهم.
وأوضحت تلك المصادر أن كل هدف لديه ملف يحتوي على الأضرار الجانبية، التي تنص على عدد المدنيين الذين من المحتمل أن يقتلوا في تلك الغارة.
وقال أحد المصادر الذي عمل حتى عام 2021 في التخطيط للضربات لصالح الجيش الإسرائيلي، إن "قرار الضربة يتخذه قائد الوحدة أثناء الخدمة"، منبها إلى أنه كانت هناك مرات "حام فيها شك بشأن الهدف.. وقتلنا ما أعتقد أنه عدد غير متناسب من المدنيين"، وفق "غارديان".
في المقابل، قال متحدث عسكري إسرائيلي: "رداً على هجمات حماس الوحشية، يعمل جيش الدفاع الإسرائيلي على تفكيك قدرات حماس العسكرية والإدارية".
وتابع: "في تناقض صارخ مع هجمات حماس المتعمدة على الرجال والنساء والأطفال الإسرائيليين، يتبع جيش الدفاع الإسرائيلي القانون الدولي ويتخذ الاحتياطات الممكنة للتخفيف من الأضرار التي تلحق بالمدنيين".
وقالت مصادر مطلعة على كيفية دمج الأنظمة القائمة على الذكاء الاصطناعي في عمليات الجيش الإسرائيلي، إن مثل هذه الأدوات "ساهمت بشكل كبير في تسريع عملية تحديد الهدف".
وذكر مصدر عمل سابقًا في تلك الوحدة، لمواقع إسرائيلية: "نقوم بإعداد قائمة الأهداف بشكل تلقائي، ونعمل وفقها".
وقال مصدر عسكري إسرائيلي كبير سابق لصحيفة "غارديان"، إن المشرفين على برامج الذكاء الاصطناعي "يستخدمون قياسًا دقيقًا للغاية" بشأن معدل إخلاء المدنيين للمبنى قبل وقت قصير من الغارة.
وكان قائد سلاح الجو الإسرائيلي، أومر تيشلر، قد ذكر في حديث إلى صحيفة "جيروزاليم بوست" المحلية، في أكتوبر الماضي، أن قدرات الاستهداف بالذكاء الاصطناعي "مكّنت الجيش من تحديد بنوك أهداف جديدة بشكل أسرع".
وشدد تيشلر على أن الجيش الإسرائيلي "لا يستهدف المدنيين"، وذلك رغم حديث وزارة الصحة في غزة عن مقتل أكثر من 15 ألف شخص، معظهمم من المدنيين، وبينهم نساء وأطفال.
وكان مسؤول إسرائيلي قد أوضح لوكالة "بلومبيرغ" الأميركية في منتصف يونيو الماضي، أنه يجرى استخدام نموذجين لبناء مجموعة بيانات تعتمد على خوارزميات بشأن الأهداف المحددة، وذلك لحساب الذخيرة المحتملة، وتحديد أولويات، وتعيين آلاف الأهداف للطائرات والطائرات من دون طيار، واقتراح جدول زمني للغارات.
وأوضح ذلك المسؤول أن النظامين يخضعان لمشغلين بشريين يقومون بفحص الأهداف وخطط الغارات الجوية والموافقة عليها.
ووفقا للأرقام التي نشرها الجيش الإسرائيلي في نوفمبر، خلال الأيام الـ 35 الأولى من الحرب، فقد هاجمت إسرائيل 15 ألف هدف في غزة، وهو رقم أعلى بكثير من العمليات العسكرية السابقة في المنطقة الساحلية ذات الكثافة السكانية العالية.
وزاد: "الأمر يشبه العمل في مصنع، فنحن نعمل بسرعة وليس هناك وقت للتعمق في الهدف، ووجهة النظر هي أنه يتم الحكم علينا وفقًا لعدد الأهداف التي نتمكن من تحقيقها".
وبالنسبة لبعض الخبراء الذين يبحثون في الذكاء الاصطناعي والقانون الإنساني الدولي، فإن التوسع في استخدام الذكاء الاصطناعي يثير عددًا من المخاوف.
وفي هذا الصدد، قالت الباحثة في معهد ستوكهولم الدولي لأبحاث السلام، مارتا بو، إنه حتى عندما "يوجد بشر يشرفون على البرنامج، فن هناك خطر من أن يتطور لديهم التحيز الآلي، بمعنى الإفراط في الاعتماد على الأنظمة التي يصبح لها تأثير كبير للغاية على الأمور، وعندها لا يتم الاعتماد على القرارات الإنسانية التي تكون أكثر تعقيدا".
من جانبه، قال الباحث ريتشارد مويس، الذي يرأس منظمة "المادة 36"، وهي مجموعة تقوم بحملات للحد من الأضرار الناجمة عن الأسلحة: "عند الاعتماد على أدوات ذكاء اصطناعي مثل (غوسبيل)، فإنه يتم تسليم البشر قائمة بالأهداف التي أنشأها الحاسوب، وهم لا يعرفون بالضرورة كيف تم إنشاء القائمة وليست لديهم القدرة على التأكد من توصيات الاستهداف والتشكيك فيها بشكل مناسب".
وأضاف: "هناك خطر من أنه عندما يعتمد البشر على هذه الأنظمة، فإنهم يصبحون بمثابة تروس في عملية ميكانيكية، ويفقدون القدرة على النظر في أخطار إلحاق الأذى بالمدنيين بطريقة مجدية".