دور الـذكـاء الاصـطـنـاعـي فـي الـحـرب الإسـرائـيـلـيـة عـلـى غـزة

12/04/2024

كتب: د. ماهر الشريف 

"كنا نحدد في السابق 50 هدفاً سنوياً [للقصف] في غزة، ولكن مع هذه الآلة، بتنا نحدد الآن 100 هدف في يوم واحد و50% منها تتعرض للهجوم؛ إنها آلة تعالج كميات كبيرة من البيانات بكفاءة أكبر من أي إنسان" (الجنرال آفيف كوخافي، رئيس هيئة أركان الجيش الإسرائيلي السابق، في تصريح لموقع Ynet) .

"إن هذه البرامج الحاسوبية تم تطويرها لصالح فرقة الأهداف في جيش الدفاع الإسرائيلي، من أجل معالجة النقص في الأهداف التي عانت منها القوات الإسرائيلية؛ فخلال عملياتها السابقة في غزة، وجدت القوات الجوية نفسها عاجزة عدة مرات عن تحقيق أهدافها، في حين ظلت هناك ضغوط سياسية قوية لمواصلة الحرب" ( تصريح يوفال أبراهام مُعد التحقيق الذي نشرته مجلة +972، في مقابلة مع برنامج الإعلام الأميركي "ديمقراطية الآن").

"إن هذه التكنولوجيا تتحول إلى مصنع للاغتيالات الجماعية" (تصريح ضابط استخبارات إسرائيلي سابق، رفض الكشف عن هويته، لمجلة +972).    

لكن عن أي آلة، وعن أي برامج حاسوبية، وعن أي تكنولوجيا يجري الحديث؟

عودة إلى عملية "حارس الأسوار" الإسرائيلية
في أيار/مايو 2021، انطلقت "هبة القدس"، أو "هبة الكرامة" من قطاع غزة، فردّ عليها الجيش الإسرائيلي بشن عملية "حارس الأسوار" على القطاع. وخلال 11 يوماً، استخدم الجيش الإسرائيلي الذكاء الاصطناعي لأول مرة، بحسب صحيفة "جيروزاليم بوست"، وذلك بعد أن تمّ، في سنة 2019، إنشاء مجموعة متخصصة في تحديد الأهداف، وخصوصاً في قطاع غزة، تتكوّن من جنود نظاميين وجنود احتياط، وتتبع الوحدة 8200، في مديرية الاستخبارات العسكرية الإسرائيلية التي يقودها العميد يوسي سارئيل، "المهووس بالذكاء الاصطناعي كما هو معروف عنه"، والذي أعدّ كتاباً عن الاستخدام المحتمل للذكاء الاصطناعي في الحروب المستقبلية، بعنوان: فريق الإنسان والآلة: خلق التآزر من أجل عالم ثوري"، ونشره باللغة الإنكليزية بالأحرف الأولى من اسمه (ي. س) على موقع أمازون. وكانت صحيفة "جيروزاليم بوست" قد نشرت، في شباط/فبراير 2023، تقريراً عن مؤتمر عُقد في جامعة تل أبيب وتناول "كيفية اختيار الضربات الموجهة ضد حركة "حماس" في سنة 2021"، وكيف "تمّ ترسيخ استخدام الذكاء الاصطناعي تدريجياً داخل الوحدة 8200، أرقى وحدة استخبارات عسكرية إسرائيلية، متخصصة على مر السنين في التجسس الإلكتروني".

كانت مجالات استخدام الذكاء الإصطناعي، وهو تقنية تم تطويرها لمحاكاة الذكاء البشري من خلال الخوارزميات، قد شهدت، في السنوات الأخيرة، نمواً سريعاً، وذلك بعد أن "أثبت نفسه بصفته تقنية أساسية ليس فقط للشركات، بل للأفراد أيضاً". فمن الزراعة إلى الصحة إلى الصناعات الإنتاجية، صار الذكاء الاصطناعي يؤثر في كل مجالات الحياة تقريباً. وللإقتراب قدر الإمكان من عمل الدماغ البشري، "يستخدم الذكاء الاصطناعي عدداً معيناً من العناصر، أهمها: خوارزميات الكمبيوتر؛ قواعد بيانات كبيرة؛ أنظمة وأجهزة تكنولوجيا المعلومات عالية الأداء"، بحيث يتيح استخدام هذه العناصر الثلاثة لأنظمة الذكاء الاصطناعي "التعلم والتحسين بصورة متكررة من خلال تحليل ودمج المعلومات المقدمة لها".

وفي الميدان العسكري، لم يكن الجيش الإسرائيلي أول من استخدم الذكاء الاصطناعي، بل سبقه إلى استخدام الخوارزميات لتحسين ضرباته الجوية الجيش الأميركي خلال حرب الخليج في الفترة 1990-1991، وكذلك في حربه في أفغانستان والعراق، كما لجأ حلف "الناتو" إلى استخدام الخوارزميات، في سنة 1999، خلال حملة القصف التي استهدفت أهدافاً عسكرية صربية.

وكانت الباحثة في معهد دراسات الأمن القومي الإسرائيلي ليران عنتيبي قد ذكرت في حزيران/ يونيو 2022 في دراسة نشرتها مجلة Vortex، التي يصدرها سلاح الجو الفرنسي، أن إسرائيل تعتمد على أربعة خوارزميات على الأقل في عملياتها ضد حركة "حماس"، قد تكون الوحدة 8200 هي التي صممتها، وتهدف إلى رسم خريطة لباطن الأرض في قطاع غزة بغية تحديد مواقع الأنفاق، وتحديد الأهداف التي ينبغي قصفها، ووضع خطط هجومية بواسطة الطائرات والطائرات بدون طيار، اعتماداً على نوع الهدف. وبفضل هذه التقنيات المتطورة، "أصبح الجيش الإسرائيلي الآن قادراً على ضرب عدة مئات من الأهداف يومياً".

استهداف موظفي "المطبخ المركزي العالمي" يسلّط الضوء على هذه التقنية
كان مقتل سبعة من موظفي منظمة "المطبخ المركزي العالمي"، في غارة إسرائيلية يوم الاثنين في 1 نيسان/أبريل الجاري، بمثابة مفاجأة فتحت أعين الغربيين على برامج الذكاء الاصطناعي التي يستخدمها الجيش الإسرائيلي في حربه على قطاع غزة، وعلى نتائج الأخطاء التي يمكن أن تقع خلال استخدامها، كما لاحظ الصحافي في صحيفة "لوموند" الباريسية بنجامان بارت، في مقال نشره في 9 نيسان/أبريل الجاري بعنوان: "في قطاع غزة، تتضاعف جرائم الحرب بسبب الخوارزميات"، ومما ورد فيه: "لأن ستة من الضحايا كانوا من الرعايا الأجانب، فقد كان لا بد من محاسبة الجيش الإسرائيلي"، بينما "لو كانوا جميعاً فلسطينيين، مثل المئتين الآخرين من العاملين في المجال الإنساني وموظفي الأمم المتحدة الذين قتلوا منذ السابع من تشرين الأول/أكتوبر، فإن هذا الحدث لم يكن ليسبب سوى ضجة نسبية للغاية على الساحة الدولية". ويتابع الصحافي نفسه أن هيئة الأركان العامة للجيش الإسرائيلي أرجعت الإغارة على قافلة مركبات هذه المنظمة الإنسانية إلى "خطأ فادح"، زاعمة أن جنود وحدة الطائرات بدون طيار التي نفذت الضربات "اعتقدوا أنهم رأوا سلاحاً في يد أحد العاملين في المجال الإنساني، واستخلصوا أنه، وجميع الركاب الآخرين، أعضاء في حماس؛ ومن هنا شراسة الطائرات بدون طيار التي أطلقت النار ثلاث مرات على المركبات، فقامت بتصفية ركابها الواحد تلو الآخر".

برامج الذكاء الاصطناعي في الحرب الإسرائيلية على قطاع غزة
ادّعى الجيش الإسرائيلي، في بيان نشره على موقعه في 2 تشرين الثاني/نوفمبر 2023، أنه أنشأ "مصنعاً للأهداف" في حربه على قطاع غزة، بالاستناد إلى برنامج "هبسورا" للذكاء الاصطناعي، مكّنه "من تحديد أكثر من 12 ألف هدف خلال أقل من شهر من الحرب"، وأتاح له تكثيف هجماته الجوية، التي شنها وفقاً لـ "عقيدة الضاحية" التي اعتمدها هذا الجيش خلال عدوانه على لبنان في تموز/يوليو 2006، والتي تقوم على الاستخدام غير المتناسب للقوة، بحيث تلحق بالطرف الذي يهاجم إسرائيل خسائر مدنية هائلة. وفي تحليل أجراه كميل لوران، في 5 كانون الأول/ديسمبر 2023، لصالح راديو فرانس، أشير إلى أن هذا البرنامج يعمل 24 ساعة يومياً، ويراجع "آلاف البيانات من أجل تحديد الأهداف المحتملة تلقائياً وبوتيرة مستمرة"، ويتغذى "بصور الطائرات بدون طيار، والرسائل على شبكات التواصل الاجتماعي، والمعلومات التي يجمعها الجواسيس على الأرض، ومواقع الهواتف". وقد أدت التوصيات الصادرة عنه "إلى قصف أهداف، مثل منازل الأفراد المشتبه في أنهم أعضاء في حركة "حماس" أو الجهاد الإسلامي".

وكانت وسيلتان إعلاميتان مستقلتان في إسرائيل، هما "مجلة +972" وموقع "النداء المحلي" Local Call قد نشرتا، في 3 نيسان/أبريل الجاري، تحقيقاً عن برنامج للجيش الإسرائيلي يسمى "لافندر"، يستخدم الذكاء الاصطناعي لتحديد الأهداف في قطاع غزة، مع هامش خطأ معين، استندتا في إعداده إلى "ستة ضباط مخابرات إسرائيليين"، أكدوا أن هذا البرنامج "اضطلع بدور مركزي" خلال الأسابيع الأولى من القصف الإسرائيلي على قطاع غزة، وأن الجيش الإسرائيلي "تعامل مع مخرجات آلة الذكاء الاصطناعي كما لو كانت قرارات بشرية". ووفقاً لاثنين من هؤلاء الضباط، قرر الجيش أيضاً أنه "في مقابل قتل كل عضو "صغير" في حماس تم اكتشافه بواسطة "لافندر"، يُسمح بقتل 15 إلى 20 مدنياً، بصفتهم ضحايا جانبيين، وترتفع النسبة إلى 100 مدني لقائد واحد في الحركة الإسلامية الفلسطينية"، الأمر الذي تسبب في سقوط عدد كبير جداً من الضحايا المدنيين في قطاع غزة.

وبحسب يوفال أبراهام، مُعد التحقيق الذي نشرته مجلة +972، فإن حسابات الجيش الإسرائيلي بشأن التناسب تطورت بصورة واضحة، إذ إنه "بينما كان يتم التسامح حتى السابع من تشرين الأول/أكتوبر 2023 إزاء مقتل حوالي عشرة ضحايا جانبيين للقضاء على عضو تنفيذي في حماس، فقد بات من الممكن الآن قبول مقتل أكثر من مائة مدني لتحييد عضو تابع للحركة"، وهذا التطوّر "يفسر تدمير بنايات بأكملها لإسقاط هدف واحد مدرج [على قائمة الاغتيالات]، كما يتضح من الغارة على مخيم جباليا للاجئين في 31 تشرين الأول/اكتوبر 2023، والتي استهدفت واحداً فقط من قادة هجوم السابع من أكتوبر، وخلّفت 126 قتيلاً، وفقًا لمجموعة Airwars [لمتابعة الأضرار المدنية في الحروب]". وقال أحد المصادر إن الجنود والضباط "لا يقومون، في كثير من الأحيان، إلا بالموافقة التلقائية على قرارات الآلة"، مضيفاً "أنهم عادةً ما يقضون حوالي 20 ثانية فقط على تفحص كل هدف قبل إعطاء الإذن بتنفيذ عملية قصف - على الرغم من معرفتهم بأن النظام يرتكب ما يُعتبر أخطاء في حوالي 10% من الحالات"، إذ إنه يحدد ويستهدف أحياناً "أفراداً لديهم اتصال ضعيف بمجموعات الناشطين، أو حتى ليس لديهم أي اتصال على الإطلاق". والنتيجة، هي أن آلاف الفلسطينيين – معظمهم من النساء والأطفال أو الأشخاص الذين لم يشاركوا في القتال – جرت تصفيتهم بغارات جوية إسرائيلية بسبب برنامج الذكاء الاصطناعي "لافندر"، الذي يحلل المعلومات التي تم جمعها عن معظم سكان قطاع غزة البالغ عددهم 2.3 مليون نسمة من خلال نظام مراقبة جماعي، ثم "يقوم بتقييم وتصنيف احتمالية أن يكون كل شخص نشطاً في الجناح العسكري لحركة "حماس" أو الجهاد الإسلامي"، ويُعتقد أنه قام "بتصنيف حوالي 37 ألف فلسطيني على أنهم مسلحون مشتبه بهم من حماس، ومعظمهم من الشباب، بهدف اغتيالهم".
      
ومع أن الجيش الإسرائيلي لم ينفِ وجود برنامج "لافندر"، إلا أنه زعم في بيان صادر عنه أنه "ليس نظاماً، وإنما مجرد قاعدة بيانات تستخدم للرجوع إلى مصادر المخابرات لإنتاج معلومات محدثة عن الأعضاء العسكريين في المنظمات الإرهابية". ويختلف برنامج "لافندر" عن برنامج "إنجيل"، وهي خوارزمية أخرى يستخدمها الجيش الإسرائيلي للتوصية بالمباني والمنشآت التي يجب استهدافها (وليس الأشخاص)، وهو برنامج يعمل "على إنتاج الأهداف بمعدل سريع".   
    
انتقادات شديدة لاستخدام الذكاء الاصطناعي في الحرب على غزة
أثار الدمار الهائل الذي ألحقه الجيش الإسرائيلي بمساكن قطاع غزة وبناه التحتية، والأعداد الهائلة من الضحايا الذين سقطوا جراء عملياته الجوية والبرية، انتقادات شديدة لاستخدام الذكاء الاصطناعي كوسيلة لتوفير أهداف للهجمات الإسرائيلية على القطاع المنكوب. ففي يوم الجمعة في 5 نيسان/أبريل الجاري، قال الأمين العام للأمم المتحدة أنطونيو غوتيريش للصحافة: "إنني منزعج للغاية من التقارير التي تفيد بأن حملة القصف العسكري الإسرائيلي تستخدم الذكاء الاصطناعي كأداة لتحديد الأهداف، لا سيما في المناطق السكنية المكتظة بالسكان، مما يؤدي إلى سقوط عدد كبير من الضحايا المدنيين"، ذلك إنه "لا ينبغي تفويض أي جزء من قرارات الحياة أو الموت التي تؤثر على عائلات بأكملها إلى الحسابات الباردة للخوارزميات".

وأضاف الأمين العام: "لقد حذرت منذ سنوات من مخاطر استخدام الذكاء الاصطناعي كسلاح وتقليص الدور الأساسي للتدخل البشري"، وأكدت أنه "يجب استخدام الذكاء الاصطناعي كقوة من أجل الخير، لصالح العالم، وعدم المساهمة في الحرب على المستوى الصناعي، مما يؤدي إلى عدم وضوح المساءلة". ومن جانبه، وصف أليساندرو أكورسي، الخبير في منظمة Crisis Group لحل النزاعات، المعلومات الواردة عن استخدام الجيش الإسرائيلي الذكاء الاصطناعي في عملياته الحربية في قطاع غزة بأنها "مقلقة للغاية"، وأضاف "إنه أمر مروع، ذلك إنه من الواضح أن النظام يمكن أن يصاب بالهلوسة، وأن درجة سيطرة الإنسان عليه منخفضة، ومن الواضح أن هناك آلاف الأسئلة حول هذا الأمر، حول مدى أخلاقية استخدامه، لكن هذا ليس مفاجئاً". أما يوهان صوفي، المحامي الدولي والمدير السابق للمكتب القانوني لوكالة الأونروا في قطاع غزة، فقد رأى أن أساليب استخدام الذكاء الاصطناعي في الحرب "تنتهك جميع المبادئ الأساسية للقانون الإنساني الدولي"، بما في ذلك "التمييز بين المقاتلين والمدنيين، واتخاذ الحيطة والحذر"، وهي ""تشكّل بلا شك جرائم حرب"، وندّد بالرغبة "في مهاجمة السكان المدنيين في غزة بطريقة منهجية وواسعة النطاق".

الهوس بالخوارزميات يتسبب بالفشل الاستخباراتي في السابع من أكتوبر
قدّر الصحافي الفرنسي - الإسرائيلي دوف ألفون أن الهوس بإمكانيات الذكاء الاصطناعي كان "في صميم الفشل المأساوي"، الذي لحق بالوحدة 8200، التي يقودها العميد يوسي سارئيل، وتسبب في عجزها عن توقع هجوم حركة "حماس" في 7 تشرين الأول/أكتوبر 2023؛ فالصحافي الإسرائيلي رونين بيرغمان كان قد كشف –كما تابع- في صحيفة "نيويورك تايمز" أن "ضابط صف في الوحدة 8200 وصف بدقة الهجوم المرتقب، مع كل التفاصيل اللازمة لمواجهته باستثناء التاريخ الدقيق [لوقوعه]"، لكن "نظام الإنذار الأحمر الذي تم وضعه للحصول على معلومات من هذا النوع ألغاه يوسي سارئيل، الذي فرض نظاماً مركزياً يدار بواسطة خوارزميات خارقة، وهذا النظام، المتطوّر للغاية من الناحية النظرية، لم يفهم شيئاً، من الناحية العملية"، عن التقرير المرسل إليه وقام بحظره".

وكشفت تحقيقات أخرى، من بينها "تحقيق أجراه الصحافي في صحيفة "معاريف" بن كاسبيت، أنه منذ عامين تم استبدال المحللين البشريين بالذكاء الاصطناعي"، بحيث أن "خوارزميات لا تمتلك أي دقة في معرفة اللغة العربية، لم تفهم الرسائل، على الرغم من أنها كانت واضحة بما فيه الكفاية، التي تم التقاطها في غزة". ويخلص دوف ألفون إلى أنه في عمليات التجسس "هناك دوماً إمكانية لبروز حقيقة ثانية؛ لذلك من المحتمل جداً أن يكون يوسي سارئيل قد أغرق وحدته وجيشه وبلده بالاستماع إلى صفارات الإنذار التكنولوجية، لدرجة نسيان مبادئ مهنته كضابط استخبارات، ولكن من الممكن أيضاً أن يخدم الكشف عن هذه الحقائق المتسلسلة رئيس الوزراء بنيامين نتنياهو بحيث يحد من مسؤوليته [عن ذلك الهجوم]؛ وأخيراً، من الممكن تماماً أن يكون نتنياهو نرجسياً غير كفؤ وسارئيل أحمقاً تماماً، إذ إن هناك مجالاً في هذه القصة لحقيقة ثالثة".

* باحث ومؤرخ - مؤسسة الدراسات الفلسطينية - بيروت.