غزة حقل تجارب.. تقرير يحذر من تداعيات استخدام إسرائيل للذكاء الاصطناعي في الحرب

جيش الاحتلال
جيش الاحتلال

في تقرير موسع، كشفت صحيفة نيويورك تايمز عن تسارع وتيرة استخدام إسرائيل لتقنيات الذكاء الاصطناعي في العمليات العسكرية، مع تسليط الضوء على ما وصفته بـ"العواقب القاتلة" المحتملة لاستخدام هذه الأدوات، فبينما تقدم هذه التكنولوجيا كأداة للابتكار الحربي، فإنها تثير في الوقت ذاته قلقًا متصاعدًا بشأن الأبعاد الأخلاقية والإنسانية لتوظيفها في ساحات القتال، لا سيما في قطاع غزة.

اغتيال البياري

في أواخر عام 2023، شرعت إسرائيل في تعقب إبراهيم البياري، أحد كبار القادة العسكريين لحركة حماس في شمال قطاع غزة، والمتهم بالمشاركة في التخطيط لهجمات 7 أكتوبر. 

ورغم جهود استخباراتية حثيثة، فشلت الأجهزة الأمنية الإسرائيلية في تحديد موقعه الدقيق، إذ اعتقدت أنه يتحصن داخل شبكة أنفاق معقدة أسفل غزة.

اقرأ أيضًا:

حينها، لجأ الجيش الإسرائيلي إلى تقنية عسكرية جديدة تعتمد على الذكاء الاصطناعي، بحسب رواية ثلاثة مسؤولين إسرائيليين وأميركيين على دراية مباشرة بالتفاصيل، وهذه الأداة، التي تعود جذورها إلى نحو عقد مضى، لم تكن قد خضعت لاختبار ميداني فعلي قبل تلك اللحظة.

قام مهندسو وحدة 8200 – وهي الذراع السيبرانية الإسرائيلية المكافئة لوكالة الأمن القومي الأميركية – بتعديل هذه الأداة وتزويدها بإمكانات الذكاء الاصطناعي، ما مكنها من تحليل المكالمات الصوتية للبياري، وبعد اعتراض عدد من اتصالاته، قدمت الأداة تقديرًا تقريبيًا لموقعه، مما دفع إسرائيل إلى شن غارة جوية في 31 أكتوبر 2023 أسفرت عن مقتله.

حقل تجارب تكنولوجي

تجربة اغتيال البياري لم تكن سوى البداية، إذ توسعت إسرائيل بشكل سريع في استخدام الذكاء الاصطناعي ضمن مختلف عملياتها في قطاع غزة، وقد كشف تسعة مسؤولين في الدفاع الأميركي والإسرائيلي أن تل أبيب وظفت أدوات مدعومة بالذكاء الاصطناعي لتحديد أهداف القصف، وتوجيه الضربات، ومطابقة الوجوه حتى في حالات التشويه أو الإصابة، واستخلاص معلومات استخباراتية من مصادر نصية واجتماعية باللغة العربية.

وفي هذا السياق، طوّرت إسرائيل نموذجًا لغويًا اصطناعيًا قادرًا على التعامل مع النصوص العربية بمختلف لهجاتها، وساعد النموذج في تدريب روبوت محادثة على تحليل الرسائل النصية، والمكالمات، ومنشورات وسائل التواصل الاجتماعي، لتقديم قراءة آنية للرأي العام، ولا سيما في أعقاب عمليات مثل اغتيال حسن نصر الله، زعيم حزب الله، في سبتمبر – وفق ما كشفه ثلاثة ضباط إسرائيليين.

تعاون بين الجيش وشركات التقنية

تعاونت وحدة 8200 مع جنود احتياط يعملون في شركات تكنولوجية عالمية مثل غوغل، ومايكروسوفت، وميتا، لتطوير هذه الأدوات، وأنشئ مركز خاص للابتكار أُطلق عليه اسم "الاستوديو"، هدفه جمع خبرات القطاعين العسكري والمدني لتسريع الابتكار في مجالات الذكاء الاصطناعي.

من بين هذه الابتكارات، أداة التعلم الآلي المعروفة باسم "لافندر"، والتي استخدمت لتحليل بيانات سلوكية وتحديد عناصر حماس من الرتب المتدنية، وتستند خوارزميات لافندر إلى تحليل أنماط الاتصال والحركة، لتحديد المقاتلين بناءً على مؤشرات غير تقليدية.

تداعيات إنسانية وأخلاقية مثيرة للقلق

ورغم التقدم التكنولوجي اللافت، فإن استخدام هذه الأدوات لم يكن خاليًا من التبعات المأساوية، فقد أشار عدد من المسؤولين الإسرائيليين والأميركيين إلى حالات متعددة وقعت فيها أخطاء في الاعتقال أو الاستهداف، أدت إلى مقتل مدنيين أو توقيف أبرياء، نتيجة الاعتماد على نتائج تحليل آلي غير دقيقة. 

وساهمت الكاميرات المزودة بتقنية التعرف على الوجوه، والتي وضعت على الحواجز العسكرية في غزة، أحيانًا في توقيف أشخاص لا علاقة لهم بالعمل المسلح، فقط لأن ملامحهم تطابقت جزئيًا مع بيانات مخزنة.

حتى النموذج اللغوي العربي نفسه، واجه تحديات كبيرة في فهم المصطلحات المحلية أو الكلمات المعربة، ما استدعى تدخلاً بشريًا متكررًا لإعادة ضبطه وتجنب وقوع أخطاء تحليلية جسيمة.

تأتي هذه الممارسات امتدادًا لنهج إسرائيلي طويل بتوظيف الحروب في غزة ولبنان كمنصات لتجريب وتحديث تقنيات عسكرية، بدءًا من الطائرات المسيّرة، مرورًا بأدوات اختراق الهواتف، وصولًا إلى منظومات الدفاع مثل "القبة الحديدية"، لكن التوسع الحالي في تطبيقات الذكاء الاصطناعي يفتح بابًا جديدًا للنقاش حول مستقبل الحروب، حيث تتحول الآلات إلى لاعبين رئيسيين، وقد تتخطى قدراتها حدود السيطرة الأخلاقية والإنسانية.

سكاي نيوز