السباق نحو الهاوية عِبر حرب الذكاء الاصطناعي

بقلم/ حسيني الاطرقجي/ باحث في الشؤون الامنية

أدت الحرب على غزة إلى تسريع تطوير واستخدام أنظمة الذكاء الاصطناعي (AI) بشكل غير مسبوق من قبل الجيش الإسرائيلي، هذه الأنظمة، التي تم تطويرها واختبارها في بيئة قتالية حقيقية، أحدثت تحولاً جوهرياً في إدارة العمليات العسكرية، لكنها أيضًا أثارت أسئلة أخلاقية وقانونية عميقة حول استخدام التكنولوجيا في اتخاذ قرارات الحياة والموت. زعمت إسرائيل أن هذه الأنظمة زادت كفاءة العمليات، حيث انتقلت من إنتاج 50 هدفًا في السنة إلى 100 هدف يوميًا.
لكن التقارير تشير إلى أن هذه الأنظمة أدت إلى أخطاء كُبرى وقاتلة في تحديد الهوية واعتقالات ووفيات مدنية، كما كشفت تسريبات استخباراتية إسرائيلية أن 83% من الضحايا في غزة مدنيون، بينما لا تتجاوز نسبة مقاتلي حماس والجهاد الإسلامي 17%. أدى استخدام الذكاء الاصطناعي إلى عمليات قصف غير مميزة، مما أسفر عن مقتل عشرات الآلاف من المدنيين، بما في ذلك النساء والأطفال بكثافة. استخدمت إسرائيل غزة كمعمل لاختبار تقنيات جديدة، مثل دمج الذكاء الاصطناعي مع برامج التعرف على الوجوه وإنشاء روبوت محادثة باللغة العربية لتحليل النصوص والبيانات. أدى ذلك إلى وفيات مدنية، كما في حالة قصف مبنى سكني في تشرين اول/ اكتوبر 2023 الذي استهدف قياديًا في حماس (ابراهيم البياري) وأدى إلى استشهاد 125 مدنيًا.

استخدمت اسرائيل في حربها على غزة مجموعة من النظم الالكترونية بالتعاون مع مطوري الذكاء الاصطناعي في الهند، ومن هذه الانظمة:
1. نظام “لافندر” (Lavender)
الوظيفة: معالجة كميات هائلة من البيانات بسرعة لتوليد آلاف الأهداف المحتملة للضربات العسكرية.
التأثير: حل محل البشر في تحديد الأهداف الجديدة واتخاذ القرارات، مع معدل دقة بنسبة 90%، كما يزعم الكيان و كان له دور محوري في القصف المكثف، خاصة في المراحل الأولى من الحرب، حيث وفر الوقت والموارد.
2. نظام “أين أبي؟” (Where’s Daddy?)
الوظيفة: تتبع الأفراد المستهدفين من “حماس والجهاد الاسلامي”وتنفيذ عمليات تفجير عند دخولهم منازل عائلاتهم.
التأثير: أدى إلى إبادة عائلات فلسطينية بأكملها داخل منازلهم، مما يفسر الأعداد الكبيرة من الضحايا المدنيين.
3. نظام “غوسبل” (الإنجيل – Gospel)
الوظيفة: تحديد المباني والمنشآت التي يُزعم أن المسلحين الفلسطينيين يستخدمونها.
التأثير: ساعد في قصف 12 ألف هدف في غزة، حيث يتم تزويد القوات بالمعلومات الاستخباراتية من مصنع الأهداف بالذكاء الاصطناعي، مما يتيح “تنفيذ مئات الهجمات في اللحظة نفسها”، بالمحصلة جعل هذا الامر من غزة مدينة ركام.
4. أنظمة أخرى
نظام “فاير فاكتوري”: يُحلل مجموعات بيانات واسعة لحساب كميات الذخيرة اللازمة وتحديد أولويات الأهداف.
نظام “عمق الحكمة”: يُحلل البيانات لرسم خريطة شبكة الأنفاق تحت الأرض.
نظام “الكيميائي”: يُوفر تنبيهات فورية للتهديدات المحتملة على الأرض.

انفق العالم على سباق التسليح في العام 2024 قرابة 2،7 تريليون دولار، كان اكثر الدول انفاقا هي الولايات المتحدة بما يقارب 940 مليار دولار “قرابة التريليون دولار” وفي لحظة ما ادركت اميركا انها متأخرة تكنلوجيا قرابة الصين فسارعت الى دمج الذكاء الاصطناعي بالصناعات العسكرية الحربية وإعطاء مساحة للقيادة عبر الذكاء الاصطناعي على الحساب القيادة والتوجيه البشري.
وصل سباق التسلح الى الجيل السادس المدمج بالذكاء الاصطناعي كليا، اي ان الذكاء سيتخذ القرارات بناء على التحديات وقرارات تشخيص العدو واطلاق النار، وهو ما تسعى اليه الادارة الاميركية لتوازي سباق التسلح بالذكاء الاصطناعي الصيني، اذ انها عقدت اجتماعا موسعا في كوريا الجنوبية اشبه ما يكون بالمؤتمر تناول الذكاء الاصطناعي وتحديات التسليح في 4/ اب من العام الجاري، في محاولة الترويج والتسويق لاستراتيجيتها لاقناع الدول الاسيوية بان الرقاقات والبرمجيات الاميركية هي الافضل مقابل نظيرتها الصينية، عبر الترويج لشركات مثل (أن ڤيديا، اوبين أي آي)، اذ تعكس هذه الحركة تخوفا من نمو وتمدد شركات صينية مثل (هواوي، ديب سيك، علي بابا).

وبهذا الصدد، تشير تقارير عالمية مثل معهد “راند” للدراسات والبحوث في مجال تطوير الحروب والصناعات العسكرية الى خطورة تمكين الذكاء الاصطناعي في مجال الصناعات العسكرية وقرارات الحرب، على اعتبار ان اطلاق يد الذكاء الاصطناعي سيمكنه من التغلب على القرارات البشرية وربما الاعتداد بالخوارزميات الخاصة به، والانفراد في القرار بل قد يتحول الامر الى استحالة ايقافه. اذ انه سيغير طبيعة العقائد العسكرية التقليدية الى عقائد خاصة “عقيدة الذكاء الاصطناعي الحربي”، الحقيقة المؤسفة هي أن العالم يواجه حاليا مجموعة متنوعة من المخاطر العالمية والناشئة، مما يعني أنه لا يوجد نقص في المجالات التي تستدعي التركيز. هناك خطر الذكاء الاصطناعي المتقدم والذكاء الاصطناعي العام، وخطر التقدم في التكنولوجيا التي تُغيّر البيولوجيا، مثل ديناميات البيولوجيا الاصطناعية التي يمكن أن تُؤدي إلى مشاكل محتملة واسعة النطاق. كما أن الصين نفسها تُشكل خطرا على الأمن العالمي، ويمكننا الاستمرار في ذكر المخاطر المنهجية التي قد تكون مدمرة للغاية.

يعتقد جيم مايتر النائب الاول لرئيس مؤسسة “راند” ومدير “برامج المخاطر” بالمؤسسة المختصة في الشؤون البحثية في مجالي الدفاع والامن أن “مطوري الذكاء الاصطناعي يعتقدون أننا نقترب من عقبة انفلات وتمرد الذكاء الاصطناعي وان خطورته تكمن في قدرته على حل مشكل واتخاذ قرارات لا يتوقعها المطورون أنفسهم، مما يمكّنه من تغيير شكل الحروب والمجتمعات، وأنه يستطيع تسريع عملية جمع وتحليل المعلومات الاستخبارية واتخاذ القرارات الاستراتيجية بسرعة تفوق البشر”،
ما يميز النظام الامريكي السياسي والاقتصادي هو أن شركات التكنلوجيا الكبرى تتميز باستقلالية كبرى عن ادارة الدولة وقراراتها، اي ان المكاسب الاقتصادية المتأتية من الابتكار والقرارات العسكرية للهيمنة على الدول الاخرى تتخذ في غرف عمليات الشركات الكبرى وليس في البيت الابيض وما ما يتصادم بشدة مع الامن القومي العالمي والمصالح العامة للشعوب، على عكس الاستراتيجية الصينية التي تجعل الدولة هي الوصي والراعي وصاحب القرار على المؤسسات الإقتصادية وهذا يمثل تحديا بالغا في من سيتفوق ومن سيخفق في القرارات والتبعات على الصالح العام الدولي.. وبالصدد ذاته اشار (كاي فو لي) مؤلف كتاب الذكاء الاصطناعي القوة العظمى الى أن الصين قد تجاوزت مرحلة التقليد الى القدرة على المنافسة والتفوق في الابتكار، وهذا الامر قد حصل بينما كانت واشنطن تطرح تقديرات المواقف غير حقيقة او سيئة في سباقها للتسلح العسكري بالذكاء الاصطناعي.

والسؤال الصعب في هذه المعادلة: هل أن العالم مقبل على مرحلة تشبه الى حد ما افلام هوليود بتفوق الذكاء الاصطناعي ونهاية الجنس البشري؟، أم أن المعادلة اقل وتيرة يمكن القول من خلالها ان العالم مقبل على صراعات وحروب بالاسلحة المحرمة لضمان تفوق القوى العظمى او نشوء عالم متعدد الاقطاب؟ ربما اجاب المفكر الاميركي نعوم تشومسكي عن قراءته في تسارع الاحداث الساخنة واصفا المشهد: ” أن العالم مُصمم على السقوط نحو الهاوية”. ربما يشاطره جيم المايتر الرأي لكن بصورة اكثر سوداوية: ” أن الذكاء الاصطناعي سيصمم على ذهاب العالم نحو الهاوية”!

مقالات ذات صلة

زر الذهاب إلى الأعلى
آخر الأخبار