«لافندر» اسم نبات عطري يزرعه الفلسطينيون في بعض القرى القريبة من مدينة طولكرم، وفي العام الماضي اتجهت مجموعة سيدات لزراعته وحصدن أول إنتاجهن في نهاية مايو 2023 لبيعها لشركات إنتاج العطور، ولكن بعد شهور قليلة أطلقت إسرائيل الاسم نفسه على برنامج لقتل عشرات الآلاف من الفلسطينيين في غزة عبر تقنيات الذكاء الاصطناعي، لتشيع في أجواء فلسطين رائحة البارود والموت والدمار بدلا من رائحة العطر!!
وقد لعب دمج الذكاء الاصطناعي في العمليات العسكرية دورا محوريا في النزاعات الأخيرة، في أوكرانيا وفلسطين وأدى إلى ارتفاع كبير في عدد الضحايا المدنيين في غزة مما يثير تساؤلات مهمة عن تأثير التقدم التكنولوجي على جوهر الإنسانية ومدى تقديرها للحياة، في ظل المخاوف المتزايدة لآثار عسكرة الذكاء الاصطناعي الخطيرة على الأمن العالمي.
وفي غزة تجلت بشكل كارثي الآثار الوخيمة لاستخدام هذه التقنيات، فقد ذكرت صحيفة الجارديان البريطانية أن إسرائيل اعتمدت في قصفها لغزة على قاعدة بيانات مدعومة بالذكاء الاصطناعي حددت 37 ألف هدف محتمل عبر برنامج «لافندر» الذي يعتمد على جمع معلومات عن سكان غزة والتعرف على بياناتهم والبصمة الرقمية لهواتفهم وتسجيل وجوههم.. ويتعامل «لافندر» مع أى شخص يحمل نفس اسم أو لقب أحد عناصر المقاومة باعتباره من المقاومة، بل إن أى شخص مشترك بمجموعة «واتساب» فيها مقاوم يدخل فى دائرة الاشتباه.
من المفترض أن تكون الأسلحة المدعومة بالذكاء الاصطناعي أكثر دقة من الأسلحة الموجهة بالبشر؛ مما قد يُقلل من الأضرار الجانبية مثل: الضحايا المدنيين، إلا أن الهجمات التي نفذت بعد تحديد الأهداف عبر «لافندر» استخدمت فيها إسرائيل ذخائر غير موجهة تعرف باسم «القنابل الغبية» كما ذكرت مصادر استخباراتية إسرائيلية لـ»الجارديان»، مما أدى إلى تدمير منازل بأكملها وقتل جميع ساكنيها. كما يعمل مع برنامج «لافندر» برنامجان آخران هما: «أين هو أبي؟» الذي يستخدم لتعقب الأفراد الذين تم تحديدهم كأهداف وقصفهم عندما يكونون في المنزل، وبرنامج «الإنجيل»، الذي يهدف إلى تحديد المباني والهياكل.
هذا يعني أن فكرة الإبادة الجماعية قائمة من البداية لدى قوات الاحتلال، عبر الدمج بين البرنامج الذكي والقنابل الغبية.
وكشفت دراسة نشرها أخيرا مركز المستقبل للأبحاث والدراسات المتقدمة، عددا من المخاطر الناجمة عن توظيف الذكاء الاصطناعي في الحروب، من أبرزها: أولا: وقوع أخطاء فنية في حالة استخدام الأسلحة المتحكمة بشكل آلي دون وجود رقابة بشرية كافية، وهو ما قد نتج عنه قتل للمدنيين.
ثانيا: الخروج عن السيطرة، ففي بعض الحالات، قد يكون التفاعل بين أنظمة الذكاء الاصطناعي والقادة البشريين غير فعّال؛ وقد ينتج عنه تطبيق قرارات آلية دون تدخل بشري؛ قد تحدث سلوكيات ضارة بالمجتمعات.
وذكرت الدراسة أن توظيف برامج الذكاء الاصطناعي في الحرب الإسرائيلية في غزة انطوي على مخاطر شديدة منها:
ــ قتل عمال الإغاثة: بسبب تراجع قدرة البرامج على التمييز بين عمال الإغاثة والمسلحين.
ــ تدمير الآلاف من المنازل والبنية التحتية الحيوية.
ــ عدم قدرة على حسم المعركة: فبالرغم من توظيف هذه القدرات الذكية لم تستطع إسرائيل بعد مرور 250 يوما على حربها في غزة، تحقيق أي من أهدافها .
ــ تضاعف عدد القتلى من المدنيين، حيث أدى توظيف إسرائيل لتقنيات الذكاء الاصطناعي إلى وقوع عشرات الآلاف من المدنيين الأبرياء، إذ أن استهداف شخص ما يحتمل أنه عسكري بناءً على توصية من برامج التحقق الذكية؛ يترتب عليه مقتل العشرات من المحيطين به دون تمييز. والنتيجة أكثر من 37 ألف شهيد و85 ألف مصاب فلسطيني خلال العدوان على غزة.
وهذا نموذج مأساوي لاستخدامات الذكاء الاصطناعي في الحروب والتي تلاقي معارضة من الجمعيات الحقوقية نظرا لمخاطره الجسيمة، ذلك أصبح من الضروري تبني إطار قانوني دولي للتحكم في مختلف استخدامات الذكاء الاصطناعي بطريقة تحقق العدالة واحترام حقوق الإنسان. وتقنين استخدامه في الحروب وتطوير آليات للمراقبة البشرية على عمليات القرار الآلي في الميدان العسكري.ووضع عقوبات رادعة لمواجهة استخدامه لقتل المدينيين وتدمير المنشآت المدنية سواء نتيجة أخطاء أو عن عمد وترصد كما حدث في العدوان الإسرائيلي على غزة، والموثق بالعديد من التقارير والشهادات الدولية.
لمزيد من مقالات د. محمد يونس رابط دائم: