صحافة تركية: "إسرائيل" توصم الذكاء الاصطناعي بالإبادة الجماعية
استخدام "إسرائيل" أدوات البرمجيات المتقدمة يؤكد حقيقة مروعة في تجيير الذكاء الاصطناعي لتسهيل الفظائع ذات الأبعاد الكارثية والإبادة الجماعية للفلسطينيين في غزة.
وكالة "الأناضول" التركية تنشر مقالاً للكاتب بوراك الملّي، يتحدث فيه عن استخدام الاحتلال الإسرائيلي برامج الذكاء الاصطناعي لتنفيذ إبادته الجماعية في قطاع غزّة، وعن ضرورة تنظيم الأنظمة التي تدعم الذكاء الاصطناعي من خلال النظام الدولي.
أدناه نص المقال منقولاً إلى العربية:
استخدام "إسرائيل" أدوات البرمجيات المتقدمة يؤكد حقيقة مروعة في تجيير الذكاء الاصطناعي لتسهيل الفظائع ذات الأبعاد الكارثية والإبادة الجماعية للفلسطينيين في غزة ببرامج مدعومة من التكنولوجيا المتقدمة بالشراكة مع المنظومة الغربية الشريكة الضارية في هذه الجريمة من خلال تقديمها شيكاً على بياض لحكومة "تل أبيب" منذ أكثر من 7 أشهر، بتواطؤ أفقدها مصداقيتها في إلقاء المحاضرات على دول أخرى حول حقوق الإنسان والحريات.
يتم دمج الذكاء الاصطناعي في قطاعات وجوانب متعددة من الحياة بالتدرج، إذ تستمر المناقشات حول تداعياته المحتملة ومعضلاته الأخلاقية على الرغم من وجود تقييمات متنوعة لكل مجال، إلا أنّ الموضوع المتكرر يؤكد الدور المحوري للطموحات البشرية ومسعاها في استخدام البرمجة المتقدمة، ومنها إدارة الحرب لتحقيق ضرر أوسع وأكبر، وغزة مثال على ذلك.
كل هذا يثير أسئلة عميقة حول المسؤولية البشرية في تطويع وسائل التطور لتنفيذ أغراض وأهداف تتعارض مع كل مبادئ الإنسانية، وماذا لو كان الشخص الذي يتمتع بالبراعة التكنولوجية ينتمي إلى أيديولوجيا متطرفة إلى درجة أنّه لا يتورع عن ارتكاب المجازر بحق المدنيين من دون أيّ رادع بالمطلق، لكونه يمتلك التكنولوجيا للقيام بذلك حتى لو كانت الإبادة الجماعية.
"إسرائيل" تستخدم الذكاء الاصطناعي لأغراضها الخبيثة
يكشف هذا السيناريو عن قضية حرجة تم تناولها في مقال مثير للجدل نشرته مجلة "972 بلس" مؤخراً حول استخدام "إسرائيل" للعمليات التي يحركها الذكاء الاصطناعي، من حيث تحليل المعلومات الاستخباراتية وتحديد الأهداف من دون التأكد من صحة المعلومات أو دقتها بشرياً، ما أدّى إلى ارتفاع مرعب في عدد الضحايا المدنيين بين الفلسطينيين في غزة.
وعلى مدى فترة تجاوزت 6 أشهر، شنّت "إسرائيل" غارات جوّية بنية الإبادة الجماعية العشوائية، كما يتضح من الاعترافات الصريحة للعديد من المسؤولين عن أعمال الاستخبارات العسكرية الصهيونية التي استخدمت برنامج "لافندر" الذي يعتبرون أنه يخطئ بنسبة 10% في تحديد الأهداف البشرية التي تقرر اغتيالها، مع أن نسبة خطأ البرنامج أعلى من نسبة 10% بلا شك، بدليل أنّ عشرات الآلاف من الضحايا الفلسطينيين هم من الأطفال والنساء والمدنيين الذين لم يكونوا يوماً ضمن أعضاء في الجناح العسكري لحركة "حماس".
أوضح تقرير المجلة المذكورة أنّ برنامج "لافندر" يخطئ في معظم الأحيان بالخلط بين أفراد مدنيين لديهم صفات مشابهة مع ناشطين من حركتي حماس أو الجهاد الإسلامي، وقد يكونون من عمال الإغاثة والدفاع المدني والصحافيين الذين صودف أن لديهم لقباً أو أسماً مطابقين لأحد الناشطين.
غالباً ما تتبع اتصالات وزارة الدفاع الإسرائيلية مسار تكتيكات الرقابة على النشر والتعتيم على الانحراف الأخلاقي، وهذه المرة لم تكن مختلفة، إذ يرفض المتحدث الرسمي الاتهامات، لكنّه يؤكدها بمجرد إنكاره الهزيل لها. مع ذلك، فإنّ الواقع الصارخ في عدد الضحايا المدنيين الفلسطينيين لا يترك مجالاً كبيراً لتجاهل التأكيدات عن الإبادة الجماعية الذي ينفّذها الاحتلال الإسرائيلي ويحركها الذكاء الاصطناعي المنسوب لبرنامج لافندر، الذي يتقبل قتل ما بين 15 إلى 20 ضحية مدنية مقابل أي عضو واحد من ذوي الرتب الدنيا في حركة "حماس"، وما يصل إلى 100 ضحية بريئة لعضو بارز في المقاومة الفلسطينية.
اقرأ أيضاً: موظفو "غوغل" المفصولون: طُردنا بسبب احتجاجنا على التواطؤ في حرب غزة.. ولن نسكت
الذكاء الاصطناعي لا يزال في مرحلة الطفولة، والعديد من المؤسسات والشركات تتوخى الحذر بتبني ما قد ينتج منه من أخطار من غير المعروف كيفية التعامل معها، ما يطرح السؤال في وجه الجيش الإسرائيلي ووقاحته باستخدام الذكاء الاصطناعي لتحديد من يعيش ومن يموت، وكم عدد المارة الأبرياء الذين يجب أن يموتوا من أجل عنصر واحد من المقاومين؟
ليست الروبوتات اللاإنسانية هي القاتلة الوحيدة، بل إنّ الجيش الإسرائيلي يتذرع باستخدام الذكاء الاصطناعي في القصف العشوائي الوحشي على المناطق المكتظة بالسكان، ويرتكب المزيد من الإبادة الجماعية بحجة الخطأ بالخوارزمية هذه المرة.
37000 ضحية وعشرات الآلاف الجرحى، ولا يكترث الجيش الصهيوني لتقييم هامش الخطأ الكبير في برنامج "لافندر" غير الدقيق إطلاقاً بخدمة "كيان" بلا ضمير بالمطلق.
وجوب تنظيم الأنظمة التي تدعم الذكاء الاصطناعي من خلال النظام الدولي
لقد دفعت تطورات تقنيات الحرب بمساعدة الذكاء الاصطناعي القدرات العسكرية إلى الأمام، لكنها تستدعي اعتبارات أخلاقية أكثر عمقاً، وخصوصاً على آليات صنع القرار التي تعتمد حصرياً على برامج التكنولوجيا المتقدمة. على سبيل المثال، حاولت "إسرائيل" تقديم "لافندر" كبرنامج يستطيع التمييز بين الأهداف المدنية والعسكرية، مع أنّ الهدف من هذه السردية هو أن يزرعوا تصوراً إيجابياً كمحتل "محترم" لا يضر بالسكان المدنيين وبالمؤسسات العامة والخدمية، لكن النتيجة المدمرة والواقع يختلفان كثيراً عما يريدون للرأي العام العالمي أن يصدقه.
إنّ التحدي الأول في إدراج الذكاء الاصطناعي في القطاعين العسكري والاستخباري يتطلب أحكاماً قانونية تجبر المستخدم على الإفصاح عن طبيعة البرامج المدرجة بوضوح، فالمخاوف الناجمة عن الحد الأدنى من القدرة البشرية في مراقبة مثل هذه الأنظمة تلخص نهج "إسرائيل" في عدوانها على غزة، بعدم التناسب، والاستهداف العشوائي، والتجاهل المتعمد لحدود القانون الإنساني الدولي. وتتطلب مواجهة هذه التحديات تعاوناً دولياً لوضع مبادئ توجيهية ولوائح تحكم تطوير ونشر ومساءلة استخدام تقنيات الذكاء الاصطناعي في الحرب وضمان الالتزام بالمعايير الأخلاقية واحترام حقوق الإنسان.
إنّ مشروع الإبادة الجماعية الذي تنفذه "إسرائيل" في غزة بالبرمجيات المدعومة من الذكاء الاصطناعي هو في الواقع جريمة من جرائم الغرب التي غرست بتهور هذه الجرأة والثقة فيها، إذ سهّلوا لـ"إسرائيل" مراراً وتكراراً الإفلات من العقاب، والدول الغربية التي ترغب في إلقاء محاضرات على الدول الأخرى حول حقوق الإنسان والحريات في أصغر القضايا كانت متواطئة في عمليات القتل الجماعي في غزة بلا ريب.
مع التغييرات الثورية التي فرضها الذكاء الاصطناعي والروبوتات على ميدان الحرب، حان الوقت لتحديث الأدوات التشريعية الدولية ووضع الضوابط والتوازنات التي تحد من العدوان الإسرائيلي. والفشل في القيام بذلك لن يشجع الإسرائيليين في وحشيتهم فحسب، بل سيجعل الذكاء الاصطناعي أداة للإبادة الجماعية أيضاً.
نقله إلى العربية: حسين قطايا