"واشنطن بوست": تدقيق يؤكد تقييد "فيسبوك" المنشورات الفلسطينية خلال حرب غزة
يعد التدقيق الخارجي الذي أجرته شركة مستقلة إحدى الروايات الداخلية الأولى حول فشل موقع التواصل الاجتماعي أثناء الحرب على غزة.
قالت صحيفة "واشنطن بوست" الأميركية إن مراجعة مستقلة لمعالجة موقع "فيسبوك" (ميتا) للمحتوى على الإنترنت خلال الحرب التي استمرت أسبوعين بين "إسرائيل" وحركة حماس الفلسطينية العام الماضي قد وجدت أن عملاق وسائل التواصل الاجتماعي قد حرم المستخدمين الفلسطينيين من حرية التعبير "عن طريق إزالة محتواهم عن طريق الخطأ ومعاقبة المستخدمين الناطقين بالعربية أكثر من الناطقين بالعبرية".
يعد التقرير الصادر عن شركة الاستشارات Business for Social Responsibility لائحة اتهام أخرى لقدرة شركة "ميتا" على مراقبة ميدانها العام العالمي وتحقيق التوازن بين حرية التعبير وإمكانية حدوث ضرر في سياق دولي متوتر. وبحسب التقرير، تمثل لائحة الاتهام هذه واحدة من أولى الروايات المطلعة عن إخفاقات منصة اجتماعية أثناء الحرب. وهي تعزز شكاوى النشطاء الفلسطينيين من أن الرقابة على الإنترنت تلحق بهم بشكل أكبر، كما ذكرت صحيفة واشنطن بوست ومنافذ إعلامية أخرى في ذلك الوقت.
وقال "حملة"، المركز العربي للتقدم من وسائل التواصل الاجتماعي، وهو مجموعة تدافع عن الحقوق الرقمية الفلسطينية، في بيان على تويتر إن "تقرير شركة Business for Social Responsibility يؤكد أن رقابة شركة ميتا Meta قد انتهكت الحق الفلسطيني في حرية التعبير من بين حقوق الإنسان الأخرى من خلال فرضها المفرط بشكل أكبر للمحتوى العربي مقارنة بالعبرية، والذي كان غير خاضع للإشراف إلى حد كبير".
وقد اندلعت حرب أيار / مايو 2021 في البداية بسبب نزاع حول قضية أمام المحكمة العليا الإسرائيلية تتعلق بما إذا كان للمستوطنين الحق في إجلاء العائلات الفلسطينية من منازلهم في حي الشيخ جراح في القدس. فخلال احتجاجات عنيفة على عمليات الإخلاء، اقتحمت شرطة الاحتلال الإسرائيلي المسجد الأقصى. وردت حركة "حماس" بإطلاق صواريخ على الكيان الإسرائيلي، وردت "إسرائيل" بحملة قصف استمرت 11 يوماً خلفت أكثر من 200 شهيد فلسطيني. كما قُتل أكثر من عشرة أشخاص في "إسرائيل" قبل أن يدعو الطرفان إلى وقف إطلاق النار، بحسب الصحيفة الأميركية.
وأشارت "واشنطن بوست" إلى أنه طوال فترة الحرب، تمت الإشادة بموقع فيسبوك والمنصات الاجتماعية الأخرى لدورها المركزي في المشاركة المباشرة، من أرض الواقع حول الصراع سريع الحركة. ونشر فلسطينيون صوراً لمنازل مغطاة بالأنقاض وتوابيت أطفال خلال القصف الإسرائيلي، مما أدى إلى احتجاج عالمي لإنهاء الصراع. لكن مشاكل الإشراف على المحتوى ظهرت على الفور تقريباً. ففي وقت مبكر خلال الاحتجاجات، بدأ موقع انستاغرام، المملوك لشركة ميتا إلى جانب تطبيق واتساب وموقع فيسبوك، في تقييد المحتوى الذي يحتوي على هاشتاغ #Aqsa أقصى.
في البداية، ألقت الشركة باللوم في المشكلة على خطأ في نشر البرامج تلقائياً. بعد أن نشرت "واشنطن بوست" خبراً يسلط الضوء على المشكلة، زعمت متحدثة باسم شركة "ميتا" أن "خطأً بشرياً" تسبب في الخلل، لكنها لم تقدم مزيداً من المعلومات.
يلقي تقرير مراجعة شكرة BSR ضوءاً جديداً على القضية. يقول التقرير إن هاشتاغ #Aqsa تمت إضافته عن طريق الخطأ إلى قائمة المصطلحات المرتبطة بالإرهاب من قبل موظف يعمل لدى مقاول خارجي يتولى الإشراف على محتوى الشركة. ووجد التقرير أن الموظف سحب خطأ "من قائمة محدثة للمصطلحات من وزارة الخزانة الأميركية تحتوي على كتائب الأقصى، مما أدى إلى إخفاء #الأقصى من نتائج البحث". وتحدث موقع بازفيد نيوز BuzzFeed News عن مناقشات داخلية حول تسمية الإرهاب الخاطئة في ذلك الوقت.
يؤكد التقرير، الذي حقق فقط في فترة حرب عام 2021 وما بعدها مباشرة، على سنوات من الروايات من الصحافيين والنشطاء الفلسطينيين أن فيسبوك وإنستغرام يبدو أنهما يفرضان رقابة على منشوراتهم أكثر من تلك الخاصة بالناطقين بالعبرية. وجدت شركة BSR، على سبيل المثال، أنه بعد تعديل الاختلاف في التعداد السكاني بين الناطقين بالعبرية والعربية في "إسرائيل" والأراضي الفلسطينية (أي الضفة الغربية وقطاع غزة)، كان فيسبوك يزيل أو يقيد منشورات الفلسطينيين أكثر من الإسرائيليين. أظهرت البيانات الداخلية التي تمت مراجعتها من BSR أيضاً أن البرنامج يقوم بشكل روتيني بالإبلاغ عن المحتوى الذي يحتمل أن يخالف القواعد باللغة العربية بمعدلات أعلى من المحتوى باللغة العبرية.
وزعم التقرير أن هذا "كان على الأرجح لأن أنظمة خطاب الكراهية القائمة على الذكاء الاصطناعي في شركة ميتا تستخدم قوائم المصطلحات المرتبطة بالمنظمات الإرهابية الأجنبية، وكثير منها مجموعات من المنطقة. لذلك، من المرجح أن الشخص الذي ينشر باللغة العربية قد يتم تمييز محتواه على أنه من المحتمل أن يكون مرتبطاً بجماعة إرهابية".
كما ذكر التقرير أن "ميتا" قد أنشأت برنامج الكشف هذا للتعرف بشكل استباقي على خطاب الكراهية والعداء باللغة العربية، لكنها لم تفعل ذلك للغة العبرية.
وأشار التقرير كذلك إلى أنه - نظراً لنقص المشرفين على المحتوى باللغتين العربية والعبرية - كانت الشركة توجه محتوى يحتمل أن يخالف القواعد إلى مراجعي المحتوى في الشركة الذين لا يتحدثون أو يفهمون اللغة، وخاصة اللهجات العربية. وقد أدى ذلك إلى مزيد من الأخطاء.
وقد أصدر التقرير، الذي تم تكليفه من قبل فيسبوك بناءً على توصية مجلس الرقابة المستقل، 21 توصية للشركة. يتضمن ذلك تغيير سياساتها بشأن تحديد المنظمات والأفراد الخطرين، وتوفير المزيد من الشفافية للمستخدمين عند معاقبة المنشورات، وإعادة تخصيص موارد الإشراف على المحتوى باللغتين العبرية والعربية، وتوجيه انتهاكات المحتوى المحتملة باللغة العربية إلى المراجعين الذين يتحدثون نفس اللهجة العربية الواردة في منشور التواصل الاجتماعي.
نقله إلى العربية بتصرف: الميادين نت