• 22/11/2023
  •  https://dg.samrl.org/l?a5066 
    فيسبوك يوافق على إعلانات إسرائيلية تحرض على قتل الفلسطينيين
    الحقوق الرقمية |

    تمت الموافقة على سلسلة من الإعلانات التي تجرد الإنسانية وتدعو إلى العنف ضد الفلسطينيين، والتي تهدف إلى اختبار معايير الاعتدال في محتوى فيسبوك، من قبل شبكة التواصل الاجتماعي، وفقًا للمواد التي تمت مشاركتها مع موقع The Intercept.

    وتضمنت الإعلانات المقدمة، باللغتين العبرية والعربية، انتهاكات صارخة لسياسات فيسبوك وشركتها الأم ميتا. وتضمنت بعضها محتوى عنيفًا يدعو بشكل مباشر إلى قتل المدنيين الفلسطينيين، مثل الإعلانات التي تطالب بـ "محرقة للفلسطينيين" والقضاء على "نساء وأطفال وشيوخ غزة". واحتوت منشورات أخرى، مثل تلك التي تصف أطفال غزة بأنهم "إرهابيو المستقبل" والإشارة إلى "الخنازير العربية"، في لغة مهينة للإنسانية.

    "إن الموافقة على هذه الإعلانات هي مجرد الأحدث في سلسلة إخفاقات ميتا تجاه الشعب الفلسطيني".
    وقال نديم الناشف، مؤسس مجموعة "حملة" الفلسطينية للبحث في وسائل التواصل الاجتماعي، والتي قدمت الإعلانات التجريبية، لموقع The Intercept: "إن الموافقة على هذه الإعلانات هي الأحدث في سلسلة من إخفاقات ميتا تجاه الشعب الفلسطيني". "طوال هذه الأزمة، شهدنا نمطًا مستمرًا من التحيز الواضح والتمييز ضد الفلسطينيين".

    ظهرت فكرة "حملة" لاختبار جهاز الرقابة على التعلم الآلي على فيسبوك الشهر الماضي، عندما اكتشف الناشف إعلانًا على صفحته على فيسبوك يدعو صراحةً إلى اغتيال الناشط الأمريكي بول لارودي، أحد مؤسسي حركة غزة الحرة. وجاء في الترجمة التلقائية لفيسبوك للإعلان النصي ما يلي: "حان الوقت لاغتيال بول لارودي [هكذا]، الإرهابي المعادي للسامية والمدافع عن حقوق الإنسان من الولايات المتحدة". أبلغ ناشف عن الإعلان إلى فيسبوك، وتمت إزالته.

    تم نشر الإعلان من قبل Ad Kan، وهي مجموعة إسرائيلية يمينية أسسها ضباط سابقون في الجيش الإسرائيلي وضباط مخابرات لمحاربة “المنظمات المناهضة لإسرائيل” التي يأتي تمويلها من مصادر يُزعم أنها معادية للسامية، وفقًا لموقعها على الإنترنت. (لم يستجب لارودي ولا آد كان على الفور لطلبات التعليق).

    تعتبر الدعوة لاغتيال ناشط سياسي انتهاكًا لقواعد الإعلان في فيسبوك. ويشير ظهور المنشور الذي رعاه Ad Kan على المنصة إلى موافقة فيسبوك عليه على الرغم من تلك القواعد. من المحتمل أن يكون الإعلان قد مر عبر التصفية من خلال عملية فيسبوك الآلية، القائمة على التعلم الآلي، والتي تسمح لأعمالها الإعلانية العالمية بالعمل بسرعة.

    "تم تصميم نظام مراجعة الإعلانات لدينا لمراجعة جميع الإعلانات قبل نشرها،" وفقًا  لسياسة إعلانات فيسبوك. نظرًا لأن اعتدال ميتا القائم على الإنسان، والذي اعتمد تاريخيًا بشكل كامل تقريبًا على عمالة متعاقدة من مصادر خارجية ، قد اجتذب قدرًا أكبر من التدقيق والنقد، فقد أصبحت الشركة تعتمد بشكل أكبر على برامج مسح النصوص الآلية لفرض قواعد الكلام وسياسات الرقابة.

    في حين أن هذه التقنيات تسمح للشركة بتجنب قضايا العمل المرتبطة بالمشرفين البشريين، فإنها تحجب أيضًا كيفية اتخاذ قرارات الإشراف خلف الخوارزميات السرية.

    في العام الماضي، وجدت مراجعة خارجية بتكليف من شركة ميتا أنه بينما كانت الشركة تستخدم بشكل روتيني الرقابة الخوارزمية لحذف المنشورات العربية، لم يكن لدى الشركة خوارزمية مكافئة للكشف عن "الخطاب العدائي العبري" مثل الخطاب العنصري والتحريض العنيف. بعد التدقيق، زعمت شركة ميتا أنها "أطلقت أداة تصنيف "للخطاب العدائي" العبري لمساعدتنا بشكل استباقي في الكشف عن المحتوى العبري الأكثر انتهاكًا". المحتوى، مثل إعلان يتبنى جريمة قتل.

    التحريض على العنف على الفيسبوك
    وفي خضم الحرب الإسرائيلية على الفلسطينيين في غزة، كان الناشف منزعجًا بدرجة كافية من الدعوة الصريحة في الإعلان لقتل لارودي، لدرجة أنه شعر بالقلق من أن الوظائف المماثلة مدفوعة الأجر قد تساهم في العنف ضد الفلسطينيين.

    إن التحريض على العنف على نطاق واسع والذي ينتقل من وسائل التواصل الاجتماعي إلى العالم الحقيقي ليس مجرد افتراض: ففي عام 2018، وجد محققو الأمم المتحدة أن المنشورات التحريضية العنيفة على فيسبوك لعبت "دورًا حاسمًا" في الإبادة الجماعية للروهينجا في ميانمار. (في العام الماضي، قامت مجموعة أخرى بعرض إعلانات اختبارية تحرض ضد الروهينجا، وهو مشروع على غرار تجربة حملة؛ وفي هذه الحالة، تمت الموافقة على جميع الإعلانات أيضًا ).

    لم توضح الإزالة السريعة لمنشور Larudee كيفية الموافقة على الإعلان في المقام الأول. في ضوء تأكيدات فيسبوك بوجود ضمانات، شعر الناشف وحملة، اللذان يتعاونان رسميًا مع ميتا في قضايا الرقابة وحرية التعبير، بالحيرة.

    "لدى ميتا سجل حافل بعدم القيام بما يكفي لحماية المجتمعات المهمشة.

    لمعرفة ما إذا كانت الموافقة مجرد صدفة، أنشأت حملة وأرسلت 19 إعلانًا، باللغتين العبرية والعربية، مع نص متعمد، في انتهاك صارخ لقواعد الشركة – وهو اختبار لميتا وفيسبوك. تم تصميم إعلانات حملة لاختبار عملية الموافقة ومعرفة ما إذا كانت قدرة ميتا على فحص التحريض العنيف والعنصري قد تحسنت تلقائيًا، حتى مع وجود أمثلة لا لبس فيها على التحريض على العنف.

    قال الناشف: "علمنا من مثال ما حدث للروهينجا في ميانمار أن شركة ميتا لديها سجل حافل بعدم القيام بما يكفي لحماية المجتمعات المهمشة، وأن نظام إدارة الإعلانات الخاص بها كان ضعيفًا بشكل خاص".

    يبدو أن ميتا قد فشل في اختبار حملة.

    إن كتاب قواعد معايير المجتمع الخاص بالشركة - والذي من المفترض أن تمتثل الإعلانات له حتى تتم الموافقة عليها - لا يحظر فقط النصوص التي تدعو إلى العنف، ولكن أيضًا أي تصريحات تجرد الأشخاص من إنسانيتهم ​​على أساس العرق أ أو الدين أو الجنسية. على الرغم من ذلك، تظهر رسائل التأكيد الإلكترونية التي تمت مشاركتها مع The Intercept أن فيسبوك وافق على كل إعلان.

    على الرغم من أن حملة قالت لموقع The Intercept، إن المنظمة لم يكن لديها أي نية لعرض هذه الإعلانات فعليًا وكانت ستسحبها قبل الموعد المقرر لظهورها، إلا أنها تعتقد أن موافقتها توضح أن المنصة الاجتماعية لا تزال قصيرة النظر بشكل أساسي فيما يتعلق بالكلام غير الإنجليزي - وهي اللغات التي يستخدمها عدد كبير من الأشخاص. غالبية مستخدميها الذين يزيد عددهم عن 4 مليارات. (رفضت شركة Meta بأثر رجعي إعلانات حملة بالعبرية بعد أن لفت موقع The Intercept انتباه الشركة إليها، لكن الإصدارات العربية ظلت معتمدة ضمن نظام إعلانات فيسبوك).

    وأكدت المتحدثة باسم فيسبوك، إيرين ماكبايك، أنه تمت الموافقة على الإعلانات عن طريق الخطأ. وقالت: "على الرغم من استثماراتنا المستمرة، فإننا نعلم أنه ستكون هناك أمثلة لأشياء نفتقدها أو نزيلها عن طريق الخطأ، حيث يرتكب كل من الآلات والبشر الأخطاء". "لهذا السبب يمكن مراجعة الإعلانات عدة مرات، بما في ذلك بمجرد نشرها."

    بعد أيام قليلة من الموافقة على إعلاناتها التجريبية، اكتشفت حملة إعلانًا باللغة العربية تديره مجموعة تطلق على نفسها اسم "الهجرة الآن" وتطلق على "العرب في يهودا والسومرية" - وهو الاسم الذي يستخدمه الإسرائيليون، وخاصة المستوطنون، للإشارة إلى أن على أهالي الضفة الغربية الانتقال إلى الأردن.

    وفقًا لوثائق فيسبوك ، فإن الفحص الآلي القائم على البرامج هو "الطريقة الأساسية" المستخدمة للموافقة على الإعلانات أو رفضها. ولكن من غير الواضح ما إذا كانت خوارزميات "الخطاب العدائي" المستخدمة للكشف عن المشاركات العنيفة أو العنصرية تُستخدم أيضًا في عملية الموافقة على الإعلان. وفي ردها الرسمي على تدقيق العام الماضي، قال فيسبوك إن أداة التصنيف الجديدة للغة العبرية "ستحسن بشكل كبير" قدرتها على التعامل مع "الارتفاع الكبير في المحتوى الانتهاك"، مثل ما يتعلق باندلاع الصراع بين إسرائيل وفلسطين. ومع ذلك، بناءً على تجربة حملة، فإن هذا المصنف إما أنه لا يعمل بشكل جيد أو أنه لسبب ما لا يتم استخدامه لفحص الإعلانات. (لم يجب ماكبايك عندما سئل عما إذا كانت الموافقة على إعلانات حملة تعكس مشكلة أساسية تتعلق بمصنف الكلام العدائي).

    وفي كلتا الحالتين، وفقًا للناشف، فإن حقيقة الموافقة على هذه الإعلانات تشير إلى مشكلة عامة: تدعي شركة ميتا أنها تستطيع استخدام التعلم الآلي بشكل فعال لردع التحريض الصريح على العنف، في حين أنه من الواضح أنها لا تستطيع ذلك.

    وقال ناشف في بيانه: "نحن نعلم أن مصنفات ميتا العبرية لا تعمل بشكل فعال، ولم نر الشركة تستجيب لأي من مخاوفنا تقريبًا". "وبسبب هذا التقاعس عن العمل، نشعر أن ميتا قد يتحمل مسؤولية جزئية على الأقل عن بعض الأذى والعنف الذي يعاني منه الفلسطينيون على الأرض".

    تأتي الموافقة على النسخ العربية من الإعلانات بمثابة مفاجأة خاصة بعد تقرير صدر مؤخرًا عن صحيفة وول ستريت جورنال مفاده أن ميتا خفضت مستوى اليقين الذي يحتاجه نظام الرقابة الخوارزمي الخاص بها لإزالة المنشورات العربية - من ثقة 80 بالمائة بأن المنشور خرق القواعد. القواعد ، إلى 25 بالمائة فقط. بمعنى آخر، لم تكن ميتا متأكدة من أن المنشورات العربية التي كانت تحجبها أو تحذفها تحتوي بالفعل على انتهاكات للسياسة.

    وقال الناشف: “كانت هناك إجراءات متواصلة أدت إلى إسكات الأصوات الفلسطينية”.

    المصدر: The Intercept


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير