ميتا توافق على إعلانات تحريضية تخالف قواعدها في الهند
أكدت مجموعة مراقبة تُدعى Ekō أن شركة ميتا – فيسبوك سابقًا – وافقت على أكثر من اثني عشر إعلانًا “شديد التحريض” على الرغم من خرق هذه الإعلانات لقواعد الشركة.
استهدفت هذه الإعلانات الجمهور الهندي واحتوت على معلومات مضللة، ودعوات للعنف، ونظريات مؤامرة تتعلق بالانتخابات المقبلة.
وفقًا لتقرير جديد صادر عن Ekō، تم تقديم هذه الإعلانات كجزء من “اختبار تحمّل” لأنظمة الإعلانات في ميتا، وقد بُنيت هذه الإعلانات على خطاب كراهية ومعلومات مضللة شائعة في الهند.
من بين 22 إعلانًا قُدم للاختبار، تمت الموافقة على 14 إعلانًا عبر أدوات إعلانات ميتا، رغم أنه كان ينبغي رفضها جميعًا لانتهاكها قواعد الشركة.
لم تكشف المجموعة عن النص الدقيق للإعلانات، لكنها أشارت إلى أنها تضمنت دعوات لانتفاضات عنيفة تستهدف الأقليات المسلمة، ونشرت معلومات مضللة تستغل نظريات المؤامرة الدينية والسياسية السائدة في الهند، وحرّضت على العنف من خلال سرديات تفوّق الهندوس.
وأفادت Ekō بأن الباحثين سحبوا الإعلانات قبل نشرها، ولم يشاهدها أي مستخدم فعلي على فيسبوك.
هذه المرة ليست الأولى التي تحصل فيها Ekō على موافقة من ميتا على الإعلانات التحريضية كجزء من جهودها لتسليط الضوء على مشاكل نظام الإعلانات لدى الشركة.
في محاولات سابقة، حصلت المجموعة على الموافقة على مجموعة من الإعلانات المليئة بالكراهية التي استهدفت المستخدمين في أوروبا، رغم أن تلك الإعلانات لم تُنشر أيضًا.
قد يهمك > ميتا تلغي عرض عمل على خبير سيبراني بسبب انتقاد إنستقرام
وفي تقريرها الأخير، ذكرت Ekō أنها استخدمت أدوات الذكاء الاصطناعي لتوليد صور للإعلانات، ولم يتمكن نظام ميتا من اكتشاف أي منها، رغم تصريحات الشركة بأنها تعمل على تطوير أنظمة لكشف هذا النوع من المحتوى.
من جانبها، لم تستجب ميتا فورًا لطلب التعليق على التقرير. وفي ردها على Ekō، أشارت الشركة إلى قواعدها التي تتطلب من المعلنين السياسيين الكشف عن استخدامهم للذكاء الاصطناعي، وإلى منشور على مدونتها عن جهودها للاستعداد للانتخابات الهندية المقبلة.
تسلّط هذه الواقعة الضوء على التحديات الكبيرة التي تواجهها ميتا في مراقبة محتوى الإعلانات وضمان التزامها بالقواعد، خاصة في ظل تصاعد التوترات السياسية والدينية في الهند.