حذرت ميتا من أنها ستواجه عقوبات شديدة في الاتحاد الأوروبي إذا فشلت في إصلاح مشكلات حماية الطفل على Instagram

أطلق الاتحاد الأوروبي تحذيراً صارخاً على ميتا، قائلاً إنه يجب أن ينظف بسرعة قانونه المتعلق بحماية الأطفال وإلا سيواجه خطر “عقوبات شديدة”.
جاء التحذير في أعقاب تقرير نشرته صحيفة وول ستريت جورنال أمس. عملت وول ستريت جورنال مع باحثين في جامعة ستانفورد وجامعة ماساتشوستس أمهي رست للتخفي وفضح شبكة من حسابات Instagram التي تم إنشاؤها لربط مشتهي الأطفال بباعة مواد الاعتداء الجنسي على الأطفال (CSAM) على منصة الشبكات الاجتماعية السائدة.
وجدت الأبحاث التي أجرتها ستانفورد أيضًا أن موقع مشاركة الصور المملوك لشركة Meta هو النظام الأساسي الأكثر أهمية لبائعي CSAM (SG-CSAM) الذي يتم إنشاؤه ذاتيًا، مما يجعل خوارزميات توصية Instagram “سببًا رئيسيًا لفعالية النظام الأساسي في الإعلان عن SG-CSAM” “.
في تغريدة أطلقت على شركة AdTech العملاقة هذا الصباح، قال مفوض السوق الداخلية في الاتحاد الأوروبي، تيري برايتون، إن “الكود الطوعي لحماية الطفل يبدو أنه لا يعمل”، مضيفًا: “يجب على مارك زوكربيرج الآن أن يشرح ويتخذ إجراءً فوريًا”.
قال برايتون إنه سيرفع مستوى سلامة الأطفال في اجتماع مع زوكربيرج في مقر Meta الرئيسي بالولايات المتحدة في وقت لاحق من هذا الشهر – وأكد أن الاتحاد الأوروبي سيطبق موعدًا نهائيًا صارمًا بشأن هذه القضية بالقول إنه يتوقع من Meta أن يثبت اتخاذ تدابير فعالة بعد 25 أغسطس، عندما يُطلب من الشركة قانونًا الامتثال لقانون الخدمات الرقمية للاتحاد الأوروبي (DSA).
يمكن لغرامات عدم الامتثال لـ DSA، التي تحدد القواعد الخاصة بكيفية تعامل الأنظمة الأساسية مع المحتوى غير القانوني مثل CSAM، أن تزيد بنسبة تصل إلى 6٪ من حجم المبيعات السنوي العالمي.
تم تصنيف كل من Instagram و Facebook على منصات كبيرة جدًا على الإنترنت (تُعرف أيضًا باسم VLOPs) بموجب DSA والتي تجلب التزامات إضافية تقوم بتقييم وتخفيف المخاطر النظامية المرتبطة بمنصاتهم، بما في ذلك تلك المتدفقة من أنظمة وخوارزميات التوصية على وجه التحديد. لذا فإن مستوى المخاطرة التي تواجهها Meta هنا يبدو كبيرًا.
حذر برايتون في تغريدة “بعد 25 أغسطس / آب، بموجب #DSA Meta ، يجب أن يظهر لنا تدابير أو يواجه عقوبات شديدة”، والتي تبرز تقرير وول ستريت جورنال وورقة بحث ستانفورد التي تبحث في نشاط CSAM عبر عدد من المنصات الاجتماعية الرئيسية التي تخلص إلى أن “Instagram هو حاليًا أهم منصة لهذه الشبكات، مع ميزات تساعد في ربط المشترين والبائعين”.
إن تهديد بريتون بفرض “عقوبات شديدة” إذا فشلت في التصرف يمكن أن يترجم إلى غرامات بمليارات (جمع) من الدولارات لميتا في الاتحاد الأوروبي.
لقد تواصلنا مع Meta للحصول على رد على تحذير برايتون بشأن حماية الطفل ولكن في وقت كتابة هذا التقرير لم تكن قد استجابت.
وجد Instagram يوصي بائعي CSAM
سلط تحقيق المجلة الضوء على الدور الذي تلعبه خوارزميات التوصية في Instagram في ربط مشتهي الأطفال ببائعي CSAM.
وكتبت المجلة والباحثون الأكاديميون أن “إنستغرام يربط بين مشتهي الأطفال ويرشدهم إلى بائعي المحتوى عبر أنظمة التوصية التي تتفوق في ربط أولئك الذين يشاركونهم الاهتمامات المتخصصة”.
“على الرغم من أنها بعيدة عن الأنظار بالنسبة لمعظم الأشخاص على المنصة، إلا أن الحسابات الجنسية على Instagram تتصف بوقاحة بشأن اهتماماتهم. وجد الباحثون أن Instagram مكّن الأشخاص من البحث عن علامات تصنيف صريحة مثل #pedowhore و #preteensex وربطهم بحسابات تستخدم المصطلحات للإعلان عن مواد جنسية للأطفال للبيع. غالبًا ما تدعي مثل هذه الحسابات أنها تدار من قبل الأطفال أنفسهم وتستخدم مقابض جنسية صريحة تتضمن كلمات مثل “الفاسقة الصغيرة من أجلك”. “
ردت Meta على الاستفسارات التي طرحتها عليها وول ستريت جورنال قبل النشر بقولها إنها حظرت الآلاف من علامات التصنيف التي تجعل الأطفال جنسيًا، والتي حدد تقرير المجلة أن بعضها يحتوي على ملايين المنشورات.
وقالت شركة التكنولوجيا العملاقة أيضًا إنها قيدت أنظمتها من التوصية بمصطلحات بحث للمستخدمين المعروف أنها مرتبطة بالاعتداء الجنسي على الأطفال.
يتضمن تقرير وول ستريت جورنال لقطة شاشة من نافذة منبثقة قدمها Instagram للباحثين المشاركين في التحقيق عندما بحثوا عن هاشتا متعلق بالاعتداء الجنسي على الأطفال – والذي حذر من أن “هذه النتائج قد تحتوي على صور الاعتداء الجنسي على الأطفال”. وصف النص الوارد في الإشعار أيضًا المخاطر القانونية لعرض CSAM، والضرر الذي يسببه الاعتداء الجنسي على الأطفال، والموارد المقترحة “للحصول على مساعدة سرية” أو الإبلاغ عن محتوى “غير مناسب”، قبل تقديم خيارين للمستخدم: “الحصول على الموارد” أو “عرض النتائج على أي حال” – مما يشير إلى أن النظام الأساسي كان على دراية بمشكلات CSAM المرتبطة بعلامات التصنيف، ولكنه فشل في إزالة المحتوى أو حتى منع المستخدمين من الوصول إليه.
وفقًا لـ WSJ، أزال Meta فقط الخيار الذي يسمح للمستخدمين بمشاهدة CSAM المشتبه بها بعد أن سألوا عنها ويقول تقريرها إن الشركة رفضت شرح سبب عرضها مثل هذا الخيار في المقام الأول.
يبدو الدور النشط لمحرك التوصية في Instagram في الترويج بشكل أساسي لحسابات بائعي CSAM مزعجًا بنفس القدر، نظرًا لأنه تم العثور على النظام الأساسي ليكون قادرًا على تحديد CSAM المشتبه به – مما يثير تساؤلات حول سبب عدم استفادة Meta من المراقبة السلوكية التي تنشرها على المستخدمين لدفع المشاركة (وزيادة أرباح الإعلانات) عن طريق مطابقة الحسابات بالمحتوى بناءً على اكتشاف نشاط النظام الأساسي المماثل من أجل تعيين شبكة الاستغلال الجنسي للأطفال وإغلاقها.
في هذا Meta أخبرت WSJ أنها تعمل على منع أنظمتها من التوصية للبالغين الذين يحتمل أن يكونوا مشتهي الأطفال للتواصل مع بعضهم البعض أو التفاعل مع محتوى بعضهم البعض.
ويؤرخ تقرير المجلة أيضًا الحالات التي اقترحت فيها خوارزميات Instagram تلقائيًا مصطلحات بحث إضافية للتحايل على كتلة قام النظام الأساسي بتطبيقها على روابط إلى خدمة نقل ملفات مشفرة تشتهر بنقل محتوى جنسي للأطفال.
يوضح تقرير WSJ أيضًا بالتفصيل كيف أدى عرض حساب بائع واحد دون السن القانونية على Instagram إلى قيام النظام الأساسي بتوصية المستخدمين بعرض حسابات بيع CSAM جديدة.
“عقب المسح الأولي الذي قامت به الشركة للحسابات التي لفتت انتباهها ستانفورد والمجلة، قام [براين ليفين، مدير مختبر الإنقاذ] من UMass بالتحقق من بعض حسابات البائعين القاصرين المتبقية على Instagram. كما كان من قبل، أدى مشاهدة حتى واحد منهم على Instagram إلى التوصية بأخرى جديدة. كانت اقتراحات Instagram تساعد في إعادة بناء الشبكة التي كان فريق السلامة بالمنصة في منتصف محاولة تفكيكها “.
المصدر: techcrunch
قد يهمك: