هل تشعر بالقلق من تحذير مكتب التحقيقات الفيدرالي (deepfake) اتبع نصائح الخبراء هذه
في الأسبوع الماضي، أصدر مكتب التحقيقات الفيدرالي (FBI) إعلانًا للخدمة العامة حول زيادة المحتوى الصريح للتزييف العميق وكيف يتم استخدامه في جرائم مثل الابتزاز والابتزاز والمضايقات. في أبسط المصطلحات، التزييف العميق عبارة عن مادة وسائط متعددة اصطناعية تحاول تقليد نسخة أصلية. يمكن أن يكون صورة أو مقطع فيديو أو مقطع صوتي من جيل الذكاء الاصطناعي.
يأتي اسم “deepfake” من التكنولوجيا المتأصلة المستخدمة في إنشاء مثل هذه الوسائط – التعلم العميق – الذي يتضمن تدريب نموذج ذكاء اصطناعي باستخدام مواد أصلية ثم تعديله للحصول على النتائج المرجوة. إنه ليس اختراعًا جديدًا تمامًا، ولكن مع تزايد شعبية الذكاء الاصطناعي – وإمكانية الوصول – تتزايد جرائم التزييف العميق.
هذه هي شعبيتها لدرجة أن حتى حملة المرشح الجمهوري للرئاسة رون ديسا نتيس استخدمت صورًا مزيفة لمنافسه دونالد ترامب لإيذائه. Deepfakes هي أيضًا أحد الأسباب التي تثار دعوات تنظيم الذكاء الاصطناعي في كل مكان. وفقًا لمكتب التحقيقات الفيدرالي (FBI)، يتم رفع محتوى إنشاء التزييف العميق بشكل عام من منشورات وسائل التواصل الاجتماعي ومقاطع مكالمات الفيديو قبل تعديلها إلى مواد جنسية صريحة للابتزاز والتنمر. متعلق
ماذا يقول الخبراء عن تقنية التزييف العميق
إذن ما الحل؟ لسوء الحظ، لا يوجد حل. على الأقل، ليس من دون تقديم حل وسط – حل يقلب بشكل أساسي المعنى الكامل لـ “وسائل التواصل الاجتماعي” رأسًا على عقب.
يقول Adrianus Warmenhoven ، “لسوء الحظ، فإن الطريقة الوحيدة للتأكد من عدم استخدام أي من صورك أو مقاطع الفيديو الخاصة بك لإنشاء صور مزيفة عميقة هي التوقف عن نشر أي صور لنفسك على الإنترنت، ولكن هذا قد يتطلب الكثير من المرح من مستخدمي الإنترنت” مستشار الأمن السيبراني في نورد.
“مع ظهور ممارسات أمنية جديدة وأفضل، سيجد الفاعلون الخبيثون طريقة لإحداث الضرر. يقول بارتيك ساران، موظف سابق في Google ومصمم لأداة إدارة كلمات المرور من الجيل التالي تسمى Uno ، “إنها لعبة اللحاق بالركب وتشعر بالإحباط في بعض الأحيان”. كما يقترح أنه ينبغي على المرء أن يحاول اعتماد “فلسفة عدم الثقة” عندما يتعلق الأمر بنشر المحتوى على وسائل التواصل الاجتماعي ويؤكد على التواصل الفعال مع المعارف للابتعاد عن عمليات الاحتيال المزيفة.
يقول Yaron Litwin ، خبير السلامة الرقمية ومدير التسويق في Canopy : “بينما يمكن للذكاء الاصطناعي المساعدة في معالجة مخاوف السلامة الرقمية، لا توجد شبكة أمان مانعة للخداع”. يستهدف تطبيق الشركة الذي يحمل اسم الشركة الحفاظ على أمان الأطفال من الجرائم الجنسية عبر الإنترنت ويقدم مجموعة متنوعة من أدوات الرقابة الأبوية أيضًا. يضيف Litwin أنه يجب عليك تجنب نشر الصور الحميمة أو المساومة مع تقليل تكرار نشر حتى الصور العادية.
كيف يمكنك الحفاظ على نفسك آمنة
إن تقنية Deepfakes مرعبة، ومن الصعب فهم الصدمة التي يمكن أن تسببها لأي شخص وأفراد أسرته. ولكن هناك بعض الطرق التي يمكن للمستخدمين من خلالها تجنب الوقوع في الفخ، أو على الأقل الابتعاد إلى حد كبير.
لفهم الخطوات التي يمكن لمستخدمي الهواتف الذكية العاديين ذوي المهارات الرقمية النموذجية اتخاذها، تواصلت مع أندرو غغادرن، نائب رئيس الأبحاث والابتكار في Gen Digital ، وهي شركة برمجيات تقدم أدوات أمان موثوقة مثل Norton و Avast و Avira ، من بين آخرين.
يقول غادرن إن بروتوكولات السلامة تبدأ من المستوى الأساسي. يجب أن يبدأ المستخدمون بتحويل ملفاتهم الشخصية إلى خاصة – أو على الأقل تغيير إعدادات رؤية المنشور حتى يتمكن الأشخاص الذين يتابعونهم بشكل متبادل فقط من رؤية منشوراتهم والتفاعل معها. يجب تمكين أدوات الرقابة الأبوية، المتوفرة الآن لكل منصة وسائط اجتماعية رئيسية تقريبًا، بجدية حتى يتمكن الأوصياء من مراقبة أي تفاعلات مشبوهة.
إنه مستشار عام أنه يجب على المرء فقط قبول الطلبات من الأشخاص الذين يعرفونهم، ولكن اتخاذ خطوة إضافية يمكن أن يقطع شوطًا طويلاً. يقول غادرن: “إذا كنت تعمل على شبكة، فتحقق من منشورات وأنشطة المدعوين الأخيرة لتقدير مدى واقعية هذه المنشورات”، مضيفًا أنه يجب على المرء أن يكون حذرًا من “الحسابات مع عدد قليل من الأصدقاء أو الأصدقاء المشتركين”. نصيحة مهمة أخرى يجب على المدير التنفيذي لشركة Gen Digital تقديمها هي التحقق من عمليات تسجيل الدخول إلى وسائل التواصل الاجتماعي وتقييدها.
غالبًا ما يزور المستخدمون الخدمات عبر الإنترنت، ولتجنب متاعب إنشاء حساب، يختارون خيار تسجيل الدخول إلى وسائل التواصل الاجتماعي. ويضيف: “يمنح هذا التطبيقات إمكانية الوصول إلى المعلومات الشخصية، وفي بعض المواقف، تبيع هذه التطبيقات هذه المعلومات إلى أطراف ثالثة”. فضيحة Cambridge Analytica التي تنطوي على Facebook هي مثال رائع. يجب على المرء أن يتحقق بشكل دوري من التطبيقات المتصلة بحسابات وسائل التواصل الاجتماعي الخاصة بهم، وإذا لزم الأمر، إلغاء وصولهم.
Deepfakes هي جرائم معقدة تعمل بالذكاء الاصطناعي، لكن غادرن يقترح أنه يجب على المستخدمين الالتزام ببعض إرشادات السلامة الأساسية – مثل تمكين المصادقة الثنائية، واستخدام كلمات مرور قوية، وتمكين مفاتيح المرور البيو مترية، وتجنب أي روابط مشبوهة أو غير معروفة.
وسائل التواصل الاجتماعي تتم بشكل آمن ومسؤول
يرى Litwin من Canopy أنه كلما شاركت أكثر، أصبح من الأسهل إنشاء صور مزيفة مقنعة. لا توجد ندرة في نماذج إنشاء الصور الظليلة بالذكاء الاصطناعي دون أي قيود على إنشاء مواد صريحة. تعتمد هذه الأدوات على مدخلات الصورة لتدريب النموذج. كلما زادت بيانات التدريب التي يتم تغذيتها، أصبحت تقنية التزييف العميق أكثر دقة وواقعية.
إنه التكتيك القياسي الذي يتم تنفيذه بواسطة مولدات صور الذكاء الاصطناعي السائدة مثل Mi Journey . إذا كانت خلاصتك الاجتماعية مفتوحة وتحتوي على كمية وافرة من الصور ومقاطع الفيديو، فلا يوجد ما يمنع أي ممثل سيء من التخلص منها لإنشاء صور مزيفة. ولكن إذا كنت من بين الأشخاص الذين يرون قيمة في وسائل التواصل الاجتماعي كمكان للحفاظ على ذكرياتك العزيزة، فهناك بعض الإجراءات التي يجب عليك اتخاذها.
“كن حذرًا بشأن المعلومات الشخصية التي تشاركها عبر الإنترنت، واضبط إعدادات الخصوصية على حساباتك، وقم بتمكين المصادقة الثنائية، وراجع الصور بعناية بحثًا عن أي عيوب”، احظ Boyd Clewis ، خبير الأمن السيبراني في مجلس أمان Forbes ومؤلف كتاب “من خلال جدار الحماية: الكيمياء لتحويل الأزمة إلى فرصة “.
ولكن كيف تكتشف بشكل موثوق ملفًا شخصيًا على وسائل التواصل الاجتماعي من المحتمل أن يكون لديه ممثل سيئ وراءه يشارك في أعمال مشبوهة مثل إنشاء مقاطع فيديو مزيفة ونشرها؟ يقترح توماس ساموليس ، مهندس أمن المعلومات في Baltic Amadeus ، أنه “إذا تمت مشاركة مقاطع فيديو أو مواد صوتية من ملفات تعريف مشبوهة، ولم تحتوي الحسابات على أي معلومات أو صور شخصية، فمن المحتمل أن يكون الملف الشخصي مزيفًا”. ويقترح أن مثل هذه الملفات الشخصية التي تفتقر إلى معلومات التعريف الشخصية تم إنشاؤها خصيصًا لنشر المعلومات المزيفة وغيرها من المعلومات المثيرة للجدل “.
ماذا تفعل إذا تعرضت للتزييف العميق
ولكن هناك الكثير من الاحتياطات التي يمكن لمستخدم الهاتف الذكي العادي اتخاذها. حتى أكثر المستخدمين ذكاءً رقميًا يجدون أنفسهم في الطرف المتلقي للجرائم الإلكترونية، حتى بعد استخدام جميع الأدوات القياسية مثل المصادقة الثنائية والملفات الشخصية الخاصة وجدران الحماية البيو مترية.
إذا كنت لا تزال تجد نفسك في قلب جريمة التزييف العميق، على الرغم من اتخاذ جميع الاحتياطات، فاطلب مشورة الخبراء والمساعدة من السلطات بدلاً من أخذ الأمور بين يديك. يلاحظ الخبراء أن الجلوس على مثل هذه المضايقات أو محاولة التعامل معها بتكتم بمفردهم غالبًا ما يؤدي إلى تفاقم وضع الضحايا.
يقول روب سكوت، وهو عضو في نقابة المحامين في دالاس وخبير قانوني مرخص في مجالات مثل الأمن السيبراني المخاطر وخصوصية البيانات.
تعتبر استشارة خبير قانوني أمرًا بالغ الأهمية لأنه يمكن أن يرشدك عبر حقوقك الرقمية، كما تقترح Canopy’s Litwin أيضًا الحفاظ على جميع الأدلة، وتنصح الضحايا بـ “توثيق أي دليل على محاولات الابتزاز، مثل الرسائل أو رسائل البريد الإلكتروني أو أي شكل من أشكال الاتصالات المتعلقة بـ الابتزاز “.
نصيحة مهمة أخرى هي أن الضحية يجب أن توقف على الفور كل اتصال مع مجرم لأن المجرم يمكن أن يتلاعب به أو يضايقه بمطالب ابتزاز أكثر جدية. في الوقت نفسه، يجب على المستخدمين الاتصال بخبير في الأمن السيبراني أو الاتصال بأحد خطوط المساعدة الحكومية لمكافحة الجرائم الإلكترونية لاتخاذ الإجراءات الصحيحة في الوقت المناسب.
كيف تكتشف التزييف العميق
مع تزايد تطور محركات الذكاء الاصطناعي، أصبح نوع التزييف العميق الذي تنتجه حقيقيًا بشكل مخيف ويصعب اكتشافه. ومع ذلك، لا يزال هناك عدد قليل من العلامات التي يمكن للمستخدمين الانتباه إليها من أجل اكتشاف المواد التي تم تغييرها صناعياً أو التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
فيما يلي مجموعة من معرّفات التزييف العميق التي يجب على الخبراء تقديمها:
- ابحث عن حركات العين غير الطبيعية. إذا كانت عيون الشخص لا تبدو وكأنها تومض، أو أن حركة العين متوقفة، أو أن تعابير الوجه لا تبدو متزامنة مع الكلمات التي يتحدثونها، فمن المرجح أن يكون هذا مقطعًا مزيفًا. يعد نقص المشاعر، أو عدم الترابط في المشاعر، علامة واضحة على أن الوسائط قد تم تحويلها رقميًا.
- يقول غادرن: “تركز تقنية Deepfake عادة على ملامح الوجه”. “إذا كان شكل جسم الشخص لا يبدو طبيعيًا، أو إذا كانت حركاته متقطعة ومفككة، فمن المحتمل أن يكون الفيديو مزيفًا عميقًا.”
- هناك علامة أخرى يمكن الاعتماد عليها وهي الخلفية، والتي يمكن أن تبدو ضبابية بشكل غير طبيعي أو تظهر عناصر بصرية غريبة. هناك طريقة أخرى سهلة لاكتشاف التزييف العميق وهي البحث عن تلون غير طبيعي أو عدم تطابق خطير في اللون، خاصة فيما يتعلق بالوجه وظلال العناصر المحيطة.
- إذا صادفت صورة يظهر فيها شخص يهز “شعره المثالي” ولا يمكنك تحديد أي عناصر فردية مثل بعض خيوط الشعر المتطاير أو التجعد، فابق حذرًا. من المعروف أيضًا أن نماذج الذكاء الاصطناعي تصارع الأسنان. ابحث عن الأسنان المثالية بشكل غير طبيعي، أو تلك التي تفتقر إلى الخطوط العريضة للأسنان الفردية، أو ربما أسنان أكثر من طقم الأسنان البشري المعتاد.
- أجزاء الجسم المنحرفة، والحواف غير الواضحة، وعدد قليل من الأصابع الزائدة أو الأقل، والأطراف الملتوية بشكل غريب، والحركة غير المتزامنة لأجزاء الجسم، والصوت الذي يفتقر إلى التوقفات والفواصل العاطفية هي العلامات الأخرى التي يجب أن تنتبه لها عن كثب. يوضح Samulis قائلاً: “غالبًا ما يكون للصوت المزيف أو التسجيلات الصوتية ضجيج في الخلفية وأصوات روبوتية ونطق غريب”.
مشكلة خطيرة مع حلول نصف فعالة
كما هو موضح أعلاه، لا توجد شبكة أمان ضد التزييف العميق. ولكن إذا كنت حريصًا على مكان مشاركة الصور، ومن يمكنه رؤيتها، وإلى أي مدى يصل وصولك إلى وسائل التواصل الاجتماعي، يمكنك البقاء في منطقة آمنة نسبيًا.
يجب على المرء أيضًا الانتباه إلى من هم أصدقاؤه عبر الإنترنت، وكذلك فحص أنشطة الدعوات الجديدة قبل إضافتها إلى دائرة أصدقائهم على وسائل التواصل الاجتماعي. بقدر ما يذهب التزييف العميق، هذا صعب بعض الشيء. ولكن إذا بقيت متيقظًا واستغرقت وقتًا لتقييم التناقضات في صورة أو مقطع فيديو مشبوه، فيمكن رصد التزييف العميق بدرجة عالية من الدقة.
في نهاية اليوم، يتعلق الأمر بتنمية عادات صحية عبر الإنترنت والبقاء متيقظًا في مساحة على الإنترنت معرضة بشكل متزايد للتزوير.
المصدر: digitaltrends
أقرا أيضا: