الذكاء الاصطناعي: هل يخرج عن نطاق السيطرة؟

أظهرت الصور التي تم تداولها مؤخرًا على Twitter اعتقال دونالد ترامب مرتبكًا، ودمارًا في ولاية أوريغون بعد زلزال عام 2001 والبابا يرتدي سترة بيضاء كبيرة منفوخة.
بالنسبة للمراقب العادي، تبدو هذه الصور وكأنها صور حقيقية، حيث يشير موضوعها الوهمي فقط في بعض الحالات إلى أنها مزيفة بالفعل – تم إنشاؤها في هذه الحالة باستخدام مولد صور ذكاء اصطناعي يسمى Midjourney .
وأظهرت صور أخرى تم التقاطها من خلال ميدجورني ، السيد ترامب وهو يرتدي ملابس السجن البرتقالية وهو ينظف كتلة المرحاض، والراحل جون إف كينيدي يصافح أجنبيًا في البيت الأبيض، وبوريس جونسون، رئيس الوزراء البريطاني السابق، وهو يسير في شارع ضبابي في لندن مرتديًا مثل هذا الزي. محقق من الطراز القديم.
كلها متولدة بشكل مصطنع، فهي مقنعة، بصرف النظر عن موضوعها.
في حين أن بعض أكبر الأسماء في وادي السيليكون، بما في ذلك مالك تويتر، إيلون ماسك، وقع مؤخرًا على رسالة مفتوحة تدعو إلى وقف تطوير الذكاء الاصطناعي وسط مخاوف من أنه قد يشكل مخاطر على البشرية، فإن التكنولوجيا تسبب بالفعل ضجة بفضل قدرتها على القيام بذلك. مثل مقاطع الفيديو والصور “التزييف العميق”.
يُنظر إلى التزييف السياسي العميق على أنه مشكلة بشكل خاص.
يقول الدكتور سبهاجيت باسو، الأستاذ المساعد لقانون تكنولوجيا المعلومات بجامعة ليدز في المملكة المتحدة: “يمكن استخدام محتوى التزييف العميق بشكل ضار، مثل تشويه سمعة السياسيين أو نشر معلومات مضللة”.
“على سبيل المثال، يمكن لمقاطع الفيديو المزيفة العميقة إنشاء بيانات أو أفعال كاذبة منسوبة إلى مرشحين سياسيين، مما يؤثر على الرأي العام ويقوض الثقة في العملية الديمقراطية.”
على الرغم من أنه قد يكون من الممكن اكتشاف التزييف العميق، إلا أنه بحلول الوقت الذي تبين أن مقطع فيديو أو صورة مزيفة، ربما يكون قد انتشر بالفعل.
يقول الدكتور باسو: “يمكن أن يكون هذا ضارًا بشكل لا يصدق في البلدان التي لا يتمتع فيها عامة السكان” بالوعي الرقمي “. يمكن أن يساهم ذلك في تآكل الثقة في المؤسسات الديمقراطية ووسائل الإعلام والشخصيات العامة”.
يمكن نشر مقطع فيديو مزيف مثير للجدل سياسيًا قبل فترة وجيزة من يوم الاقتراع أو قد يجادل السياسيون أيضًا بأن التعليقات المثيرة للجدل أو غير المدروسة التي قدموها لم يتم ذكرها في الواقع.
يقول الدكتور باسو: “إذا ظهر هذا التهديد، فإنه سيضر بالقدرة على النقاش العام الحقيقي والنقاش حول السياسة لأن الناس يشعرون بقدر أقل من الثقة فيما يرونه”.
“هناك، إذن، قلق من أن تقنية التزييف العميق قد تزرع الافتراض بين المواطنين بأنه لا يمكن إرساء أساس أساسي للحقيقة. فالحقيقة أساسية لعمل مجتمع ديمقراطي.”
بصرف النظر عن هذه الأضرار المجتمعية، يمكن أن تلحق التزييف العميق الضرر بالأفراد، مثل “التزييف العميق كأسلحة”.
يقول الدكتور ألكسندروس أنطونيو، المحاضر في قانون الإعلام بجامعة إسيكس في المملكة المتحدة: “يمكن التقاط صورتهم وصوتهم واستخدامها دون موافقتهم، مما يؤدي إلى الإسناد الخاطئ أو غير ذلك من الصور السلبية”.
“يمكن أن يتسبب هذا بدوره في إلحاق ضرر جسيم بالسمعة، مما يؤدي إلى فقدان شخص ما لوظيفته أو غيره من مصادر الدخل القيمة.”
في عام 2020، ذكرت صحيفة The National كيف تم استخدام الصوت المزيف العميق لصوت الأب المقيم في الإمارات في معركة حضانة في محاكم المملكة المتحدة.
أشار التسجيل الذي تم التلاعب به كذباً إلى أن الرجل، وهو من سكان دبي، استخدم لغة تهديد تجاه زوجته، التي منعته من الوصول إلى أطفاله.
كيف نكتشفها؟
مثلما تُستخدم التكنولوجيا المتطورة لإنتاج التزييف العميق، فهناك طرق تكنولوجية لاكتشافها – لكن هذا ليس بالأمر السهل.
يميز الدكتور أنطونيو بين الطرق المباشرة وغير المباشرة.
“بشكل عام، قد تتضمن الأساليب التكنولوجية المباشرة تحليلًا رقميًا للطب الشرعي، أي تحليل البيانات الوصفية لمقطع فيديو لتحديد ما إذا كان قد تم التلاعب به. هذا فعال بشكل خاص في اكتشاف التزييف العميق الذي تم تصنيعه بشكل سيء أو لم يتم تحسينه بالكامل”، كما يقول.
في حالة التزييف العميق للمقيم في دبي، أظهر تحليل البيانات الوصفية للملف الصوتي من قبل محامي الرجل أن التسجيل قد تم التلاعب به.
يقول الدكتور أنطونيو إن طريقة أخرى للكشف المباشر تتضمن برنامج التعرف على الوجه، مع خوارزميات التعلم العميق التي تحدد التزييف العميق من خلال تحليل الأنماط والشذوذ أو التناقضات في بيانات الصوت والفيديو، مثل الإضاءة أو الظلال.
توفر تقنية Blockchain خيارًا إضافيًا للكشف عن التزوير، لأن إنشاء توقيع رقمي فريد لكل صورة وتخزينها في blockchain يمكن أن يشير إلى ما إذا كان هناك تلاعب أو تلاعب.
يقول الدكتور أنطونيو إن الأساليب غير المباشرة قد تتضمن النظر في سياق الصورة، مثل الموقع أو الحدث الذي من المفترض أن يأتي منه.
في بعض الأحيان، فإن مجرد النظر بعناية إلى صورة مزيفة سيئة الإنتاج سيكشف عن عيوب في الهبات.
ويحذر من أنه كلما أصبح التزييف العميق أكثر واقعية، فقد يصبح “من الصعب بشكل متزايد” على العين غير المدربة التمييز بين مقاطع الفيديو الحقيقية والمُنتجة بشكل مصطنع.
التشريعات المستهدفة
يُنظر إلى محاولة حظر إنتاج التزييف العميق تمامًا على أنها إشكالية لأنه يمكن استخدام التكنولوجيا بشكل شرعي، على سبيل المثال، في إنتاج الأفلام أو للهجاء.
يقول الدكتور أنطونيو: “بدلاً من تركيز الجهود على منع إنتاج تقنية التزييف العميق، ربما ينبغي أن نبحث في تطوير تدابير وأنظمة مناسبة للحد من انتشارها وتأثيرها”.
يتضمن ذلك شركات الوسائط الاجتماعية ومنصات مشاركة المحتوى عبر الإنترنت التي تطور سياسات أفضل للإبلاغ عن التزييف العميق وإزالته، وبذل المزيد من الجهود لتثبيط إنشائها ومشاركتها.
بالنظر إلى الآثار الضارة المحتملة على الأفراد، فإن الدكتور باسو “يؤيد بشدة تشريع تشديد.
في حين أن العديد من القوانين الأخرى، مثل تلك الخاصة بحماية الملكية الفكرية أو منع المضايقات، يمكن استخدامها لمكافحة التزييف العميق الضار، يقول الدكتور باسو إن التشريعات المستهدفة ضرورية.
يقول: “تحتاج الحكومات إلى وضع قوانين تعالج التزييف العميق بشكل مباشر، مما يجعل إنشاء مثل هذا المحتوى وتوزيعه دون موافقة أمرًا غير قانوني، لا سيما في الحالات التي تهدف إلى إيذاء الآخرين أو خداعهم”.
بعض السلطات تتخذ إجراءات. طورت الصين تشريعات تستهدف على وجه التحديد التزييف العميق، وسنت كاليفورنيا قوانين تركز بشكل خاص على السياسيين.
يمكن للأفراد المساعدة في حماية أنفسهم، من خلال إنشاء كلمات مرور فريدة وقوية لجميع الحسابات وتمكين المصادقة الثنائية كلما أمكن ذلك.
يقول: “نحن بحاجة إلى أن نكون أكثر حذرًا فيما يتعلق بالمعلومات الشخصية”. “نحتاج إلى تقييد كمية المعلومات الشخصية والمحتوى الذي نشاركه عبر الإنترنت، لا سيما على وسائل التواصل الاجتماعي، واستخدام إعدادات الخصوصية لتقييد الوصول إلى المحتوى الخاص بنا.
“ابحث بانتظام عن اسمك وصورك عبر الإنترنت لرصد محتوى التزييف العميق المحتمل واتخاذ إجراء إذا تم العثور على شيء مريب.”
المصدر: thenationalnews
قد يهمك: