تخطى إلى المحتوى

الفرق بين الحقيقة والخيال: ثلاث طرق لمساعدة الطلاب على معرفة الفرق والبقاء آمنين في عصر الذكاء الاصطناعي

ثلاث طرق لمساعدة الطلاب على معرفة الفرق والبقاء آمنين في عصر الذكاء الاصطناعي

لقد قامت الذكاء الاصطناعي بدخول سريع إلى عالم التعليم العالي في السنوات القليلة الماضية، مما أثار طيفًا من ردود الفعل بين الطلاب وأعضاء هيئة التدريس تتراوح بين التدقيق الشديد إلى الحماس المجنون وكل شيء بينهما.

لا تزال الأسئلة قائمة في العديد من الحرم الجامعي حول ما إذا كان – أو على الأرجح، كيف – سيتم دمج الذكاء الاصطناعي في بيئة التعليم والتعلم.

كيف يمكن لأعضاء هيئة التدريس اكتشاف الغش المدعوم بالذكاء الاصطناعي والانتحال؟ إلى أي مدى يجب السماح باستخدام الذكاء الاصطناعي التوليدي أو حتى تشجيعه بين الطلاب في سياقات معينة؟

كيف يمكن لأعضاء هيئة التدريس وفرق دعم الطلاب استخدام أدوات الذكاء الاصطناعي لتسريع عبء العمل الخاص بهم وزيادة كفاءتهم؟ تتطلب العديد من حالات الاستخدام مزيدًا من الفحص وإنشاء سياسات شاملة لتوجيه الناس خلال هذه الفترة من التغيير التكنولوجي السريع.

مع هذا المنشور، ندعو أعضاء هيئة التدريس للنظر في جانب مهم للغاية من ظهور الذكاء الاصطناعي في التعليم العالي.

هو، كيف يمكننا التأكد من أن الطلاب لا يصبحون ضحايا غير مدركين للخداع السيبراني؛ غير قادرين على التمييز بين الحقيقة والخيال في وقت يبدو فيه أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي موجود في كل مكان؟

كيف يمكننا مساعدتهم على الحماية من التلاعب غير المدرك ببياناتهم وصورهم وحتى ملكيتهم الفكرية؟

أدناه، نحدد ثلاث طرق يمكن لأعضاء هيئة التدريس من خلالها توجيه طلابهم (وحتى أنفسهم) من خلال تجارب التعليم والتعلم مع ضمان أنهم مستهلكون ومبدعون حذرون وحكماء للمعلومات والوسائط الرقمية.

احذر من التزييف العميق

عندما يتعلق الأمر بموثوقية الصور الرقمية، والصوت، والفيديو، يبدو أن هناك ثلاث فئات. الفئة الأولى تشمل الصور، والصوت، والفيديوهات التي هي مزيفة بشكل مضحك وبشكل متعمد.

(فكر في سلسلة من GIFs تظهر الملك تشارلز وهو يكشف عن بورتريه ذاتي تم رسمه مؤخرًا، فقط ليظهر [أدخل صورة AI-generated سخيفة من اختيارك] تحت القماش).

ثم، هناك صور، ومقاطع صوتية، وفيديوهات تبدو في البداية أصلية، ولكن تحت التدقيق من قبل الخبراء، يتم إثبات أنها معدلة رقميًا، إما باستخدام الذكاء الاصطناعي أو أدوات التحرير القياسية. (فكر في الصورة العائلية التي أصدرتها أميرة ويلز، والتي تم الكشف لاحقًا أنها معدلة رقميًا.)

ومع ذلك، عندما يتعلق الأمر بالكشف عن النوع الثالث من الصور أو الفيديوهات – التزييف العميق، الذي يتم نشره بشكل خبيث ومتعمد لخداع الناس، غالبًا من أجل الربح المالي أو أغراض خبيثة أخرى – يبدو أننا جميعًا، خبراء وعامة الناس على حد سواء، أهداف سهلة.

في هونغ كونغ، على سبيل المثال، تم خداع عامل في تحويل حوالي 25 مليون دولار إلى قراصنة أثناء حضوره مكالمة فيديو مزيفة مع صورة معدلة رقميًا لرئيسه المالي، الذي بدا أنه على الخط.

في الواقع، لقد أخذتنا الذكاء الاصطناعي جميعًا إلى مياه غير مستكشفة حيث يمكن أن يكون من الصعب جدًا تمييز الحقيقة عن الخيال. يجب على أعضاء هيئة التدريس والطلاب أن يكونوا في حالة تأهب للعلامات الدقيقة التي يمكن أن تساعدهم في اكتشاف الفرق.

يمكن أن تشمل هذه العلامات البحث عن عدم تناسق الوجه، والظلال غير العادية والوهج، والرمش السريع أو حركات الوجه الأخرى.

كما تشمل الاستماع إلى الأصوات والمكالمات الهاتفية التي تبدو أو تشعر بأنها غير طبيعية قليلاً، أو الطلبات التي تبدو غير متوافقة مع الشخصية أو مشكوك فيها أخلاقياً. عادةً ما تأتي العميقة المزيفة مع علامات، لكن اكتشافها يتطلب اليقظة والاستعداد للثقة في غرائزك والاعتماد على أفضل الممارسات.

أنت واعٍ ببياناتك وأمن المعلومات؟ كن أكثر وعياً.

لقد نشأ العديد من الطلاب وأعضاء هيئة التدريس كـ “مواطنين رقميين” الذين يعرفون إلى حد كبير مخاطر الاتصالات والمعاملات عبر الإنترنت. لا تزال البروتوكولات القياسية قائمة. لا تشارك البيانات من أي نوع مع مصادر غير موثوقة أو عندما يُطلب ذلك من كيانات لا تحتاج إليها.

استخدم كلمات مرور قوية في كل مكان وقم بتغييرها بشكل متكرر. قم بتمكين “2FA” (المصادقة الثنائية). حافظ على تحديث المتصفحات والبرامج، واستخدم فلاتر البريد العشوائي، ولا تشارك الأجهزة.

ومع ذلك، لقد رفعت الذكاء الاصطناعي الأمور إلى مستوى آخر وهناك اعتبار أمني آخر يتعلق بالبيانات. يجب على أعضاء هيئة التدريس وغيرهم من المهنيين في التعليم العالي الذين يقومون بإدخال مجموعات البيانات في الذكاء الاصطناعي لـ “تدريب” النموذج وإنشاء مخرجات توليدية أن يكونوا حذرين بشأن ما يقومون بإدخاله في “الآلة”.

يجب على أي شخص يستخدم الذكاء الاصطناعي التوليدي أن يكون على دراية بقوانين خصوصية البيانات المعمول بها التي تحكم البيانات التي يمتلكها أو يجمعها.

اكتشف ما هي البيانات المتاحة للجمهور مقابل البيانات الخاصة وكيف تختلف حالات الاستخدام لكلا النوعين. تأكد من أن جميع الأذونات موجودة لأي بيانات مستخدمة، وتقدم بحذر شديد.

بالنسبة لأعضاء هيئة التدريس الذين يعملون في مؤسسات لا تزال تفتقر إلى سياسات الأمان وتكنولوجيا المعلومات التي تشمل وتتحكم في استخدامهم للذكاء الاصطناعي، لا يضر أن تحث قادتك على نشر مثل هذه السياسات.

يمكن لأعضاء هيئة التدريس أيضًا طلب الدعم المهني والتدريب في هذا الموضوع. يمكن أن تحافظ هذه الخطوات البسيطة على سلامة أعضاء هيئة التدريس والطلاب في وقت يُقال فيه إن البيانات أكثر قيمة من الذهب.

تحدث عن الأخلاق والمدى الطويل

عندما يتعلق الأمر بالأخلاق، فإن الذكاء الاصطناعي يجلس في منطقة غامضة. ومع ذلك، لا يحتاج أعضاء هيئة التدريس إلى التراجع عن إجراء محادثات حول ما يعنيه كل ذلك وأين يتجه. كنقطة انطلاق، يمكنك أن تسأل طلابك عما يفكرون فيه حول الذكاء الاصطناعي ومشاركة أفكارك معهم.

كيف يشعرون، وأنت، بشأن قدرته على استبدال ما كانت عمليات بشرية لفترة طويلة مثل البحث، الكتابة، التوضيح، التصوير، وما إلى ذلك؟ هل كانت لديهم تجارب حيث تم خداعهم أو تضليلهم بمحتوى أو صور تم إنشاؤها بواسطة الذكاء الاصطناعي؟

هل يفهمون أهمية الاستمرار في صقل مهاراتهم في إنشاء المحتوى، حتى عندما يكون المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي متاحًا في الأساس بنقرة زر؟

ماذا يعتبرون حالات استخدام الذكاء الاصطناعي الأخلاقية في التعليم العالي وفي العالم الأوسع؟ كيف يمكنهم استخدام الذكاء الاصطناعي في مهنة مستقبلية؟ ماذا يمكنهم أن يفعلوا لضمان أن لديهم أفضل مجموعة مهارات رقمية قابلة للتسويق ممكنة؟

لا توجد إجابات صحيحة تمامًا أو خاطئة تمامًا. ومع ذلك، يمكن أن تدفع هذه المحادثات طلابك للتفكير النقدي حول دورهم ومستقبلهم في عالم يزداد قوة بالذكاء الاصطناعي.

المصدر: cengage