أخلاقيات الذكاء الاصطناعي لمحترفي الإعلانات: 10 قواعد للمشاركة

الذكاء الاصطناعي لا يأتي إلى مكان العمل. إنه هنا بالفعل. يستخدم الكثير منا بالفعل أدوات بها ذكاء اصطناعي تحت الغطاء، وقد أعلنت كل من Google و Microsoft مؤخرًا عن إصدارات AI لمحركات البحث الخاصة بهما. 

إنها قوة الذكاء الاصطناعي للناس – لا حاجة إلى تدريب متخصص. 

يوفر الذكاء الاصطناعي إمكانات هائلة للإعلان، لا سيما لكتابة البريد الإلكتروني والبحث وإنشاء شركات وكتابة نسخ اجتماعية، بالإضافة إلى وظائف الموارد البشرية مثل التوظيف والمراجعات والمزيد.

سيخبرك المؤيدون أن الذكاء الاصطناعي في مكان العمل سيهتم بالمهام الروتينية، مما يتيح لنا التواصل مع البشر الآخرين، والإبداع والاسترخاء

سيذكرك المنتقدون أن الذكاء الاصطناعي يمكن أن يضخم التحيز ويوسع المراقبة ويهدد الوظائف ويسبب مجموعة كاملة من القضايا الأخرى.

كلا المجموعتين على حق. الذكاء الاصطناعي هو أداة، وما يحدث بعد ذلك يعتمد على كيفية استخدامها. لسوء الحظ، لم يتسارع المشهد التنظيمي بوتيرة التكنولوجيا. 

هذا يترك الأمر لنا في الغالب لاتخاذ خيارات حول كيفية استخدام الذكاء الاصطناعي. 

في دوري في إستراتيجية العلامة التجارية في وكالة إبداعية، رأيت بالفعل أشخاصًا يناقشون هذه الخيارات: هل من المقبول استخدام ChatGPT لكتابة مراجعة الزملاء؟ ماذا عن إنشاء نماذج بالأحجام الطبيعية للذكاء الاصطناعي لعرض تقديمي؟ 

نحن بحاجة ماسة إلى تحديد آداب التعامل مع الذكاء الاصطناعي في مكان العمل. 

هناك أجزاء كثيفة من قوانين الذكاء الاصطناعي والقواعد الأخلاقية للمهندسين، لكننا نفتقر إلى إرشادات سهلة يسهل الوصول إليها للمهنيين ذوي الياقات البيضاء الذين يتبنون هذه الأدوات بسرعة. 

أريد أن أقترح الإرشادات التالية لاستخدام الذكاء الاصطناعي في مكان العمل.

10 قواعد لمحترفي الإعلانات الذين يستخدمون الذكاء الاصطناعي في العمل

1. الكشف عن استخدام الذكاء الاصطناعي

إن الاختبار الحقيقي لما إذا كان يجب عليك استخدام الذكاء الاصطناعي لشيء ما هو ما إذا كنت ستشعر بالراحة بالاعتراف به. 

إذا لم تكن لديك أي مخاوف (“لقد أنشأت إحصاءات لتقريرنا”)، فهذه حالة استخدام أفضل. إذا شعرت بالحرج (“مرحبًا أيها المتدرب، تمت كتابة تقييم أدائك بواسطة ChatGPT”)، فهذا مؤشر جيد لا يجب عليك القيام به. 

سيكون للناس تفاوتات مختلفة، لكن الشفافية ستساعدنا في مناقشة ما هو مقبول بصراحة.

2. كن مسؤولاً

يتمتع الذكاء الاصطناعي بسمعة طيبة في “الهلوسة”، أي الملء التلقائي للمعلومات الخاطئة بشكل أساسي. 

قدم Google Bard مؤخرًا ردًا غير دقيق في عرضه التوضيحي العام، وتعرض Microsoft Bing لانتقادات بسبب مستخدمي “الغاز”. 

سواء كانت أخطاء واقعية أو رسائل بريد إلكتروني مكتوبة بشكل سيئ، لا يمكننا تحويل أخطاء الذكاء الاصطناعي إلى مشكلة شخص آخر. حتى لو كان ذلك من عمل الذكاء الاصطناعي، فهذه مسؤوليتنا.

3. مشاركة مدخلات منظمة العفو الدولية

باستخدام الذكاء الاصطناعي، يمكنك الحصول على ما تقدمه. وسيساعدنا التحلي بالشفافية بشأن المدخلات جميعًا على تعلم أفضل طريقة لاستخدام هذه الأدوات. 

سيساعدنا ذلك أيضًا على مقاومة إغراء طلب مخرجات منحازة بشكل صارخ (“أخبرني لماذا جيل الألفية أناني”) أو استخدام الذكاء الاصطناعي للانتحال (“أعطني صورة بأسلوب Kehinde Wiley”). 

تشجعنا الشفافية على هندسة المطالبات فقط التي نفتخر بالتباهي بها.

4. ابحث عن السياق

الذكاء الاصطناعي جيد جدًا في استرداد المعلومات وتبسيطها. بالنسبة لأولئك منا الذين تتضمن وظائفهم البحث، يمكن أن يؤدي ذلك إلى القضاء على عملية غربلة عشرات المواقع للحصول على إجابة بسيطة. 

لكن يمكنها أيضًا القضاء على التعقيد. نحن نخاطر بالتنازل عن السلطة لسلطة غير مرئية والحصول على ملخصات بدلاً من وجهات النظر الدقيقة. 

يجب أن نكمل المخرجات البسيطة التي يولدها الذكاء الاصطناعي بأبحاثنا الخاصة وفكرنا النقدي. 

5. توفير شفافية النظام

نظرًا لأن الشركات تستخدم الذكاء الاصطناعي لاتخاذ المزيد من القرارات، فمن حق الأفراد معرفة كيف تولد الأنظمة نتائجها. 

تتطلب اللائحة العامة لحماية البيانات من الشركات الإفصاح عن “معلومات مفيدة حول المنطق المتضمن” في القرارات الآلية، لكن الولايات المتحدة تفتقر إلى مثل هذه الحماية

إذا كانت الشركة تستخدم برنامجًا للذكاء الاصطناعي للتوصية بالزيادات والمكافآت، فيجب أن يعرف الموظفون العوامل التي تراها وكيف تزنهم.

6. توفير حق الرجوع

خضعت إحدى الشركات للتدقيق بعد السماح لأداة إنتاجية قائمة على الذكاء الاصطناعي بطرد 150 موظفًا عن طريق البريد الإلكتروني دون تدخل بشري. 

وقالت الشركة في وقت لاحق إنها ستراجع حالة كل موظف يدويًا. نحتاج إلى أن نكون قادرين على تحدي نتائج الذكاء الاصطناعي، لا أن نفترض أنه “يعرف كل شيء”، وأن نتمكن من الوصول إلى نظام انتصاف بقيادة الإنسان. 

7. تدقيق الذكاء الاصطناعي للتحيز

أحد الانتقادات الرئيسية للذكاء الاصطناعي هو أنه يمكن أن يضخم التحيز. من المعروف أن ChatGPT يكتب مراجعات أداء “متحيزة جنسياً (وعنصرية)”، حتى عند إعطاء مدخلات عامة. 

هناك سجل للتحيز العنصري والجنساني في أدوات التوظيف التي تعمل بالذكاء الاصطناعي، والتي غالبًا ما يتم تدريبها على مجموعات البيانات المليئة بالتحيز البشري. 

يجب على الشركات تدقيق أدواتها بانتظام، ويحتاج المستخدمون الأفراد إلى توخي الحرص بشأن التحيز في المخرجات. 

8. إعادة تقييم الوقت

خطر آخر للذكاء الاصطناعي: نقضي وقتًا أقل مع البشر ونقضي وقتًا أطول مع الآلات

إذا كان الذكاء الاصطناعي يخلق الكفاءة، فما الذي نملأ به وقتنا الجديد؟ بدلاً من التخلف عن العمل في مزيد من العمل، نحتاج إلى إعادة التفكير بشكل أساسي في هذا النطاق الترددي الجديد. 

قد يكون الاستخدام الأكثر جدوى لذلك الوقت هو التواصل مع الزملاء، أو مطاردة فكرة إبداعية، أو مجرد الراحة.

9. إعطاء الأولوية للإنسانية

ستكون هناك أوقات يقدم فيها الذكاء الاصطناعي مكاسب في الكفاءة على حساب كرامة الإنسان. هناك شركات نفذت مراقبة مدعومة بالذكاء الاصطناعي حيث لا يُسمح للعمال بالابتعاد عن الشاشة

تستخدم بعض الوكالات الإعلانية بالفعل الذكاء الاصطناعي لتحل محل الفنانين المرئيين. 

أود أن أناشد القادة إعطاء الأولوية لرفاهية الإنسان لأسباب أخلاقية بحتة، ولكن قد تجد الشركات أيضًا فوائد ملموسة لاتخاذ الطريق السريع، تمامًا كما تستفيد الشركات التي تدفع أجورًا أعلى من القوى العاملة الأكثر استقرارًا وذات الخبرة

10. مناصرة الحماية

تخطط الغالبية العظمى من القادة بالفعل لاستخدام الذكاء الاصطناعي لتقليل احتياجات التوظيف. 

تستمر نماذج الذكاء الاصطناعي في التعلم من أعمال المبدعين غير المأجورين. ومعظمنا لا يملك القوة لمحاربة التحيز في هذه الأدوات. 

هناك العديد من الأشياء الصغيرة التي يمكننا القيام بها لاستخدام الذكاء الاصطناعي بشكل أكثر أخلاقية في مكان العمل، ولكن في النهاية نحتاج إلى تغيير هيكلي مقنن وقادة منتخبون يعدون ببناء مشهد تنظيمي أقوى.

الطريق إلى الأمام للذكاء الاصطناعي في مجال الإعلان

تمامًا كما غيّر الإنترنت ما يعنيه العمل في مجال الإعلان، فإن الذكاء الاصطناعي على وشك تغيير العديد من وظائف وظائفنا بشكل جذري. ستكون هناك فوائد. 

ستكون هناك عيوب. ستكون هناك تغييرات لا يمكننا حتى تخيلها حتى الآن. مع تقدم الذكاء الاصطناعي بشكل كبير، نحتاج إلى أن نكون مستعدين لذلك.

الأخلاق موضوع شخصي، وأنا لا أقترح هذه القائمة كمجموعة من الوصايا المحفورة في الحجر. هدفي هو فتح حوار حول كيفية قيام صناعة الإعلانات بتسخير القوة المذهلة للذكاء الاصطناعي مع التخفيف من مخاطرها. 

آمل أن تتولى الوكالات والأفراد المسؤولية ويبدأوا في اكتشاف ما نريد أن يبدو عليه تبني الذكاء الاصطناعي المسؤول في صناعتنا. 

هانا ليمان هي مديرة استراتيجية مساعدة في Mekanism.

المصدر: venturebeat

قد يهمك:

إنشاء حساب باي بال تجاري

إنشاء حساب Wise

إنشاء حساب تيك توك

حساب Payoneer

إنشاء حساب Kucoin

إنشاء حساب جديد فيسبوك

إنشاء حساب انستقرام

hotmail.com انشاء حساب

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي