هل من الأخلاقي استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دون الاعتماد على الجهاز؟

طور فريق من الباحثين مؤخرًا خوارزمية تولد مراجعات أصلية للنبيذ والبيرة. بالنظر إلى أن أجهزة الكمبيوتر لا تستطيع تذوق الخمر، فإن هذا يجعل حالة استخدام غريبة للتعلم الآلي.

تم تدريب ساقي الذكاء الاصطناعي على قاعدة بيانات تحتوي على مئات الآلاف من تقييمات البيرة والنبيذ. 

في جوهرها، تقوم بتجميع تلك المراجعات واختيار الكلمات الرئيسية. عندما يطلب الباحثون منه إنشاء مراجعته الخاصة لنبيذ أو بيرة معينة، فإنه يولد شيئًا مشابهًا للمراجعات السابقة.

وفقًا للباحثين، يمكن مقارنة إنتاجه بالمراجعات التي أنشأها البشر تمامًا، ولا يمكن تمييزها في كثير من الأحيان.

السؤال الكبير هنا: لمن هذا؟

يقول فريق البحث إنه مخصص للأشخاص الذين لا يستطيعون تحمل تكاليف مراجعين محترفين، أو يفتقرون إلى الإلهام لبدء مراجعة مناسبة، أو يريدون فقط ملخصًا لما قيل عن مشروب من قبل.

لول ماذا؟

حسب ورقة البحث الخاصة بهم:

بدلاً من استبدال كاتب المراجعة البشرية، نتصور سير عمل حيث تأخذ الآلات البيانات الوصفية كمدخلات وتولد مراجعة يمكن قراءتها كمسودة أولى للمراجعة وبالتالي مساعدة المراجع الخبير في كتابة مراجعته.

نقوم بعد ذلك بتعديل وتطبيق تقنية الكتابة الآلية الخاصة بنا لإظهار كيف يمكن استخدام الآلات لكتابة توليفة لمجموعة من مراجعات المنتجات.

بالنسبة لهذا التطبيق الأخير، فإننا نعمل في سياق مراجعات البيرة (التي يوجد لها مجموعة كبيرة من المراجعات المتاحة لكل من عدد كبير من المنتجات) وننتج توليفات مراجعة مكتوبة آليًا تؤدي وظيفة جيدة – يتم قياسها مرة أخرى من خلال التقييم البشري – التقاط الأفكار الواردة في مراجعات أي بيرة معينة.

كل هذا جيد وجيد، لكن من الصعب تخيل وجود أي من هؤلاء الأشخاص الخياليين بالفعل.

هل هناك حقًا أشخاص يتمتعون بالامتياز لدرجة أنهم يستطيعون شراء الخمّار أو مصنع الجعة الخاص بهم، والذين هم أيضًا معزولون بطريقة ما عن المؤثرين على وسائل التواصل الاجتماعي وعشاق النبيذ والبيرة الضخم؟

يبدو أن هذا سيكون مفيدًا بشكل لا يصدق كمخطط تسويق، ولكن مرة أخرى، من الصعب تخيل وجود أشخاص متحفظين على تجربة نبيذ أو بيرة معينة حتى يتمكنوا من قراءة ما يفكر فيه الذكاء الاصطناعي بشأنه.

هل سيكون الأشخاص الذين يستفيدون من استخدام الذكاء الاصطناعي هذا شفافين مع الأشخاص الذين يستهلكون المحتوى الذي ينشئه؟

ماذا يوجد في المراجعة؟

عندما يتعلق الأمر بالأذواق الفردية للمراجع البشري، يمكننا أن ننظر إلى مجموعة عملهم ونرى ما إذا كنا نميل إلى الاتفاق مع مشاعرهم.

باستخدام الذكاء الاصطناعي، نحن نرى فقط كل ما يختاره المشغل. إنه نفس الشيء مع أي مخطط لتوليد المحتوى.

أشهر AI لتوليد المحتوى هو OpenAI’s GPT-3. تعتبر على نطاق واسع واحدة من أكثر شبكات الذكاء الاصطناعي تقدمًا في الوجود، وغالبًا ما يُشار إليها على أنها أحدث ما توصلت إليه الصناعة لتوليد النصوص. 

مع ذلك، حتى GPT-3 يتطلب يدًا ثقيلة عندما يتعلق الأمر باعتدال الإنتاج وتنظيمه.

يكفي القول، إنه على الأرجح رهان آمن على أن نماذج فريق خبراء الذكاء الاصطناعي لا تتفوق على GPT-3، وبالتالي تتطلب مستوى مماثلًا على الأقل من الاهتمام البشري.

هذا يطرح السؤال: ما مدى أخلاقية إنشاء المحتوى دون الاعتماد على الجهاز؟

لا يوجد عالم مجدي حيث يجب أن تكون المشاعر مثل “يقول الذكاء الاصطناعي بأن طعم النبيذ لدينا رائعًا” نقطة بيع (خارج هذا النوع من أحداث التكنولوجيا الزائدية التي ترعاها عادةً مشروبات الطاقة ومؤسسات العملة المشفرة).

وهذا يعني أن حالات الاستخدام الأكثر ترجيحًا لسقاة الذكاء الاصطناعي من المحتمل أن تتضمن السماح ضمنيًا للناس بالاعتقاد بأن مخرجاته قد نتجت عن شيء يمكن أن يتذوق بالفعل ما يتحدث عنه.

هل هذا أخلاقي؟

هذا ليس سؤالًا يمكننا الإجابة عليه دون تطبيق صرامة فكرية على مثال محدد لتطبيقه.

أدى وجود سقاة الذكاء الاصطناعي، وGPT-3، والشبكات العصبية التي تخلق اللوحات، ومولدات الموسيقى التي تعمل بالذكاء الاصطناعي إلى خلق كابوس أخلاقي محتمل.

قد لا تكون من محبي النبيذ أو شارب البيرة، لكن هذا لا يعني أنك في مأمن من التأثيرات المشوهة للواقع للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

في هذه المرحلة، هل يمكن لأي منا أن يتأكد من أن الأشخاص لا يستخدمون الذكاء الاصطناعي لتجميع الأخبار العاجلة وإنشاء محتوى معاد صياغته قبل تمريره تحت عنوان بشري؟

هل من الممكن أن تكون بعض البرامج التلفزيونية التي تم الإفراط في استخدامها في هذا الموسم وعمليات إعادة عرض الحبكة في هوليوود نتيجة استخدام غرفة الكاتب لمجمّع نصوص مدعوم بالذكاء الاصطناعي لبث ما يعتقده السوق يريده؟

وفي الرسائل النصية والتعارف في عالم الرومانسية الحديثة الذي يحركه التطبيق، هل يمكنك أن تكون متأكدًا حقًا من أنك تتغذى من قبل خاطب بشري وليس كلمات الروبوت Cyrano de Bergerac بدلاً من ذلك؟

ليس بعد الآن

الجواب على الثلاثة هو: لا. ويمكن القول إن هذه مشكلة أكبر من الانتحال.

على الأقل هناك وثيقة مصدر عندما يسرق البشر بعضهم البعض. ولكن عندما يتخلى الإنسان عن عمل الروبوت على أنه عمل خاص به، فقد لا تكون هناك طريقة يمكن لأي شخص أن يعرفها بالفعل.

هذا لا يجعل استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أمرًا غير أخلاقي بطبيعته. 

لكن، بدون ضمانات ضد مثل هذا الاستخدام غير الأخلاقي المحتمل، فمن المحتمل أن يتم خداعنا مثل أستاذ جامعي لا يقوم بالبحث على الإنترنت عن النص في المقالات التي يصنفونها.

هل يمكن أن يكون ساقي الذكاء الاصطناعي قوة من أجل الخير؟ بالتأكيد. ليس من الصعب تخيل موقع ويب يعلن عن مراجعاته المجمعة بالذكاء الاصطناعي على أنها شيء مشابه لطماطم فاسدة للعنب المحطم والقفزات المخمرة. 

طالما كان المالكون واضحين في أن الذكاء الاصطناعي يأخذ المدخلات البشرية ومخرجات الموضوعات الأكثر شيوعًا، فلن يكون هناك خطر الخداع.

يذكر الباحثون أن الترياق المضاد للاستخدام المشبوه للذكاء الاصطناعي هو الشفافية. لكن هذا يطرح سؤالًا آخر فقط: من يقرر مقدار الشفافية اللازمة عندما يتعلق الأمر بشرح مخرجات الذكاء الاصطناعي؟

دون معرفة عدد المراجعات السلبية أو مقدار هراء الذكاء الاصطناعي غير المفهوم الذي تم إنشاؤه قبل أن يتمكن من إخراج شيء مفيد، هل لا يزال جديرًا بالثقة؟

هل ستشعر بنفس الطريقة حيال مراجعة إيجابية للذكاء الاصطناعي إذا كنت تعلم أنها سبقتها عشرات من النتائج السلبية التي لم يطلعك عليها المسؤولون؟

من الواضح أن هناك أسئلة أكثر بكثير من الإجابات عندما يتعلق الأمر بالاستخدام الأخلاقي للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

المصدر: thenextweb

شاهد ايضا:

شراء قالب Jarida مدفوع

قالب جود نيوز

strikingly شرح

إنشاء حساب فايفر Fiverr

أفضل شغل أونلاين بالدولار في 2023

إنشاء محفظة Electrum

إنشاء موقع ويب Site123

خطوات إنشاء حساب على Booking

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي