مخاطر استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT في المؤسسة

توافد الملايين من المستخدمين على ChatGPT منذ إطلاقه السائد في نوفمبر 2022.

وبفضل قدراته الاستثنائيّة لتوليد اللغة الشبيهة بالبشر، واستعداده لبرمجيات الترميز، وتحليل النص بسرعة البرق، برز ChatGPT بسرعة كأداة انتقال للمطورين والباحثين والمستخدمين العاديين.

ولكن كما هو الحال مع أي تقنية تخريبية، فإن أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT تأتي مع مخاطر محتملة. 

على وجه الخصوص، قام اللاعبون الرئيسيون في صناعة التكنولوجيا ووكالات الاستخبارات الحكومية والهيئات الحكومية الأخرى برفع الأعلام الحمراء حول المعلومات الحساسة التي يتم إدخالها في أنظمة الذكاء الاصطناعي مثل ChatGPT.

ينبع القلق من احتمال تسرب مثل هذه المعلومات في نهاية المطاف إلى المجال العام، سواء من خلال الانتهاكات الأمنية أو استخدام المحتوى الذي ينشئه المستخدم “لتدريب” روبوتات المحادثة. 

استجابة لهذه المخاوف، تتخذ المؤسسات التقنية إجراءات للتخفيف من المخاطر الأمنية المرتبطة بنماذج اللغة الكبيرة (LLMs) والذكاء الاصطناعي للمحادثة (CAI) 

. اختارت العديد من المنظمات حظر استخدام ChatGPT تمامًا، بينما حذرت منظمات أخرى موظفيها من مخاطر إدخال البيانات السرية في مثل هذه النماذج.

ChatGPT: ذكاء اصطناعي مخيف في العراء؟

أصبح ChatGPT المدعوم بالذكاء الاصطناعي أداة شائعة للشركات التي تتطلع إلى تحسين عملياتها وتبسيط المهام المعقدة. ومع ذلك، فقد أكدت الأحداث الأخيرة على المخاطر المحتملة لتبادل المعلومات السرية من خلال المنصة.

في تطور مقلق، تم الإبلاغ عن ثلاث حالات من تسرب البيانات الحساسة عبر ChatGPT في أقل من شهر. 

أحدثها حدث الأسبوع الماضي. دخلت شركة Samsung المصنعة للهواتف الذكية في جدل عندما ذكرت وسائل الإعلام الكورية أن الموظفين في مصانعها الرئيسية لأشباه الموصلات قد أدخلوا معلومات سرية، بما في ذلك شفرة المصدر شديدة الحساسية المستخدمة لحل أخطاء البرمجة، في روبوت الدردشة AI. 

تعد شفرة المصدر واحدة من أكثر أسرار أي شركة تقنية تخضع لحراسة مشددة، حيث تعمل بمثابة لبنة أساسية لأي برنامج أو نظام تشغيل

وبالتالي، فإن الأسرار التجارية الثمينة قد سقطت الآن عن غير قصد في حيازة OpenAI، مزود خدمات الذكاء الاصطناعي الهائل الذي أحدث ثورة في عالم التكنولوجيا.

على الرغم من طلبات VentureBeat، لم تعلق Samsung على الأمر، لكن مصادر قريبة من الشركة كشفت أن الشركة قلصت على ما يبدو وصول موظفيها إلى ChatGPT.

واجهت تكتلات أخرى من قائمة Fortune 500، بما في ذلك Amazon وWalmart وJPMorgan، حالات مماثلة للموظفين دفعوا عن طريق الخطأ بيانات حساسة إلى برنامج الدردشة الآلي.

دفعت التقارير الخاصة بموظفي Amazon الذين يستخدمون ChatGPT للوصول إلى معلومات العملاء السرية الشركة التقنية العملاقة إلى تقييد استخدام الأداة بسرعة وتحذير العمال بشدة من إدخال أي بيانات حساسة فيها.

معرفة بدون حكمة

قال ماتيو فورتيير، مدير التعلم الآلي في منصة Coveo للتجربة الرقمية التي تعتمد على الذكاء الاصطناعي، إن LLMs مثل GPT-4 وLLaMA تعاني من العديد من العيوب وحذر من أنه على الرغم من براعتها في فهم اللغة، فإن هذه النماذج تفتقر إلى القدرة على تمييز الدقة والقوانين الثابتة والحقائق المادية والجوانب الأخرى غير اللغوية.

“بينما تقوم LLM بإنشاء مستودعات معرفة جوهرية واسعة النطاق من خلال بيانات التدريب، إلا أنها لا تملك مفهومًا واضحًا للحقيقة أو الدقة الواقعية. 

بالإضافة إلى ذلك، فهم عرضة للانتهاكات الأمنية وهجمات استخراج البيانات، وهم عرضة للانحراف عن الاستجابات المقصودة أو إظهار “شخصيات مختلة”.

سلط فورتير الضوء على المخاطر الكبيرة التي تنطوي عليها الشركات. يمكن أن تؤدي التداعيات إلى تآكل ثقة العملاء بشدة وإلحاق ضرر لا يمكن إصلاحه بسمعة العلامة التجارية، مما يؤدي إلى مشاكل قانونية ومالية كبيرة.

على خطى عمالقة التكنولوجيا الآخرين، نفذت Walmart Global Tech، قسم التكنولوجيا في شركة البيع بالتجزئة العملاقة، تدابير للتخفيف من مخاطر انتهاكات البيانات. 

في مذكرة داخلية للموظفين، وجهت الشركة الموظفين لحظر ChatGPT بعد اكتشاف نشاط مشبوه يمكن أن يعرض بيانات المؤسسة وأمانها للخطر.

صرح متحدث باسم Walmart أنه على الرغم من قيام بائع التجزئة بإنشاء روبوتات محادثة خاصة به على قدرات GPT-4، فقد نفذ العديد من الإجراءات لحماية بيانات الموظفين والعملاء من النشر على أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT.

“تقدم معظم التقنيات الجديدة فوائد جديدة بالإضافة إلى مخاطر جديدة. لذلك ليس من غير المألوف بالنسبة لنا تقييم هذه التقنيات الجديدة وتزويد شركائنا بإرشادات الاستخدام لحماية بيانات عملائنا وأعضائنا وشركائنا “، كما قال المتحدث لموقع VentureBeat. 

“الاستفادة من التكنولوجيا المتاحة، مثل Open AI، وبناء طبقة في الأعلى تتحدث عن البيع بالتجزئة بشكل أكثر فاعلية تمكننا من تطوير تجارب عملاء جديدة وتحسين القدرات الحالية.”

تبنت شركات أخرى، مثل Verizon وAccenture، أيضًا خطوات للحد من استخدام ChatGPT، مع توجيه Verizon للعاملين بها لتقييد برنامج الدردشة الآلي بالمهام غير الحساسة، وتنفيذ Accenture لضوابط أكثر صرامة لضمان الامتثال للوائح خصوصية البيانات.

كيف يستخدم ChatGPT بيانات المحادثة

ومما يزيد من تفاقم هذه المخاوف حقيقة أن ChatGPT يحتفظ ببيانات إدخال المستخدم لتدريب النموذج بشكل أكبر، مما يثير تساؤلات حول احتمال تعرض المعلومات الحساسة من خلال انتهاكات البيانات أو غيرها من الحوادث الأمنية. 

نفذت شركة OpenAI، الشركة التي تقف وراء نماذج الذكاء الاصطناعي التوليدية الشهيرة ChatGPT وDALL-E، مؤخرًا سياسة جديدة لتحسين خصوصية بيانات المستخدم وأمانها. 

اعتبارًا من 1 مارس من هذا العام، يجب على مستخدمي واجهة برمجة التطبيقات الاشتراك صراحة في مشاركة بياناتهم للتدريب أو تحسين نماذج OpenAI.

في المقابل، بالنسبة للخدمات التي لا تعتمد على واجهة برمجة التطبيقات، مثل ChatGPT وDALL-E، يجب على المستخدمين إلغاء الاشتراك إذا كانوا لا يرغبون في استخدام OpenAI لبياناتهم.

وفقًا لمدونة OpenAI، التي تم تحديثها مؤخرًا، “عندما تستخدم خدمات العملاء غير التابعة لواجهة برمجة التطبيقات ChatGPT أو DALL-E، فقد نستخدم البيانات التي تقدمها لنا لتحسين نماذجنا”.

 “إن مشاركة بياناتك معنا لا تساعد نماذجنا على أن تصبح أكثر دقة وأفضل في حل مشكلتك المحددة فحسب ، بل تساعد أيضًا في تحسين قدراتها العامة وسلامتها … يمكنك طلب إلغاء الاشتراك في استخدام بياناتك لتحسين خدماتنا التي لا تتوافق مع واجهة برمجة التطبيقات عن طريق ملء هذا النموذج بمعرف مؤسستك وعنوان البريد الإلكتروني المرتبط بمالك الحساب. “

يأتي هذا الإعلان وسط مخاوف بشأن المخاطر الموضحة أعلاه وحاجة الشركات إلى توخي الحذر عند التعامل مع المعلومات الحساسة. 

انضمت الحكومة الإيطالية مؤخرًا إلى المعركة من خلال حظر استخدام ChatGPT في جميع أنحاء البلاد، مشيرة إلى مخاوف بشأن خصوصية البيانات وأمنها.

تنص OpenAI على أنها تزيل أي معلومات تعريف شخصية من البيانات المستخدمة لتحسين نماذج الذكاء الاصطناعي الخاصة بها، وتستخدم فقط عينة صغيرة من البيانات من كل عميل لهذا الغرض.

تحذير الحكومة

أصدرت وكالة استخبارات مقر الاتصالات الحكومية في المملكة المتحدة (GCHQ)، من خلال المركز الوطني للأمن السيبراني (NCSC)، مذكرة تحذيرية حول قيود ومخاطر النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT. 

في حين تم الإشادة بهذه النماذج لقدراتها المثيرة للإعجاب في معالجة اللغة الطبيعية، يحذر مركز NCSC من أنها ليست معصومة من الخطأ وقد تحتوي على عيوب خطيرة.

وفقًا لـ NCSC، يمكن أن تولد LLM حقائق غير صحيحة أو “مهلوسة”، كما هو موضح خلال العرض التوضيحي الأول لروبوت الدردشة Bard من Google. 

يمكنهم أيضًا إظهار التحيز والسذاجة، خاصة عند الرد على الأسئلة الإيحائية. بالإضافة إلى ذلك، تتطلب هذه النماذج موارد حسابية كبيرة وكميات هائلة من البيانات للتدريب من نقطة الصفر، وهي عرضة لهجمات الحقن وإنشاء المحتوى السام.

قال Coveo’s Fortier: “LLMs تولد استجابات للمطالبات بناءً على التشابه الجوهري لذلك الموجه إلى معرفتهم الداخلية، والتي تحفظ الأنماط التي تظهر في بيانات التدريب”. 

“ومع ذلك، نظرًا لعدم وجود” قواعد صارمة “داخلية داخلية أو قدرات منطقية، لا يمكنهم الامتثال بنجاح بنسبة 100٪ للقيود التي قد تأمرهم بعدم الكشف عن معلومات حساسة.”

وأضاف أنه على الرغم من الجهود المبذولة للحد من توليد المعلومات الحساسة، إذا تم تدريب LLM على مثل هذه البيانات، فيمكنها إعادة توليدها.

وقال: “الحل الوحيد ليس تدريب هذه النماذج بمواد حساسة”. “يجب على المستخدمين أيضًا الامتناع عن تزويدهم بمعلومات حساسة في الموجه، لأن معظم الخدمات الموجودة اليوم ستحتفظ بهذه المعلومات في سجلاتهم.”

أفضل الممارسات للاستخدام الآمن والأخلاقي للذكاء الاصطناعي التوليدي 

مع استمرار الشركات في تبني الذكاء الاصطناعي والتقنيات الناشئة الأخرى، سيكون من الضروري ضمان الضمانات المناسبة لحماية البيانات الحساسة ومنع الكشف غير المقصود عن المعلومات السرية.

تسلط الإجراءات التي اتخذتها هذه الشركات الضوء على أهمية توخي اليقظة عند استخدام نماذج لغة الذكاء الاصطناعي مثل ChatGPT. 

في حين أن هذه الأدوات يمكن أن تحسن الكفاءة والإنتاجية بشكل كبير، إلا أنها تشكل مخاطر كبيرة إذا لم يتم استخدامها بشكل مناسب. 

قال بيتر ريلان، رئيس شركة الذكاء الاصطناعي الناشئة Got It AI، لموقع VentureBeat: “أفضل نهج هو أخذ كل تطور جديد في التقدم الأولي لنماذج اللغة وتكييفها في بنية قائمة على سياسة المؤسسة والتي تحيط بنموذج اللغة مع المعالجات المسبقة والمعالجات اللاحقة لقضبان الحماية، وضبطها لبيانات خاصة بالمؤسسة، ومن ثم ربما الانتقال إلى النشر المحلي أيضًا”. 

“بخلاف ذلك، تكون النماذج اللغوية الأولية قوية جدًا وفي بعض الأحيان تكون ضارة للتعامل معها في المؤسسة.”

من جانبه، قال براسانا أريكالا، كبير موظفي التكنولوجيا بمنصة Kore .ai للمحادثة المدعومة من Nvidia، إنه للمضي قدمًا، سيكون من الضروري للشركات الحد من وصول LLM إلى المعلومات الحساسة والشخصية لتجنب الانتهاكات. 

يمكن أن يساعد تطبيق ضوابط وصول صارمة، مثل المصادقة متعددة العوامل، وتشفير البيانات الحساسة في التخفيف من هذه المخاطر. 

يمكن أيضًا إجراء عمليات تدقيق أمنية منتظمة وتقييمات نقاط الضعف لتحديد ومعالجة الثغرات الأمنية المحتملة. 

“بينما تعد LLM أدوات قيمة إذا تم استخدامها بشكل صحيح، فمن الأهمية بمكان أن تتخذ الشركات الاحتياطات اللازمة لحماية البيانات الحساسة والحفاظ على ثقة العملاء وأصحاب المصلحة.”

يبقى أن نرى كيف ستتطور هذه اللوائح، ولكن يجب أن تظل الشركات يقظة ومطلعة للبقاء في الطليعة. 

مع الفوائد المحتملة للذكاء الاصطناعي التوليفي تأتي مسؤوليات وتحديات جديدة، والأمر متروك لصناعة التكنولوجيا للعمل جنبًا إلى جنب مع صانعي السياسات لضمان تطوير التكنولوجيا وتنفيذها بمسؤولية وأخلاقية.

المصدر: venturebeat

قد يهمك:

إنشاء حساب هوتميل hotmail

فتح حساب باي بال

قالب ووردبريس novo

إنشاء محفظة Crypto

انشاء موقع هوستنجر

إنشاء موقع إلكتروني wix

شراء قالب soledad

شراء قالب ووردبريس porto مدفوع

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي