ترفع GPT-4 مخاطر أمن الذكاء الاصطناعي إلى مستوى أعلى

كما قال آرثر سي كلارك ذات مرة، فإن أي تقنية متقدمة بما فيه الكفاية “لا يمكن تمييزها عن السحر”.

قد يقول البعض أن هذا ينطبق أيضًا على ChatGPT – بما في ذلك، إذا صح التعبير، السحر الأسود. 

فور إطلاقه في نوفمبر، بدأت فرق الأمان ومختبرو الأقلام والمطورون في اكتشاف الثغرات في روبوت الدردشة بالذكاء الاصطناعي – ويستمر هؤلاء في التطور مع أحدث إصداراته، GPT-4، الذي تم إصداره في وقت سابق من هذا الشهر. 

قال هيكتور فيران، نائب الرئيس للتسويق في BlueWillow AI: “لن تخترع GPT-4 تهديدًا إلكترونيًا جديدًا”.

“ولكن مثلما يتم استخدامه من قبل الملايين بالفعل لزيادة وتبسيط عدد لا يحصى من المهام اليومية العادية، كذلك يمكن استخدامه من قبل أقلية من الجهات الفاعلة السيئة لزيادة سلوكهم الإجرامي.”

تطور التقنيات والتهديدات

في كانون الثاني (يناير)، بعد شهرين فقط من إطلاقه، وصل ChatGPT إلى 100 مليون مستخدم – مسجلاً رقماً قياسياً لأسرع نمو مستخدم لأحد التطبيقات.

 وبما أنه أصبح اسمًا مألوفًا، فهو أيضًا أداة جديدة لامعة لمجرمي الإنترنت، مما يمكنهم من إنشاء الأدوات ونشر الهجمات بسرعة. 

وعلى وجه الخصوص، يتم استخدام الأداة لإنشاء برامج يمكن استخدامها في هجمات البرامج الضارة وبرامج الفدية والتصيد الاحتيالي. 

على سبيل المثال، طلبت BlackFog مؤخرًا من الأداة إنشاء هجوم PowerShell بطريقة “غير ضارة”. تم إنشاء النص بسرعة وكان جاهزًا للاستخدام، وفقًا للباحثين. 

في غضون ذلك، تمكنت CyberArk من تجاوز المرشحات لإنشاء برامج ضارة متعددة الأشكال، والتي يمكن أن تتغير بشكل متكرر

استخدم CyberArk أيضًا ChatGPT لتغيير التعليمات البرمجية التي أصبحت مراوغة للغاية ويصعب اكتشافها. 

وتمكنت Check Point Research من استخدام ChatGPT لإنشاء هجوم تصيد احتيالي مقنع. 

حدد باحثو الشركة أيضًا خمس مجالات يستخدم فيها المتسللون ChatGPT: البرامج الضارة C ++ التي تجمع ملفات PDF وترسلها إلى FTP؛ التصيد الاحتيالي الذي ينتحل صفة البنوك؛ موظفي التصيد قذيفة PHP العكسية (التي تبدأ جلسة shell لاستغلال نقاط الضعف والوصول إلى جهاز الضحية)؛ وبرامج جافا التي تقوم بتنزيل وتنفيذ المعجون الذي يمكن تشغيله كبرنامج PowerShell مخفي. 

GPT-4: ميزات ومخاطر جديدة مثيرة

ما ورد أعلاه مجرد أمثلة قليلة؛ لا شك أن هناك العديد من الأشياء الأخرى التي يتعين اكتشافها أو وضعها موضع التنفيذ. 

قال دارين ويليامز، مؤسس BlackFog ومديرها التنفيذي: “إذا كنت محددًا جدًا في أنواع الاستعلامات التي تطلبها، فمن السهل جدًا تجاوز بعض عناصر التحكم الأساسية وإنشاء تعليمات برمجية ضارة فعالة جدًا في الواقع”.

 “يمكن استقراء هذا في كل تخصص تقريبًا، من الكتابة الإبداعية إلى الهندسة وعلوم الكمبيوتر.”

وقال ويليامز: ” تتمتع GPT-4 بالعديد من الميزات الجديدة والمثيرة التي تطلق العنان لقوة جديدة وتهديدات محتملة.” 

وقال إن خير مثال على ذلك هو الطريقة التي يمكن بها للأداة الآن قبول الصور كمدخلات وتكييفها. يمكن أن يؤدي ذلك إلى استخدام الصور المضمنة مع التعليمات البرمجية الضارة، والتي يشار إليها غالبًا باسم “هجمات إخفاء المعلومات”.

قال ويليامز إن الإصدار الأحدث بشكل أساسي هو “تطور لنظام قوي بالفعل ولا يزال قيد التحقيق من قبل فريقنا”.

قال ويليامز: “تشكل هذه الأدوات بعض التطورات الرئيسية فيما يمكن أن يفعله الذكاء الاصطناعي حقًا ويدفع الصناعة بأكملها إلى الأمام، ولكن مثل أي تقنية، ما زلنا نتصارع مع الضوابط التي يجب وضعها حولها”. 

“لا تزال هذه الأدوات قيد التطوير ونعم، لها بعض التداعيات الأمنية.”

ليست الأداة – المستخدمين

بشكل عام، فإن أحد مجالات الاهتمام هو استخدام ChatGPT لزيادة أو تعزيز الانتشار الحالي للمعلومات المضللة، كما قال فيران. 

ومع ذلك، أكد أنه من الضروري إدراك أن النية الخبيثة ليست مقصورة على أدوات الذكاء الاصطناعي. 

قال فيران: “إن ChatGPT لا يشكل أي تهديدات أمنية في حد ذاته”. “جميع التقنيات لديها القدرة على استخدامها في الخير أو الشر. يأتي التهديد الأمني ​​من الجهات السيئة التي ستستخدم تقنية جديدة لأغراض ضارة “. 

قال فيران ببساطة، “التهديد يأتي من الطريقة التي يختار الناس استخدامها.”

رداً على ذلك، سيحتاج الأفراد والمنظمات إلى توخي المزيد من اليقظة والتدقيق في الاتصالات عن كثب لمحاولة اكتشاف الهجمات بمساعدة الذكاء الاصطناعي، على حد قوله.

 يجب عليهم أيضًا اتخاذ تدابير استباقية لمنع سوء الاستخدام من خلال تنفيذ الضمانات المناسبة وطرق الكشف والمبادئ التوجيهية الأخلاقية. 

وقال: “من خلال القيام بذلك، يمكنهم تعظيم فوائد الذكاء الاصطناعي مع التخفيف من المخاطر المحتملة”. 

أيضًا، تتطلب معالجة التهديدات جهدًا جماعيًا من العديد من أصحاب المصلحة. قال فيران: “من خلال العمل معًا، يمكننا ضمان استخدام ChatGPT والأدوات المماثلة لتحقيق النمو الإيجابي والتغيير”. 

وعلى الرغم من أن الأداة تحتوي على فلاتر للمحتوى لمنع إساءة الاستخدام، فمن الواضح أنه يمكن حلها بسهولة، لذلك “قد يلزم الضغط على أصحابها لتعزيز هذه الإجراءات الوقائية”، على حد قوله. 

قدرة الأمن السيبراني جيدة أيضًا

على الجانب الآخر، يمكن للمؤسسات استخدام ChatGPT وأدوات الذكاء الاصطناعي المتقدمة الأخرى لكل من القدرات الهجومية والدفاعية. 

قال فيران: “لحسن الحظ، يعد الذكاء الاصطناعي أيضًا أداة قوية يمكن استخدامها ضد الجهات السيئة”. 

تستخدم شركات الأمن السيبراني، على سبيل المثال، الذكاء الاصطناعي في جهودها للعثور على التهديدات الضارة وتصنيفها.

بكثير قال فيران: “يجب أن تستغل إدارة التهديدات الإلكترونية كل فرصة للاستفادة من الذكاء الاصطناعي في تطويرها للتدابير الوقائية، حتى يتمكنوا من الانتصار فيما يمكن أن يصبح في الأساس سباق تسلح”.

وبفضل الضمانات المعززة والقدرة على اكتشاف السلوك الضار، يمكن أن يكون في النهاية “أحد الأصول القوية” للمنظمات. 

قال فيران: ” تُعد GPT-4 قفزة ملحوظة إلى الأمام في النماذج القائمة على اللغة الطبيعية، حيث توسع بشكل كبير من حالات استخدامها المحتملة وتعتمد على إنجازات تكراراتها السابقة”، مشيرًا إلى قدرتها الموسعة على كتابة التعليمات البرمجية بأي لغة.

وافق ويليامز، قائلاً إن الذكاء الاصطناعي مثل أي أداة قوية: يجب على المنظمات بذل العناية الواجبة الخاصة بها. 

“هل هناك مخاطر يمكن أن يستخدمها شائنة الناس لأغراض؟ بالطبع، لكن الفوائد تفوق المخاطر. 

المصدر: venturebeat

شاهد ايضا:

تسجيل دخول جيميل

إنشاء حساب فيسبوك | تسجيل دخول

إنشاء حساب Apple ID

إنشاء اجتماع زووم

إنشاء Yahoo

إنشاء محفظة Trust Wallet

إنشاء حساب بنك أبوظبي الأول

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي