كيف يغير ChatGPT لعبة الأمن السيبراني

ربما تكون قد سمعت عن ChatGPT حتى الآن – روبوت المحادثة التحاوري من OpenAI الذي يجتاح العالم. باستخدام تقنية الذكاء الاصطناعي (AI)، يمكن لـ ChatGPT إنشاء نص يشبه الإنسان بناءً على المطالبات التي يدخلها المستخدمون. كواحد من أكثر تطبيقات معالجة اللغة الطبيعية تعقيدًا حتى الآن، فإن ChatGPT قادرة على “الإجابة، ومتابعة الأسئلة، والاعتراف بأخطائها، وتحدي المباني غير الصحيحة، ورفض الطلبات غير الملائمة”، وفقًا لـ OpenAI.
هذه أداة مثيرة للغاية يمكن أن تكون مفيدة لمجموعة كبيرة من الأغراض – بدءًا من إنشاء وصفة بمكونات محدودة، إلى تلخيص ورقة بحثية بنقرة زر واحدة. ولكن كما هو الحال مع العديد من الاختراقات التقنية، يمكن استخدام ChatGPT والذكاء الاصطناعي الكامن وراءه – ويتم استخدامه بالفعل – من قبل المهاجمين السيبرانيين.
هجمات التصيد المدعومة بالذكاء الاصطناعي
تظهر الأبحاث أن أنظمة روبوتات الدردشة مثل ChatGPT يمكن أن يساء استخدامها من قبل المهاجمين لصياغة رسائل البريد الإلكتروني والرموز المخادعة. من خلال الاستفادة من إمكانات معالجة اللغة الطبيعية في ChatGPT ، يمكن للمهاجمين إنشاء رسائل بريد إلكتروني تصيدية مكتوبة جيدًا ومقنعة يصعب التعرف عليها، مع القليل من الجهد من جانبهم.
هذا أمر خطير بشكل خاص حيث تم دفع المستخدمين تقليديًا إلى الاعتقاد بأنه يمكنهم التعرف على رسائل البريد الإلكتروني المخادعة بناءً على الأخطاء الإملائية أو النحوية. ولكن لم يعد هذا هو الحال، حيث يمكن لأدوات الذكاء الاصطناعي إنشاء رسائل بريد إلكتروني للتصيد على نطاق واسع لا تشوبها شائبة من منظور اللغة.
تشكل هجمات التصيد بالفعل تهديدًا خطيرًا؛ وجدت بيانات من Proofpoint أن 21٪ من الموظفين الذين شملهم الاستطلاع في الإمارات العربية المتحدة و19٪ في المملكة العربية السعودية أفادوا بأنهم وقعوا ضحية لسرقة بيانات اعتماد عبر الإنترنت في العام الماضي، بناءً على استطلاعات أجريت في أغسطس 2022. وبما أن المهاجمين يدمجون الذكاء الاصطناعي بشكل متزايد من أجل أكثر ذكاءً. حملات التصيد الاحتيالي، ستصبح اليقظة أكثر أهمية من أي وقت مضى.
التزييف العميق
يمكن أيضًا استخدام تقنيات الذكاء الاصطناعي لإنشاء التزييف العميق، والذي يشير إلى الصور الاصطناعية ومقاطع الفيديو والصوت. يمكن استخدام تقنية التزييف العميق للخداع والاحتيال – على سبيل المثال، ماذا لو لم يكن “الصديق” الذي يتصل بك هو الشخص الذي تعتقد أنه كذلك؟ يمكن للتكنولوجيا أن تغير الأصوات واللهجات وحتى اختيار الكلمات، مما يجعلك تعتقد بسهولة أنه الشخص المناسب في الطرف الآخر من الخط، في حين أنه قد لا يكون كذلك.
وهذا له آثار خطيرة على الأمن السيبراني، حيث يمكن للمهاجمين استخدام تقنية التزييف العميق لحملات الهندسة الاجتماعية، حيث يتم خداع المستخدم أو الفرد للقيام بعمل مثل الكشف عن المعلومات أو حتى تثبيت تطبيق ضار. تعتمد الهندسة الاجتماعية على بناء الثقة بين المهاجم والضحية. تتيح تقنية Deepfake للمهاجمين بناء الثقة بشكل أسرع وعميق، من خلال انتحال هوية مقنع للغاية يمكن أن يخدع بسهولة أكثر.
توليد تعليمات برمجية ضارة
كشفت تجربة حديثة مع ChatGPT أنه يمكن استخدام الأداة لإنشاء تعليمات برمجية ضارة. على الرغم من أن ChatGPT تستخدم عناصر تحكم تهدف إلى منعها من إنشاء مخرجات ضارة، إلا أن الباحثين تمكنوا من تجاوز هذه المرشحات من خلال مطالبات نصية مصممة بعناية.
من الجدير بالذكر أن الكود الذي أنشأته ChatGPT لن يكون على الأرجح كافياً من تلقاء نفسه لإطلاق حملة برمجيات خبيثة، حيث تتضمن الهجمات الإلكترونية في العادة سلسلة من الأحداث، ونادرًا ما تقتصر على جزء واحد من التعليمات البرمجية. بغض النظر، فإن هذا الاكتشاف الأخير له آثار مقلقة للغاية. بدلاً من الاضطرار إلى تطوير القدرات التقنية، يمكن للمهاجمين الذين لا يمتلكون مهارات تشفير الآن استخدام أدوات مثل ChatGPT لإنشاء تعليمات برمجية ضارة بسهولة نسبية.
قد تكون هذه الآثار الجانبية للذكاء الاصطناعي مخيفة للتفكير فيها.
الخبر السار هو أنه بينما يطور المهاجمون السيبرانيون أساليبهم، فإن المتخصصين في الأمن السيبراني يبتكرون في نفس الوقت لإحباط التهديدات الناشئة والبقاء في الطليعة. وفي كثير من الحالات، يمكن استخدام نفس التقنيات التي يستخدمها الفاعلون السيئون من قبل المتخصصين في مجال الأمن لتحديد التهديدات والتخفيف من حدتها. على سبيل المثال، بنفس الطريقة التي يمكن بها استخدام الذكاء الاصطناعي كسلاح من قبل المهاجمين السيبرانيين، يمكن استخدامه أيضًا لاكتشاف الحوادث والاستجابة لها بشكل أسرع.
التكيف هو المفتاح
عندما يتم إطلاق العنان لتقنيات رائدة مثل ChatGPT ، يحتاج المجتمع ككل إلى التكيف في الاستجابة. من الضروري بناء الوعي بين الجمهور حول أحدث التطورات في التكنولوجيا، وكيف يتم تسليحها من قبل المهاجمين. بالإضافة إلى ذلك، يجب على الأشخاص تجاهل المفاهيم القديمة – على سبيل المثال، أن رسائل البريد الإلكتروني التصيدية تتميز بلغة رديئة، أو أن الصور ومقاطع الفيديو المزيفة يمكن التعرف عليها بسهولة.
يمكن أن يُحدث اعتماد الذكاء الاصطناعي العديد من التغييرات الإيجابية، لكنه يشكل أيضًا مخاطر أمنية جديدة. في هذا المجال سريع التطور، من المهم أن تظل يقظًا وأن تتكيف مع أحدث التطورات. من خلال تبني ابتكارات الأمن السيبراني، يمكننا الاستفادة من الراحة والكفاءة التي يوفرها الذكاء الاصطناعي، مع الحفاظ على أمان معلوماتنا الحساسة. باختصار، يتطلب تبني مزايا الذكاء الاصطناعي نهجًا متوازنًا يعطي الأولوية للسلامة والأمن.
المصدر: khaleejtimes
قد يهمك: