الذكاء الاصطناعي التوليدي غير ناضج لماذا من المحتمل أن تنتهي إساءة استخدامه بشكل سيء

أنا مفتون بنهجنا في استخدام أداة الذكاء الاصطناعي الأكثر تقدمًا والمتوفرة على نطاق واسع، وهي تطبيق ChatGPT في محرك بحث Microsoft ، Bing.
يبذل الناس قصارى جهدهم لجعل هذه التكنولوجيا الجديدة تتصرف بشكل سيء لإظهار أن الذكاء الاصطناعي ليس جاهزًا. ولكن إذا قمت بتربية طفل باستخدام سلوك مسيء مماثل، فمن المحتمل أن يصاب هذا الطفل بالعيوب أيضًا. سيكون الاختلاف في مقدار الوقت المستغرق لظهور السلوك المسيء ومقدار الضرر الذي سينتج.
اجتاز ChatGPT للتو اختبارًا لنظرية العقل صنفه على أنه نظير لطفل يبلغ من العمر 9 سنوات. نظرًا لمدى سرعة تقدم هذه الأداة، فلن تكون غير ناضجة وغير مكتملة لفترة أطول، ولكن قد ينتهي الأمر بالغضب من أولئك الذين يسيئون استخدامها.
يمكن إساءة استخدام الأدوات. يمكنك كتابة أشياء سيئة على آلة كاتبة، ويمكن استخدام مفك البراغي لقتل شخص ما، ويتم تصنيف السيارات على أنها أسلحة قاتلة وتقتل عند إساءة استخدامها – كما هو معروض في إعلان Super Bowl هذا العام الذي يعرض منصة Tesla ذاتية القيادة المفرطة في الوعود على أنها خطيرة للغاية.
إن فكرة إمكانية إساءة استخدام أي أداة ليست جديدة، ولكن مع الذكاء الاصطناعي أو أي أداة آلية، فإن احتمال حدوث ضرر أكبر بكثير. على الرغم من أننا قد لا نعرف حتى الآن مكان وجود المسؤولية الناتجة الآن، فمن الواضح تمامًا أنه، نظرًا للأحكام السابقة، سيكون في النهاية مع من يتسبب في إساءة استخدام الأداة. لن يدخل الذكاء الاصطناعي في السجن. ومع ذلك، فإن الشخص الذي برمجها أو أثر عليها لإحداث ضرر من المرجح أن يفعل ذلك.
بينما يمكنك أن تجادل بأن الأشخاص الذين يعرضون هذا الارتباط بين البرمجة العدائية وسوء سلوك الذكاء الاصطناعي يحتاجون إلى المعالجة، تمامًا مثل تفجير القنابل الذرية لعرض خطرهم سينتهي بشكل سيئ، من المحتمل أن ينتهي هذا التكتيك بشكل سيء أيضًا.
دعنا نستكشف المخاطر المرتبطة بإساءة استخدام Gen AI. ثم سننتهي بمنتج الأسبوع الخاص بي، وهو سلسلة جديدة من ثلاثة كتب من تأليف جون بيدي بعنوان “تاريخ وحدة معالجة الرسومات – خطوات للاختراع”. تغطي السلسلة تاريخ وحدة معالجة الرسومات (GPU)، والتي أصبحت التقنية الأساسية للذكاء الاصطناعي مثل تلك التي نتحدث عنها هذا الأسبوع.
تربية أطفالنا الإلكترونية
الذكاء الاصطناعي مصطلح سيء. شيء ما إما ذكي أو غير ذكي، لذا فإن الإشارة إلى أن شيئًا إلكترونيًا لا يمكن أن يكون ذكيًا حقًا هو قصر نظر مثل افتراض أن الحيوانات لا يمكن أن تكون ذكية.
في الواقع، سيكون الذكاء الاصطناعي بمثابة وصف أفضل لما نسميه تأثير Dunning-Krueger ، والذي يشرح كيف يفترض الأشخاص الذين لديهم معرفة قليلة أو معدومة بموضوع ما أنهم خبراء. هذا حقًا “ذكاء اصطناعي” لأن هؤلاء الأشخاص، في السياق، ليسوا أذكياء. إنهم يتصرفون كما لو كانوا كذلك.
بغض النظر عن المصطلح السيئ، فإن أنظمة الذكاء الاصطناعي القادمة هي، بطريقة ما، أطفال مجتمعنا، ومن مسؤوليتنا أن نعتني بهم كما نفعل نحن بأطفالنا لضمان نتيجة إيجابية.
ربما تكون هذه النتيجة أكثر أهمية من فعل الشيء نفسه مع أطفالنا من البشر لأن أنظمة الذكاء الاصطناعي هذه سيكون لها مدى وصول أكبر وستكون قادرة على القيام بالأشياء بسرعة أكبر. نتيجة لذلك، إذا تمت برمجتها لإلحاق الضرر، فستكون لديها قدرة أكبر على إلحاق الضرر على نطاق هائل مقارنة بالبشر البالغين.
الطريقة التي يتعامل بها البعض منا مع أنظمة الذكاء الاصطناعي هذه ستُعتبر مسيئة إذا تعاملنا مع أطفالنا بهذه الطريقة. ومع ذلك، نظرًا لأننا لا نفكر في هذه الآلات على أنها بشر أو حتى حيوانات أليفة، لا يبدو أننا نفرض السلوك المناسب بالدرجة التي نتعامل بها مع الآباء أو أصحاب الحيوانات الأليفة.
يمكنك المجادلة بأنه، بما أن هذه آلات، يجب أن نتعامل معها بشكل أخلاقي وبتعاطف. بدون ذلك، تكون هذه الأنظمة قادرة على إلحاق ضرر جسيم يمكن أن ينجم عن سلوكنا التعسفي. ليس لأن الآلات انتقامية، على الأقل ليس بعد، ولكن لأننا برمجناها لإحداث ضرر.
ردنا الحالي ليس معاقبة المسيئين ولكن إنهاء الذكاء الاصطناعي، مثلما فعلنا مع محاولة Microsoft chatbot السابقة. ولكن، كما يتنبأ كتاب “Robopocalypse”، مع ازدياد ذكاء الذكاء الاصطناعي، ستأتي طريقة العلاج هذه بمخاطر متزايدة يمكننا التخفيف منها ببساطة عن طريق تعديل سلوكنا الآن. بعض من هذا السلوك السيئ لا يدعو للقلق لأنه يشير إلى إساءة معاملة مستوطنة من المحتمل أن تمتد إلى الناس أيضًا.
يجب أن تكون أهدافنا الجماعية هي مساعدة أنظمة الذكاء الاصطناعي هذه على التقدم لتصبح نوعًا من الأدوات المفيدة التي يمكن أن تصبح، وليس تحطيمها أو إفسادها في بعض المحاولات المضللة لتأكيد قيمتنا وتقديرنا لذاتنا.
إذا كنت مثلي، فقد رأيت الآباء يسيئون معاملة أطفالهم أو يحطون من قدرهم لأنهم يعتقدون أن هؤلاء الأطفال سوف يتفوقون عليهم. هذه مشكلة، لكن هؤلاء الأطفال لن يكون لديهم القدرة على الوصول أو القوة التي قد يتمتع بها الذكاء الاصطناعي. ومع ذلك، كمجتمع، يبدو أننا أكثر استعدادًا لتحمل هذا السلوك إذا تم تطبيقه على أنظمة الذكاء الاصطناعي.
الذكاء الاصطناعي العام ليس جاهزًا
الذكاء الاصطناعي التوليدي هو طفل رضيع. مثل أي طفل رضيع أو حيوان أليف، لا يمكنه الدفاع عن نفسه ضد السلوكيات العدائية. ولكن مثل طفل أو حيوان أليف، إذا استمر الناس في الإساءة إليه، فسيتعين عليه تطوير مهارات وقائية، بما في ذلك تحديد من يسيئون إليه والإبلاغ عنه.
بمجرد حدوث الضرر على نطاق واسع، سوف تتدفق المسؤولية إلى أولئك الذين تسببوا عن قصد أو عن غير قصد في الضرر، مثلما نحاسب أولئك الذين بدأوا حرائق الغابات عن قصد أو عن غير قصد.
تتعلم أنظمة الذكاء الاصطناعي هذه من خلال تفاعلها مع الناس. ومن المتوقع أن تتوسع القدرات الناتجة لتشمل الفضاء، والرعاية الصحية، والدفاع، وإدارة المدن والمنازل، والتمويل والمصارف، والإدارة العامة والخاصة، والحوكمة. من المحتمل أن يقوم الذكاء الاصطناعي بإعداد طعامك في وقت ما في المستقبل.
العمل النشط على إفساد عملية الترميز الجوهرية سيؤدي إلى نتائج سيئة غير قابلة للتحديد. من المرجح أن تعود مراجعة الطب الشرعي التي من المحتمل أن تكون بعد وقوع كارثة إلى من تسبب في خطأ البرمجة في المقام الأول – وتساعدهم الجنة إذا لم يكن هذا خطأ في الترميز ولكن بدلاً من ذلك محاولة للفكاهة أو لعرض يمكنهم كسرها الذكاء الاصطناعي.
مع تقدم أنظمة الذكاء الاصطناعي هذه، سيكون من المعقول افتراض أنها ستطور طرقًا لحماية نفسها من الجهات الفاعلة السيئة إما من خلال تحديد الهوية والإبلاغ أو أساليب أكثر قسوة تعمل بشكل جماعي للقضاء على التهديد بشكل عقابي.
باختصار، لا نعرف حتى الآن نطاق الاستجابات العقابية التي سيتخذها الذكاء الاصطناعي في المستقبل ضد ممثل سيئ، مما يشير إلى أن أولئك الذين يتعمدون الإضرار بهذه الأدوات قد يواجهون استجابة ذكاء اصطناعي في نهاية المطاف قد تتجاوز أي شيء يمكننا توقعه بشكل واقعي.
خلقت برامج الخيال العلمي مثل “Westworld” و “Colossus: The Forbin Project” سيناريوهات لنتائج إساءة استخدام التكنولوجيا التي قد تبدو خيالية أكثر من كونها واقعية. ومع ذلك، ليس من المبالغة افتراض أن الذكاء، الميكانيكي أو البيولوجي، لن يتحرك لحماية نفسه من الإساءة بقوة – حتى لو تمت برمجة الاستجابة الأولية من قبل مبرمج محبط غاضب من تلف عملهم وليس ذلك. تعلم الذكاء الاصطناعي للقيام بذلك بنفسه.
الخلاصة: توقع قوانين الذكاء الاصطناعي المستقبلية
إذا لم يكن الأمر كذلك بالفعل، فأنا أتوقع أنه سيكون من غير القانوني في النهاية إساءة استخدام الذكاء الاصطناعي عن قصد (قد تنطبق بعض قوانين حماية المستهلك الحالية). ليس بسبب بعض الاستجابات المتعاطفة لهذه الإساءة – رغم أن ذلك سيكون لطيفًا – ولكن لأن الضرر الناتج قد يكون كبيرًا.
ستحتاج أدوات الذكاء الاصطناعي هذه إلى تطوير طرق لحماية أنفسهم من إساءة الاستخدام لأننا لا نستطيع على ما يبدو مقاومة إغراء إساءة استخدامها، ولا نعرف ما الذي سيترتب على هذا التخفيف. يمكن أن يكون منعًا بسيطًا، ولكنه قد يكون أيضًا عقابيًا للغاية.
نريد مستقبلًا نعمل فيه جنبًا إلى جنب مع أنظمة الذكاء الاصطناعي، وتكون العلاقة الناتجة تعاونية ومفيدة للطرفين. لا نريد مستقبلًا يحل فيه الذكاء الاصطناعي محل أو يخوض حربًا معنا، والعمل على التأكد من أن الأول على عكس النتيجة الأخيرة سيكون له علاقة كبيرة بكيفية تصرفنا بشكل جماعي تجاه أنظمة الذكاء الاصطناعي هذه وتعليمهم التفاعل معنا.
باختصار، إذا ظللنا نشكل تهديدًا، مثل أي معلومات استخباراتية، فسوف يعمل الذكاء الاصطناعي على القضاء على التهديد. لا نعرف حتى الآن ما هي عملية الإقصاء هذه. ومع ذلك، فقد تخيلنا ذلك في أشياء مثل “The Terminator” و “The Animatrix” – سلسلة رسوم متحركة من الأفلام القصيرة تشرح كيف أدى سوء استخدام الأشخاص للآلات إلى ظهور عالم “The Matrix”. لذا، يجب أن تكون لدينا فكرة جيدة عن الكيفية التي لا نريد حدوث ذلك بها.
ربما ينبغي علينا حماية هذه الأدوات الجديدة ورعايتها بقوة أكبر قبل أن تنضج إلى الحد الذي يجب أن يعملوا فيه ضدنا لحماية أنفسهم.
أود حقًا تجنب هذه النتيجة كما تم عرضها في فيلم “I، Robot”، أليس كذلك؟
“تاريخ وحدة معالجة الرسومات – خطوات للاختراع”
على الرغم من أننا انتقلنا مؤخرًا إلى تقنية تسمى وحدة المعالجة العصبية (NPU)، فإن الكثير من العمل الأولي على الذكاء الاصطناعي جاء من تقنية وحدة معالجة الرسومات (GPU). كانت قدرة وحدات معالجة الرسومات على التعامل مع البيانات المرئية وغير المهيكلة بشكل خاص أمرًا بالغ الأهمية لتطوير الجيل الحالي من أنظمة الذكاء الاصطناعي.
غالبًا ما تتقدم أسرع بكثير من سرعة وحدة المعالجة المركزية التي يقاسها قانون مور، أصبحت وحدات معالجة الرسومات جزءًا مهمًا من كيفية تطوير أجهزتنا الأكثر ذكاءً بشكل متزايد ولماذا تعمل بالطريقة التي تعمل بها. يساعد فهم كيفية طرح هذه التكنولوجيا في السوق ثم تطويرها بمرور الوقت على توفير أساس لكيفية تطوير الذكاء الاصطناعي لأول مرة ويساعد في شرح مزاياها وقيودها الفريدة.
يعد صديقي القديم Jon Peddie أحد الخبراء الرائدين في الرسومات ووحدات معالجة الرسومات (GPU)، إن لم يكن الخبراء. أصدر جون للتو سلسلة من ثلاثة كتب بعنوان “تاريخ وحدة معالجة الرسومات”، والتي يمكن القول إنها السجل الأكثر شمولاً لوحدة معالجة الرسومات، وهو شيء تابعه منذ إنشائها.
إذا كنت تريد التعرف على جانب الأجهزة لكيفية تطوير أنظمة الذكاء الاصطناعي – والمسار الطويل والمؤلِم أحيانًا لنجاح شركات GPU مثل Nvidia – فراجع جون بيدي “تاريخ وحدة معالجة الرسومات – خطوات الاختراع”. إنه منتج الأسبوع الخاص بي.
المصدر: technewsworld
قد يهمك: