حذرت رئيسة Signal ميريديث ويتاكر يوم الجمعة من أن الذكاء الاصطناعي الوكيل يمكن أن ينطوي على خطر على خصوصية المستخدم.
في حديثه على خشبة المسرح في مؤتمر SXSW في أوستن ، تكساس ، أشار المدافع عن الاتصالات الآمنة إلى استخدام عوامل الذكاء الاصطناعي على أنه “وضع عقلك في جرة” ، وحذر من أن هذا النموذج الجديد للحوسبة – حيث يؤدي الذكاء الاصطناعي المهام نيابة عن المستخدمين – لديه “مشكلة عميقة” في كل من الخصوصية والأمان.
أوضح ويتاكر كيف يتم تسويق وكلاء الذكاء الاصطناعي كوسيلة لإضافة قيمة إلى حياتك من خلال التعامل مع المهام المختلفة عبر الإنترنت للمستخدم.
على سبيل المثال ، سيتمكن وكلاء الذكاء الاصطناعي من تولي مهام مثل البحث عن الحفلات الموسيقية وحجز التذاكر وجدولة الحدث في التقويم الخاص بك ومراسلة أصدقائك بأنهم محجوزون.
“لذلك يمكننا فقط وضع دماغنا في جرة لأن الشيء يفعل ذلك ولا يتعين علينا لمسه ، أليس كذلك؟” ، تأمل ويتاكر.
ثم أوضحت نوع الوصول الذي سيحتاجه وكيل الذكاء الاصطناعي لأداء هذه المهام ، بما في ذلك الوصول إلى متصفح الويب الخاص بنا وطريقة قيادته بالإضافة إلى الوصول إلى معلومات بطاقة الائتمان الخاصة بنا لدفع ثمن التذاكر والتقويم الخاص بنا وتطبيق المراسلة لإرسال النص إلى أصدقائك.
وحذر ويتاكر من أنه “يجب أن تكون قادرة على دفع هذه [العملية] عبر نظامنا بأكمله بشيء يشبه إذن الجذر ، والوصول إلى كل واحدة من قواعد البيانات هذه – ربما بشكل واضح ، لأنه لا يوجد نموذج للقيام بذلك مشفرا”.
“وإذا كنا نتحدث عن قوة كافية … نموذج الذكاء الاصطناعي الذي يعمل على تشغيل ذلك ، لا توجد طريقة يحدث ذلك على الجهاز “. “يكاد يكون من المؤكد أن يتم إرسال ذلك إلى خادم سحابي حيث تتم معالجته وإعادته.
لذلك هناك مشكلة عميقة تتعلق بالأمان والخصوصية تطارد هذا الضجيج حول الوكلاء ، والتي تهدد في النهاية بكسر الحاجز الدموي الدماغي بين طبقة التطبيق وطبقة نظام التشغيل من خلال ربط كل هذه الخدمات المنفصلة [و] تشويش بياناتهم”.
وقالت إنه إذا كان تطبيق مراسلة مثل Signal سيتكامل مع وكلاء الذكاء الاصطناعي ، فسيؤدي ذلك إلى تقويض خصوصية رسائلك. يتعين على الوكيل الوصول إلى التطبيق لإرسال رسائل نصية إلى أصدقائك وكذلك سحب البيانات مرة أخرى لتلخيص تلك النصوص.
جاءت تعليقاتها في أعقاب تصريحات أدلت بها في وقت سابق خلال الجلسة حول كيفية بناء صناعة الذكاء الاصطناعي على نموذج مراقبة مع جمع البيانات الجماعية. وقالت إن “نموذج الذكاء الاصطناعي الأكبر هو الأفضل” – مما يعني أنه كلما زادت البيانات ، كان ذلك أفضل – له عواقب محتملة لم تعتقد أنها جيدة.
وخلصت إلى أنه مع الذكاء الاصطناعي الوكيل ، حذرت ويتاكر من أننا سنقوض الخصوصية والأمان بشكل أكبر باسم “روبوت الجني السحري الذي سيهتم بمقتطرات الحياة”.
المصدر: techcrunch