قد تبدو فكرة أن الذكاء الاصطناعي يمكن أن يساعد في تقليل العنصرية غير بديهية. بعد كل شيء، لقد رأينا العديد من العناوين حول أنظمة الذكاء الاصطناعي التي تعزز أو حتى تضخم التحيزات العرقية.
مع ذلك، مع دخولنا عام 2025، وسط رد فعل ضد مبادرات العدالة الاجتماعية والانتشار السريع لتقنيات الذكاء الاصطناعي، تظهر فرصة غير متوقعة.
إليك التناقض: بينما يرغب عدد قليل من الناس في أن يتم تصنيفهم كعنصريين، تكشف الدراسات واحدة تلو الأخرى عن الفجوات العرقية المستمرة في كل شيء من نتائج الرعاية الصحية إلى الفرص الاقتصادية.
ما هو التحول المثير للاهتمام؟ يبدو أن المجتمع أكثر استعدادًا لفحص ومعالجة التحيز في أنظمة الذكاء الاصطناعي بشكل نقدي بدلاً من مواجهة التحيز البشري مباشرة.
اعتبر الرعاية الصحية: يعترف العديد من الأطباء بأن التحيزات النظامية تؤثر بشكل غير متناسب على الأقليات العرقية، لكن القليل منهم سيعترف بأن قراراتهم الخاصة قد تكون متحيزة.
مع ذلك، تكشف التدقيقات النظامية بانتظام عن تفاوتات كبيرة قائمة على العرق في قرارات العلاج. وهذا يشير إلى ميزة حاسمة لأنظمة الذكاء الاصطناعي – فهي بطبيعتها أكثر قابلية للتدقيق من اتخاذ القرارات البشرية.
تخلق هذه القابلية للتدقيق ثلاث فرص رئيسية. أولاً، توفر أنظمة الذكاء الاصطناعي مرآة لتحيزات المجتمع. عندما يتخذ الذكاء الاصطناعي قرارات متحيزة، فإنه غالبًا ما يعزز الأنماط الموجودة في البيانات التاريخية – الأنماط التي أنشأتها اختيارات البشر.
هذا يجعل التحيزات غير المرئية مرئية وقابلة للقياس، مما يجبرنا على مواجهة الحقائق غير المريحة حول مؤسساتنا.
ثانياً، على عكس صانعي القرار البشريين الذين قد يصبحون دفاعيين عند اتهامهم بالتحيز، يمكن اختبار أنظمة الذكاء الاصطناعي وتقييمها وتحسينها بشكل منهجي. يمكننا تطوير أدوات تقنية، مثل استنباط المقاييس، تساعد أصحاب المصلحة على تحديد وقياس العدالة بطرق محددة في السياق.
هذا يسمح لنا بالانتقال من نهج “عدم التحيز” السطحي نحو حلول أكثر دقة تعترف باللامساواة التاريخية.
ثالثًا، يمكن أن تساعد أنظمة الذكاء الاصطناعي في تقليل دور التحيز الضمني في اتخاذ القرارات. بينما قد يعامل البشر الأشخاص بشكل غير واعٍ بشكل مختلف بناءً على العرق، يمكن برمجة أنظمة الذكاء الاصطناعي المصممة بشكل صحيح بشكل صريح للتركيز فقط على العوامل ذات الصلة.
لا يتعلق الأمر بجعل الذكاء الاصطناعي “أعمى عن الألوان” – بل يتعلق بأن نكون متعمدين بشأن متى وكيف يجب أن تؤثر الاختلافات العرقية على القرارات.
ومع ذلك، يتطلب إدراك هذه الإمكانية اهتمامًا دقيقًا بكل من الاعتبارات التقنية والاجتماعية. من الجانب التقني، نحتاج إلى أساليب متطورة تتجاوز المفاهيم البسيطة للعدالة. على سبيل المثال، في القرارات ذات المخاطر المنخفضة مثل توصيات الأفلام، قد تكون فجوات التمثيل هي القلق الأساسي.
لكن في المجالات ذات المخاطر العالية مثل الرعاية الصحية أو العدالة الجنائية، حيث تمتلك التحيزات النظامية جذورًا تاريخية عميقة، نحتاج إلى أساليب أكثر دقة تعمل بنشاط على تصحيح الفجوات التاريخية.
على الجانب الاجتماعي، نحتاج إلى أصوات متنوعة تشارك في تطوير ونشر هذه الأنظمة. تعمل منظمات مثل Black in AI بالفعل مع مؤسسات مثل المعهد الوطني للمعايير والتكنولوجيا لتطوير معايير للأنظمة الذكية الآمنة والعادلة.
تعترف هذه الجهود بأن الحلول التقنية وحدها ليست كافية – نحتاج إلى عمليات شاملة تشرك المجتمعات المتأثرة في تحديد كيفية عمل أنظمة الذكاء الاصطناعي.
الطريق إلى الأمام لا يتعلق باستبدال الحكم البشري بالذكاء الاصطناعي، بل باستخدام الذكاء الاصطناعي كأداة لإنشاء أنظمة أكثر عدلاً.
من خلال جعل التحيزات أكثر وضوحًا وقابلية للقياس، وتوفير أطر للاختبار والتحسين، وتمكين أساليب أكثر تعمدًا للعدالة، يمكن أن يساعدنا الذكاء الاصطناعي في بناء مجتمع أكثر عدلاً عرقيًا والذي أثبت أنه من الصعب تحقيقه من خلال الجهود البشرية وحدها.
توجد هذه الإمكانية بالضبط لأن الذكاء الاصطناعي يجبرنا على أن نكون صريحين بشأن قيمنا وقراراتنا بطرق غالبًا ما تتجنبها الأنظمة البشرية. بينما نواصل دمج الذكاء الاصطناعي في القرارات الاجتماعية الحاسمة، لدينا فرصة لبناء أنظمة لا تكرر فقط عدم المساواة الحالية لدينا، بل تعمل بنشاط على معالجتها.
السؤال ليس ما إذا كان الذكاء الاصطناعي سيؤثر على العدالة العرقية – بل ما إذا كنا سنغتنم هذه اللحظة لضمان حدوث ذلك بطرق تعزز العدالة بدلاً من perpetuate harm.
المصدر: theguardian