Skip to main content

العنصرية

العنصرية والذكاء الاصطناعي: "إنّ التحيز في الماضي يؤدي إلى تحيز في المستقبل"

30 تموز/يوليو 2024

رجل أسود ينظر إلى الكاميرا عن قرب رافعًا يديه
©InnovatedCaptures / Getty Images

أعلنت مقررة الأمم المتحدة الخاصة المعنية بالأشكال المعاصرة للعنصرية والتمييز العنصري وكره الأجانب وما يتصل بذلك من تعصب أشويني ك. ب.* قائلة: "لا تزال التطورات الأخيرة في مجال الذكاء الاصطناعي التوليدي وأوجه التطبيق المتزايد للذكاء الاصطناعي تثير شواغل جدية في مجال حقوق الإنسان، بما في ذلك مخاوف من التمييز العنصري."

وهناك افتراض سائد وضار متمثل في أن التكنولوجيا تتسم بالموضوعية والحياد، بحسب ما أكّدته أشويني ك. ب. خلال حوارها التفاعلي لإطلاق تقريرها الجديد في سياق الدورة الـ56 لمجلس حقوق الإنسان المنعقد في جنيف بسويسرا.

وتدرس المقرّرة الخاصة في تقريرها كيف يسمح هذا الافتراض للذكاء الاصطناعي بإدامة التمييز العنصري.

وقد أوضحت قائلة: "إنّ الذكاء الاصطناعي التوليدي آخذ في تغيير العالم ولديه القدرة على إحداث تحولات مجتمعية جذرية بشكل متزايد في المستقبل. وأعرب عن قلقي البالغ من تسارع وتيرة انتشار تطبيق الذكاء الاصطناعي في مختلف المجالات. ولا يعني هذا أنه ليس للذكاء الاصطناعي فوائد محتملة. والواقع أنه يمكن أن يتيح فرصاً للابتكار والإدماج."

ومن الأمثلة البارزة على كيفية إعادة إنتاج التحيّزات العرقية من خلال التقدّم التكنولوجي الشرطة التنبؤية. وتجري أدوات الشرطة التنبؤية تقييمات تسمح بالتنبؤ بالأشخاص الذين يحتمل أن يرتكبوا جرائم في المستقبل ومكان وقوع تلك الجرائم في المستقبل، استناداً إلى بيانات مواقعهم الجغرافية وبياناتهم الشخصية.

وأوضحت أشويني ك. ب. قائلة: "يمكن أن تؤدي الشرطة التنبؤية إلى تفاقم إفراط الشرطة المعروف منذ أمد طويل في استهداف أحياء سكنية معينة استناداً إلى اعتبارات عرقية وإثنية لأغراض ضبط الأمن. وبما أن موظفي إنفاذ القانون كثيراً ما يركزون اهتمامهم على هذه الأحياء، فإن أفراد المجتمعات التي تقطن تلك الأحياء ممثلون تمثيلاً مفرطاً في سجلات الشرطة. ويؤثر هذا بدوره على الموقع الذي تتنبأ الخوارزميات بحدوث جريمة فيه مستقبلاً، مما يؤدي إلى زيادة نشر الشرطة في تلك المناطق."

ووفقًا للنتائج التي توصلت إليها المقررة الخاصة، تعتمد خوارزميات الشرطة التنبؤية القائمة على الموقع الجغرافي على العوامل التي تربط الأماكن والأحداث بالبيانات المتعلقة بالجرائم المرتكبة في الماضي في التنبؤ بمكان الجرائم المحتملة في المستقبل وزمانها، ثمّ تخطط قوات الشرطة لدورياتها وفقاً لذلك.

عندما يسجل الضباط في الأحياء التي تراقبها الشرطة مراقبة مفرطة جرائم جديدة، تنشأ حلقة تغذية راجعة تولِّد من خلالها الخوارزمية تنبؤات متحيزة تحيزاً متزايداً تجاه سكان هذه الأحياء. ويعني هذا، باختصار، أن التحيز في الماضي يؤدي إلى تحيز في المستقبل.

أشويني ك. ب.، المقررة الخاصة المعنية بالأشكال المعاصرة للعنصرية والتمييز العنصري وكُره الأجانب وما يتصل بذلك من تعصّب

وعلى غرار الأدوات القائمة على الموقع الجغرافي، يمكن أن تشوه البيانات المتاحة عن حالات الاعتقال السابقة، التي غالباً ما تكون مشوبة بالعنصرية النظمية في نظام العدالة الجنائية، التنبؤات المستقبلية التي تنتجها تلك الخوارزميات، على حدّ تعبير المقررة الخاصة.

وقد شرحت قائلة: "يمكن أن يؤدي استخدام متغيرات من قبيل الخلفية الاجتماعية والاقتصادية ومستوى التعليم والموقع الجغرافي بدلاً من العرق إلى إدامة التحيزات التاريخية."

ومن جهة أخرى، يحللّ التقرير الجهود الرامية إلى إدارة وتنظيم الذكاء الاصطناعي على المستويات الوطنية والإقليمية والدولية.

وقد شدّدت أشويني ك. ب. قائلة: "ينبغي أن تقوم تكنولوجيا الذكاء الاصطناعي على معايير القانون الدولي لحقوق الإنسان. ويرد أشمل حظر للتمييز العنصري في الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري."

ويشكّل الذكاء الاصطناعي أيضًا خطرًا يهدّد حقوقًا أخرى، بما في ذلك الذكاء الاصطناعي في مجال الرعاية الصحية حيث تبين أن بعض أدوات تقدير المخاطر الصحية تنطوي على عوامل تصحيحية قائمة على العرق. كما وجدت أشويني ك. ب. أنّ تطبيق الذكاء الاصطناعي على الأدوات التعليمية قد ينطوي على تحيز عرقي. فعلى سبيل المثال، غالباً ما تصنف الأقليات العرقية على أن احتمالات نجاح أفرادها في مسيرتهم التعليمية والمهنية أقل، بسبب تصميم الخوارزميات ومعايير اختيار البيانات المستخدمة لتدريبها، مما يديم الإقصاء والتمييز.

وقد جاء في بيان الرؤية الذي أطلقه مفوض الأمم المتحدة السامي لحقوق الإنسان فولكر تورك بعنوان "حقوق الإنسان: مسار إلى الحلول"، أنّ الذكاء الاصطناعي التوليدي يوفر فرصًا لم تكن متخيلة من قبل للمضي قدمًا في التمتع بحقوق الإنسان، ومع ذلك، فإن آثاره المجتمعية السلبية آخذة في التفّشي على نطاق واسع.

وتابع المفوّض السامي قائلًا: "في المجالات التي يكون فيها الخطر على حقوق الإنسان مرتفعًا بشكل خاص، مثل إنفاذ القانون، فإن الخيار الوحيد هو التوقف مؤقتًا حتى يتم تقديم ضمانات كافية."

وتعتبر أشويني ك. ب. أنه على الرغم من أن الذكاء الاصطناعي ينطوي على إمكانات حقيقية للتأثير، إلا أنه لا يشكّل الحلّ لجميع القضايا المجتمعية ويجب إدارته بفعالية بغية تحقيق التوازن بين فوائده ومخاطره.

كما ترى أنّ تنظيم الذكاء الاصطناعي من شأنه أن يضمن هذا التوازن. وتوصي الدول بالتصدي للتحدي المتمثل في تنظيم الذكاء الاصطناعي انطلاقاً من شعورها المتزايد بالطابع الملح لذلك في ضوء سرعة تطور هذه التكنولوجيات وتعدد الأساليب التي تديم بها بالفعل التمييز العنصري؛ ووضع أطر تنظيمية للذكاء الاصطناعي تستند إلى فهم شامل للعنصرية النظمية وتستند إلى القانون الدولي لحقوق الإنسان؛ والنص، في إطار الأطر التنظيمية، على التزام ملزم قانوناً بإجراء تقييمات شاملة لبذل العناية الواجبة بحقوق الإنسان، بما في ذلك معايير صريحة لتقييم التحيز العنصري والإثني، في تطوير ونشر جميع تكنولوجيات الذكاء الاصطناعي. النظر في حظر استخدام نظم الذكاء الاصطناعي التي ثبت أنها تنطوي على مخاطر غير مقبولة على حقوق الإنسان، بما في ذلك النظم التي تنتهك حظر التمييز العنصري.

وختم تورك قائلًا: "إنّ ترسيخ حقوق الإنسان في صميم تطوير التكنولوجيا واستخدامها وتنظيمها حاسم بالنسبة إلى كيفية استجابتنا لمخاطرها."

عيّن مجلس حقوق الإنسان أشويني ك. ب. مقرّرة خاصة في تشرين الأوّل/ أكتوبر 2022. وهي أكاديمية وناشطة وباحثة تركز على الإقصاء الاجتماعي والعرق والتمييز القائم على النسب والتقاطعية. وهي زميلة زائرة في جامعة ستانفورد. وقد عملت كأستاذة مساعدة في الهند، وهي من مؤسسي منظّمة "زاريا: التحالف النسائي من أجل الكرامة والمساواة"، التي تعمل على بناء التضامن والربط بين النساء من مختلف الفئات المهمشة في الهند. ومثّلت السيدة أشويني ك. ب. النساء الهنديات من الداليت في مختلف مجموعات المجتمع المدني من أجل مساعدتهن على إعداد استراتيجيات بشأن تمكين النساء من المجتمعات المهمشة ومنحهنّ أدوارًا في هياكل صنع القرار الخاصة بالنشاط النضالي والحركات الاجتماعية السائدة.

الصفحة متوفرة باللغة: