Skip to main content

بيانات صحفية المفوضية السامية لحقوق الإنسان

باشيليت: مخاطر الذكاء الاصطناعي التي تهدّد الخصوصية تتطلّب اعتماد إجراءات عاجلة

15 أيلول/سبتمبر 2021

جنيف (في 15 أيلول/ سبتمبر 2021) - شدّدت مفوضة الأمم المتحدة السامية لحقوق الإنسان ميشيل باشيليت يوم الأربعاء على الضرورة الملحة لوقف بيع واستخدام أنظمة الذكاء الاصطناعي التي تشكل خطرًا جسيمًا يهدّد حقوق الإنسان، إلى أن يتم اعتماد الضمانات الملائمة. كما دعت إلى حظر تطبيقات الذكاء الاصطناعي التي لا يمكن استخدامها بما يتماشى والقانون الدولي لحقوق الإنسان.

وأعلنت قائلة: "قد يشكّل الذكاء الاصطناعي قوة لنشر الخير، فيساعد المجتمعات على التغلب على بعض التحديات البارزة في عصرنا. ولكن، قد تحمل تكنولوجيات الذكاء الاصطناعي آثارًا سلبية، لا بل كارثية، إذا ما تم استخدامها من دون إيلاء اعتبار كافٍ لكيفية تأثيرها على حقوق الإنسان."

وقد نشرت مفوضيّة الأمم المتّحدة السامية لحقوق الإنسان اليوم، ضمن إطار عملها* في مجال التكنولوجيا وحقوق الإنسان، تقريرًا يحلل كيفية تأثير الذكاء الاصطناعي، بما في ذلك التصنيف وأتمتة عمليّة اتخاذ القرارات وغيرها من تكنولوجيات التعلم الآلي الأخرى، على حق الأشخاص في الخصوصية والحقوق الأخرى، بما في ذلك الحقوق في الصحة والتعليم وحرية التنقل وحرية التجمع السلمي وتكوين الجمعيات وحرية التعبير.

وتابعت المفوّضة السامية قائلة: "يطال الذكاء الاصطناعي حاليًا كلّ ركن من أركان حياتنا الجسدية والعقلية، وحياتنا العاطفية حتّى. وتُستَخدَم أنظمة الذكاء الاصطناعي لتحديد من يحصل على الخدمات العامة، ومن يتمتّع بفرصة الحصول على وظيفة، كما تؤثّر بالطبع على نوع المعلومات التي يراها الناس ويمكنهم مشاركتها عبر الإنترنت."

وينظر التقرير في الوتيرة السريع التي غالبًا ما اعتمدتها الدول والشركات على حد سواء، من أجل دمج تطبيقات الذكاء الاصطناعي، ففشلت في بذل العناية الواجبة. وقد برز العديد من الحالات حيث عومل الأشخاص معاملةً غير عادلة بسبب الذكاء الاصطناعي، مثل حرمانهم من تعويضات الضمان الاجتماعي بسبب أدوات الذكاء الاصطناعي المعيبة أو القبض عليهم بسبب خلل في أنظمة التعرف على الوجه.

ويوضح التقرير بالتفصيل كيف تعتمد أنظمة الذكاء الاصطناعي على مجموعات كبيرة من البيانات، تتضمّن معلومات حول الأفراد يتم جمعها ومشاركتها ودمجها وتحليلها بطرق متنوّعة ومبهمة في أغلب الأحيان. وقد تكون البيانات المستخدمة لإثراء أنظمة الذكاء الاصطناعي وتوجيها معيبة أو تمييزية أو قديمة أو لا تمتّ بصلة بالموضوع المطروح. ويولّد تخزين البيانات الطويل الأمد مخاطر معينة، حيث يمكن استغلال البيانات في المستقبل بطرق غير معروفة بعد في يومنا هذا.

وشرحت باشيليت قائلة: "يبقى سد الفجوة الهائلة البارزة على مستوى المساءلة عن كيفية جمع البيانات وتخزينها ومشاركتها واستخدامها، من أكثر القضايا البشرية إلحاحًا، نظرًا إلى النمو السريع والمستمر للذكاء الاصطناعي."

وتثير الاستنتاجاتُ والتوقّعات وعمليات الرصد التي تقوم بها أدوات الذكاء الاصطناعي، بما في ذلك البحث عن إيضاحات حول أنماط السلوك البشري، أسئلةً جديةً. وقد تؤدي مجموعات البيانات المتحيزة التي تعتمد عليها أنظمة الذكاء الاصطناعي إلى اتّخاذ قرارات تمييزية، وتبقى الفئات المهمّشة أصلاً أكثر عرضة لهذا النوع من المخاطر.

وأضافت باشيليت قائلة: "إنّ خطر التمييز المرتبط بالقرارات التي يديرها الذكاء الاصطناعي، وهي قرارات قد تغير أو تحدد أو تلحق الضرر بحياة البشر، هو خطر حقيقي بكل ما للكلمة من معنى." لذا من الضروري للغاية أن نجري تقييمًا منهجيًا لتأثير أنظمة الذكاء الاصطناعي وأن نرصدها، من أجل تحديد المخاطر التي تهدّد حقوق الإنسان ومن أجل التخفيف من حدتها."

من الضروري أيضًا أن تعبّر الشركات والدول عن مزيد من الشفافية حول كيفيّة تطويرها الذكاء الاصطناعي واستخدامه.

وقد أشار التقرير إلى أنّ "بيئة البيانات والخوارزميات والنماذج الكامنة وراء تطوير أنظمة الذكاء الاصطناعي وتشغيلها المعقّدة، فضلاً عن السرية المتعمّدة للجهات الحكومية والخاصة، من العوامل التي تقوض الطرق الهادفة التي تسمح للرأي العام بأن يدرك آثار أنظمة الذكاء الاصطناعي على حقوق الإنسان والمجتمع."

وشدّدت باشيليت قائلة: "لا يمكننا أن نستمرّ في مُجاراة الذكاء الاصطناعي وفي مواكبة وتيرته الفائقة السريعة، وأن نسمح باستخدامه ضمن حدود معيّنة أو رقابة محدودة أو بدون أي حدود أو رقابة، ومن ثمّ أن نتعامل مع العواقب الحتمية لذلك على حقوق الإنسان بعد وقوعها. لا يمكننا أن ننكر قدرة الذكاء الاصطناعي على خدمة الناس، ولكن لا يمكننا أن ننكر أيضًا قدرة الذكاء الاصطناعي على تغذية انتهاكات حقوق الإنسان على نطاق هائل بدون أي سيطرة على ذلك. لا بدّ لنا من أن نتّخذ الإجراءات اللازمة فورًا من أجل حماية حقوق الإنسان في سياق استخدام الذكاء الاصطناعي، خدمة لصالحنا جميعنا."

انتهى

التقرير الكامل باللغة الإنكليزية*

بيان المفوضة السامية حول الآثار المترتبة على برنامج التجسس Pegasus أمام مجلس أوروبا في 14 أيلول/سبتمبر 2021*

*صفحة المفوضية السامية لحقوق الإنسان والحقّ في الخصوصية في العصر الرقمي*

للحصول على المزيد من المعلومات وطلبات وسائل الإعلام، الرجاء الاتّصال بــ:
رافينا شامداساني +41 22 917 9169/ ravina.shamdasani@un.org 
أو ليز ثروسل + 41 22 917 9296 / elizabeth.throssell@un.org
أو مارتا هورتادو +41 22 917 9466/ marta.hurtadogomez@un.org

تابعونا وشاركوا أخبارنا
على تويتر @UNHumanRights
وفايسبوك unitednationshumanrights
وانستغرام@unitednationshumanrights

الصفحة متوفرة باللغة: