البيانات المفوضية السامية لحقوق الإنسان
المفوّض السامي: يجب ترسيخ حقوق الإنسان في صميم الذكاء الاصطناعي
12 تموز/يوليو 2023
أدلى/ت به
فولكر تورك، مفوّض الأمم المتّحدة السامي لحقوق الإنسان
في
حدث جانبي رفيع المستوى - الدورة الـ53 لمجلس حقوق الإنسان
"ما هي الحدود التي يجب فرضها؟ - المرحلة التالية للذكاء الاصطناعي والتكنولوجيات الجديدة والناشئة من منظور حقوق الإنسان"
لَمِنَ المثير للاهتمام أن نجري مناقشة بشأن حقوق الإنسان والذكاء الاصطناعي.
ندرك جميعنا إلى أي مدى يتم اختبار عالمنا وحالة حقوق الإنسان اليوم. فأزمة كوكبنا الثلاثية الأبعاد تهدّد وجودنا. والنزاعات القديمة مستفحلة منذ سنوات طويلة، ولا يبدو أنّ خواتيمها قريبة. كما تندلع نزاعات جديدة، وللكثير منها انعكاسات عالمية بعيدة الأمد. وما زلنا نعاني من عواقب جائحة كوفيد-19، التي كشفت سلسلة من أوجه عدم المساواة وعمّقتها في جميع أنحاء العالم.
لكن السؤال المطروح أمامنا اليوم هو التالي: ما هي الحدود التي يجب فرضها على الذكاء الاصطناعي والتكنولوجيات الناشئة؛ وهذا السؤال من بين أكثر الأسئلة إلحاحًا التي تواجه المجتمع والحكومات والقطاع الخاص.
لقد شهدنا وتابعنا جميعنا خلال الأشهر الأخيرة، التطورات الرائعة التي سجّلها الذكاء الاصطناعي التوليدي، مع ChatGPT والبرامج الأخرى التي أصبحت اليوم متاحة بكلّ سهولة أمام الجمهور الأوسع نطاقًا.
ندرك تمامًا أنّه بإمكان الذكاء الاصطناعي أن يعود بفوائد جمّة على البشرية. حيث يمكنه أن يحسن الاستشراف الاستراتيجي والتنبؤ، وأن يضفي طابعًا ديمقراطيًا على الوصول إلى المعرفة، وأن يفعّل التقدم العلمي بلمح البصر، وأن يزيد من القدرة على معالجة كميات هائلة من المعلومات.
لكن من أجل تسخير هذه الإمكانات كلّها، علينا أن نتأكّد من أن الفوائد تفوق المخاطر من جهة، وأن نفرض الحدود اللازمة في هذا الصدد من جهة أخرى.
وما نعنيه في الواقع عندما نتحدث عن الحدود هو تنظيم القطاع.
وكي نكون فعالين وإنسانيين، وكي يتمحور تطوير التكنولوجيات الجديدة حول الإنسان، يجب أن يستند أي حل أو أي تنظيم إلى احترام حقوق الإنسان.
وتشكّل مدرستان فكريتان التطور الحالي الذي يشهده تنظيم الذكاء الاصطناعي.
الأولى قائمة على المخاطر حصرًا، وتركّز بشكل قاطع على التنظيم الذاتي والتقييم الذاتي من قبل مطوري الذكاء الاصطناعي. وبدلاً من الاعتماد على قواعد مفصلة، يركّز التنظيم القائمة على المخاطر على تحديد المخاطر والتخفيف منها لتحقيق النتائج المرجوة.
وينقل هذا النهج الكثير من المسؤولية إلى القطاع الخاص. وقد يزعم البعض، ومنهم القطاع الخاص بحدّ ذاته، بأنّه ينقل الكثير من المسؤوليات إليه.
كما أنه يولّد ثغرات بارزة على مستوى التنظيم.
أمّا النهج الثاني فيدمج حقوق الإنسان في دورة حياة الذكاء الاصطناعي بأكملها. فمنذ البداية حتّى النهاية، تندرج مبادئ حقوق الإنسان في عملية جمع البيانات واختيارها، وفي تصميم النماذج والأدوات والخدمات المتأتية عنها وفي عمليات تطويرها ونشرها واستخدامها.
لا نطلق تحذيرنا هذا من أجل المستقبل، فنحن نشهد منذ اليوم آثار الذكاء الاصطناعي الضارة عامةً، لا الذكاء الاصطناعي التوليدي فحسب.
فالذكاء الاصطناعي يتمتّع بالقدرة على تعزيز الحكم الاستبدادي.
كما يمكنه تشغيل أسلحة فتاكة ذاتية القيادة.
ويمكنه أيضًا أن يشكل الأساس لأدوات أكثر قوة ترمي إلى السيطرة على المجتمعات ومراقبتها وفرض الرقابة عليها.
فعلى سبيل المثال لا الحصر، قد تتحول أنظمة التعرف على الوجه إلى مراقبة جماعية لأماكننا العامة، ما يدمر أي مفهوم للخصوصية.
لقد ثبت أن نظم الذكاء الاصطناعي المستخدمة في نظم العدالة الجنائية للتنبؤ بالسلوك الإجرامي في المستقبل تعزز التمييز وتقوّض الحقوق، بما في ذلك افتراض البراءة.
وقام الضحايا والخبراء، بمن فيهم العديد من بينكم، بدق ناقوس الخطر لفترة لا يُستهان بها، لكن صناع السياسات ومطوري الذكاء الاصطناعي لم يبادروا إلى العمل كي يبدّدوا هذه المخاوف بالشكل الكافي أو بالسرعة الكافية.
على الحكومات والشركات أن تعتمد الإجراءات العاجلة المطلوبة فورًا. أمّا على الصعيد الدولي فبإمكان الأمم المتحدة أن تضطلع بدور مركزي في دعوة أصحاب المصلحة الرئيسيين إلى عقد اجتماعات بهذا الصدد وتقديم المشورة بشأن التقدم المحرز.
لا وقت لنا كي نضيعه.
لقد انتظر العالم وقتًا طويلاً قبل أن يتحرّك ويتصدّى لتغير المناخ. لا يمكننا تكرار الخطأ نفسه.
لكن كيف يمكن أن يبدو التنظيم؟
يجب أن تشكّل الأضرار التي يتعرَّض لها الناس أو من المحتمل أن يتعرضوا لها، نقطة الانطلاق.
ما يتطلّب بالتالي الإصغاء إلى المتضرّرين، وكذلك إلى أولئك الذين سبق وأمضوا سنوات طويلة في تحديد الأضرار والاستجابة لها. وتتأثر النساء والأقليات والمهمشون على وجه التحديد وبصورة غير متناسبة بتحيز الذكاء الاصطناعي. وعلينا أن نبذل جهودًا جدية لإشراكهم في المناقشات بشأن الحوكمة.
ومن الضروري أيضًا إيلاء الاهتمام الواجب لاستخدام الذكاء الاصطناعي في الخدمات العامة والخاصة حيث يبرز خطر متزايد من إساءة استخدام السلطة أو اقتحام الخصوصية، في العدالة وإنفاذ القانون والهجرة والحماية الاجتماعية والخدمات المالية.
ثانيًا، يجب أن يشترط التنظيم تقييم المخاطر التي تنطوي عليها نظم الذكاء الاصطناعي والآثار المترتبة في مجال حقوق الإنسان قبل الاستخدام وأثناءه وبعده. ومن الضروري للغاية ضمان الشفافية والرقابة المستقلة والوصول إلى سبل الانتصاف الفعالة، لا سيما عندما تستخدم الدولة نفسها تكنولوجيات الذكاء الاصطناعي.
ويجب حظر أو تعليق تكنولوجيات الذكاء الاصطناعي التي لا يمكن تشغيلها بما يتماشى مع القانون الدولي لحقوق الإنسان إلى حين اعتماد الضمانات المناسبة في هذا الصدد.
ثالثًا، من الضروري للغاية تطبيق الأنظمة والضمانات القائمة، على غرار الأطر المتعلقة بحماية البيانات وقانون المنافسة واللوائح القطاعية، بما في ذلك ما يتعلّق بالصحة والتكنولوجيا والأسواق المالية. فمنظور حقوق الإنسان لتطوير الذكاء الاصطناعي واستخدامه لن يحمل سوى أثرًا محدودًا إذا كان احترام حقوق الإنسان غير كاف في المشهد التنظيمي والمؤسسي الأوسع نطاقًا.
رابعًا، يجب مقاومة قطاع الذكاء الاصطناعي نفسه ومنعه من إقناعنا بأنّ التنظيم الذاتي كافٍ، أو الادعاء بأنه يعود له وحده تحديد الإطار القانوني المعمول به. وأظنّ أنّنا تعلمنا الدرس في هذا المجال من منصات التواصل الاجتماعي. وفي حين أنّ مدخلاته مهمّة، من الضروري أن تساهم العملية الديمقراطية الكاملة، عبر القوانين التي يسنّها أصحاب المصلحة كافة، في قضية ستؤثّر على جميع الناس في كل مكان وحتّى وقت بعيد في المستقبل.
وفي الوقت نفسه، على الشركات أن تفي بمسؤولياتها عن احترام حقوق الإنسان بما يتماشى مع المبادئ التوجيهية المتعلقة بالأعمال التجارية وحقوق الإنسان. والشركات مسؤولة عن المنتجات التي تتسابق لطرحها في الأسواق. وتتعاون مفوضيتنا مع عدد من الشركات ومنظمات المجتمع المدني والخبراء المعنيين بالذكاء الاصطناعي بهدف تطوير إرشادات حول كيفية التعاطي مع الذكاء الاصطناعي التوليدي. لكن لا بدّ من بذل المزيد من الجهود في هذا الصدد.
وأخيرًا، قد يكون من المفيد استكشاف إمكانية إنشاء هيئة استشارية دولية معنية بالتكنولوجيات الشديدة الخطورة، على الرغم من أنّ هذا الحلّ ليس بسريع. وبإمكان هذه الهيئة أن تقدم وجهات نظر مختلفة بشأن كيفية مواءمة المعايير التنظيمية مع الأطر العالمية لحقوق الإنسان وسيادة القانون. ومن الممكن للهيئة أيضًا أن تشارك نتائج مداولاتها علنًا وتقدم توصياتها بشأن حوكمة الذكاء الاصطناعي. هذا ما اقترحه أمين عام الأمم المتحدة ضمن إطار الاتفاق الرقمي العالمي الخاص بالقمة من أجل المستقبل التي ستنعقد العام المقبل.
يقدّم إطار حقوق الإنسان أساسًا راسخًا يمكن الاستناد إليه لتوفير الحواجز اللازمة التي تحمينا من استغلال إمكانات الذكاء الاصطناعي الهائلة، وتمنع مخاطره الهائلة وتخفّف من حدتها.
وأتطلع إلى مناقشة هذه المسائل كلّها معكم.