الرسائل المفتوحة المفوضية السامية لحقوق الإنسان
رسالة مفتوحة من تورك إلى الاتحاد الأوروبي حول القانون بشأن الذكاء الاصطناعي
رسالة مفوّض الأمم المتّحدة السامي لحقوق الإنسان إلى مؤسسات الاتّحاد الأوروبي حول قانون الاتحاد بشأن الذكاء الاصطناعي
08 تشرين الثاني/نوفمبر 2023
سيداتي وسادتي،
أود أن أشير إلى المناقشات المتعلقة باعتماد الاتحاد الأوروبي القانون المقترح بشأن الذكاء الاصطناعي. أثني على اقتراح الاتحاد الأوروبي الطموح هذا، الذي يمثّل فرصة لتعزيز حماية حقوق الشعوب. ولن يؤثّر قانون الذكاء الاصطناعي على الاتحاد الأوروبي ودوله الأعضاء فحسب، بل سيؤثر أيضًا على الأطر التنظيمية الأخرى للذكاء الاصطناعي في جميع أنحاء العالم، باعتباره أحد المحاولات التنظيمية الجذرية الأولى في مجال الذكاء الاصطناعي.
وتتشاطر الأمم المتحدة والاتحاد الأوروبي الالتزام باحترام حقوق الإنسان وحمايتها وتعزيزها. ويجب أن يشكّل القانون الدولي لحقوق الإنسان البوصلة التي توجّه جهودنا فيما تكتسب تطبيقات الذكاء الاصطناعي المزيد من القدرات ويتم نشرها في جميع القطاعات، ما يؤثر على حياة الجميع. فمن خلال ترسيخ قواعد الذكاء الاصطناعي الجديدة في حقوق الإنسان، يعزز الاتحاد الأوروبي حمايتها في مواجهة الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي في حياتنا اليومية. وإدراكًا منا لأهمية هذه الفرصة، واستجابة للمقترحات التي برزت خلال المناقشات التشريعية، يسرني أن أشارككم تحليلاً قائمًا على حقوق الإنسان أعدّته مفوضيّتنا إلى جانب عدد من التوصيات الأخرى بشأن قانون الذكاء الاصطناعي في مرفق هذه الرسالة.
ومفوضيّتنا على أهبّ استعداد لدعم مؤسسات الاتحاد الأوروبي ودوله الأعضاء في عملية وضع اللمسات الأخيرة على قانون الذكاء الاصطناعي وضمان وفائه بوعده بحماية وتعزيز حقوق الإنسان للجميع.
مع فائق احترامي وتقديري.
فولكر تورك
المفوضية الأوروبية
البرلمان الأوروبي
مجلس الاتحاد الأوروبي
المرفق
تودّ مفوضية الأمم المتحدة السامية لحقوق الإنسان أن تشارك التحليلات والتوصيات التالية في ما يتعلق بقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، الذي يجري التفاوض عليه حاليًا، وبآثاره المحتملة على حقوق الإنسان. وينبغي عدم اعتبار هذه الوثيقة وكأنّها تشكّل قائمة شاملة بقضايا حقوق الإنسان كافة، بل بأنّها شاملة للقضايا التي تعتبرها المفوضية السامية لحقوق الإنسان الأهم في المرحلة الحالية من القانون بشأن الذكاء الاصطناعي.
التصنيفات الشديدة الخطورة
يميّز القانون بشأن الذكاء الاصطناعي العديد من فئات المخاطر، التي تؤثّر على التزامات مطوري الذكاء الاصطناعي ومورديه وناشريه. ومن الضروري في الواقع توفير ضمانات أقوى لتطبيقات الذكاء الاصطناعي التي تنطوي على مخاطر أكبر في التسبب بأضرار في مجال حقوق الإنسان. وفي هذا السياق، تود المفوضية أن تشدّد على أن تحديد المخاطر ينبغي أن يغطّي الآثار السلبية الفعلية والمتوقعة لتطبيق الذكاء الاصطناعي على حقوق الإنسان وألا يكون توجهه تقنيًا حصرًا أو موجهًا نحو السلامة: وينبغي اعتبار أنظمة الذكاء الاصطناعي التي تنطوي على مخاطر كبيرة تهدّد التمتع بحقوق الإنسان أنظمة شديدة الخطورة، مع ما يرتبط بها من التزامات تقع على عاتق مقدميها ومستخدميها.
وتودّ المفوضية أن تعرب عن قلقها البالغ حيال اقتراح يُسمح بموجبه للشركات بأن تقرر بنفسها أن نظامها الخاص بالذكاء الاصطناعي لا يقع ضمن فئة المخاطر الشديدة، وبالتالي تختار عدم الخضوع للمتطلّبات الأكثر صرامة الخاصة بالفئات الشديدة الخطورة. ومن شأن مثل هذا النموذج لتقييم المخاطر ذاتيًا أن يؤدي إلى قدر كبير من الريبة القانونية ويقوض إنفاذ القانون والمساءلة، وبالتالي يهدّد في نهاية المطاف بتقويض الفوائد الأساسية لقانون الذكاء الاصطناعي.
كما يجب على الدول، وفقًا للقانون الدولي لحقوق الإنسان، بما في ذلك المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان، أن تكفل أن توفّر أطرها التشريعية التي تنظم منتجات وخدمات الذكاء الاصطناعي آليات رقابة ملائمة قادرة على معالجة الآثار الفعلية والمتوقعة على حقوق الإنسان. فمشاركة شركات التكنولوجيا في توفير المنافع العامة تشكّل أصلًا مجالًا رئيسيًا من مجالات الاهتمام بحقوق الإنسان بالنسبة إلى العديد من أصحاب المصلحة، بما في ذلك العديد من شركات التكنولوجيا.
فرض قيود صارمة على استخدام المراقبة البيومترية وتوقّع الجرائم الفردية
إنّ النمو في تطوير ونشر أنظمة ذكاء اصطناعي أكثر قدرة اليوم من أي وقت مضى لغرض المراقبة يشكّل مصدر قلق متزايد في مجال حقوق الإنسان في جميع أنحاء العالم. وتدعم المفوضية بكلّ حزم الجهود الرامية إلى الحد بشكل صارم من ممارسات المراقبة المتطفلة للغاية، أو حظرها حسب الاقتضاء، وفقًا للقانون الدولي الساري، ما من شأنه أن يهدّد في خلاف ذلك، جوهر كرامة الإنسان والخصوصية والديمقراطية.
وتثير أنظمة المراقبة البيومترية عن بُعد على وجه التحديد شواغل جدية في ما يتعلق بتناسبها، بالنظر إلى طبيعتها المتطفلة للغاية وأثرها الواسع النطاق على أعداد كبيرة من الناس. فعلى سبيل المثال، استخدام سلطات إنفاذ القانون لأدوات التعرف على الوجه بهدف تمشيط الحشود أو الاحتجاجات هو من الممارسات العشوائية، ما يؤدي إلى مخاطر غير مقبولة تهدّد حقوق الإنسان. وفي ظل هذه الخلفية، ترحب المفوضية بموقف البرلمان الحازم في هذا الصدد. بالإضافة إلى ذلك، تدعم المفوضية فرض حظر على استخدام أدوات التعرف البيومتري وغيرها من الأنظمة التي تعالج البيانات البيومترية للأشخاص بغية تصنيفهم على أساس لون البشرة أو نوع الجنس أو الخصائص المحمية الأخرى. علاوة على ذلك، تدعم المفوضية حظر أنظمة الذكاء الاصطناعي التي تسعى إلى استنتاج مشاعر الناس، وأدوات توقّع الجرائم الفردية، وأدوات استخراج البيانات غير المحدّدة الهدف بغية بناء أو توسيع قواعد بيانات التعرف على الوجه. وتنطوي هذه الأدوات على مشاكل خطيرة على مستوى دقتها، بسبب افتقارها في الكثير من الأحيان إلى الأسس العلمية، وهي متطفلة للغاية. وتهدد بانتظام بتقويض حقوق الإنسان، لا سيما الإجراءات القانونية الواجبة والضمانات القضائية.
تقييم الأثر على الحقوق الأساسية
تودّ المفوضية السامية لحقوق الإنسان أن تعرب عن تأييدها الحازم لاقتراح البرلمان الأوروبي إجراء تقييمات شاملة لأثر الذكاء الاصطناعي على الحقوق الأساسية. ويُعتبر تقييم الأثر على الحقوق الأساسية المتين والسليم لكل من الجهات الفاعلة من القطاعَيْن العام والخاص التي تنشر الذكاء الاصطناعي، جزءًا لا يتجزّأ من ترسيخ تنظيم الذكاء الاصطناعي في حقوق الإنسان. ونظرًا إلى المخاطر الجسيمة التي قد تولّدها أنظمة الذكاء الاصطناعي وتهدّد التمتع بحقوق الإنسان وضرورة اتخاذ إجراءات مجدية للتخفيف من هذه الآثار، فإن المقترحات الرامية إلى إضعاف أو إزالة متطلبات تقييم أثر المخاطر على الحقوق تثير قلقًا شديدًا. وينبغي أن يغطي تقييم الأثر على الحقوق الأساسية المجدي دورة حياة الذكاء الاصطناعي بأكملها، وأن يستند إلى معايير واضحة بشأن تقييم أثر الذكاء الاصطناعي على الحقوق الأساسية، والشفافية بشأن نتائج تقييم الأثر، ومشاركة الأشخاص المتضررين، وإشراك السلطات العامة المستقلة في تقييم الأثر.
ويشكل تقييم الآثار الضارة المترتّبة على حقوق الإنسان عنصرًا أساسيًا من عناصر بذل العناية الواجبة لمراعاة حقوق الإنسان، عند استخدام كل من القطاعين الخاص والعام الذكاء الاصطناعي، وينبثق عن القانون الدولي لحقوق الإنسان والمبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان.1 ويبين عمل المفوضية السامية لحقوق الإنسان مع شركات الذكاء الاصطناعي الرائدة في سياق مشروع الأعمال التجارية وحقوق الإنسان والتكنولوجيا أنّ تقييم الآثار الضارة للذكاء الاصطناعي على الناس هو "فن الممكن". وواقع أنّ بعض الشركات التي هي في طليعة تطوير الذكاء الاصطناعي تؤيد وتنفذ نهجًا قائمًا على الحقوق في إدارة المخاطر، يشير إلى أنّ الحقوق الأساسية تشكّل أساسًا واعدًا لممارسات الذكاء الاصطناعي التي تحترم الحقوق أيضًا في سياق قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي.
المعايير الدولية
تودّ المفوضية السامية لحقوق الإنسان أن توجه الانتباه إلى الدور المعقد لمنظمات تحديد المعايير على النحو المتوخى في مشروع القانون بشأن الذكاء الاصطناعي. فوفقًا للمسودّة، يجب أن تشكّل المعايير وسيلة يعتمدها مقدمو الخدمة لإثبات الامتثال لمتطلبات القانون بشأن الذكاء الاصطناعي. بعبارة أخرى، تؤدي المنظمات التي تحدّد المعايير وظيفة محورية آثارها بعيدة المدى على التمتع بحقوق الإنسان. وبالتالي، من الضروري للغاية ضمان أقصى قدر ممكن من الشفافية، بما في ذلك حرية وصول الجمهور إلى جميع الوثائق ذات الصلة والمعايير المعتمدة، ووصول جميع أصحاب المصلحة بشكل هادف إلى عمليات تحديد المعايير بموجب قانون الذكاء الاصطناعي هذا وآليات المساءلة الفعالة، مثل الرقابة القضائية والوصول إلى سبل انتصاف فعالة. وقد أظهرت التقارير الأخيرة التي أعدّتها المفوضية السامية لحقوق الإنسان أنّ الحاجة ماسة إلى بذل المزيد من الجهود لتحسين إدماج الخبرة في مجال حقوق الإنسان في عمليات تحديد المعايير التقنية.2 ونظرًا إلى الافتقار العام إلى الموارد المتاحة أمام أصحاب المصلحة من المجتمع المدني للمشاركة بطريقة مستدامة في عمليات تحديد المعايير، من الموصى به أيضًا أن ينشئ الاتحاد الأوروبي آليات توفر الدعم المادي وغيره من أشكال الدعم الأخرى إلى أصحاب المصلحة الذين يعانون من نقص في الموارد.
نهج كلي وشامل إزاء الذكاء الاصطناعي في جميع المجالات
تنطبق تدابير حماية حقوق الإنسان على كل فرد داخل إقليم الدول المعنية وولايتها القضائية. وفي هذا الصدد، تلحظ المفوضية السامية لحقوق الإنسان بقلق بالغ اقتراح المجلس بإعفاء شامل من قانون الذكاء الاصطناعي لأنظمة الذكاء الاصطناعي التي يتم تطويرها أو استخدامها لأغراض الأمن القومي، فضلاً عن استثناءات تطال إنفاذ القانون ومراقبة الحدود. ما من شأنه أن يعفي مجالات التطبيق التي تستخدم في الواقع الذكاء الاصطناعي على نطاق واسع، وحيث الحاجة إلى الضمانات ملحة بشكل خاص، وحيث الأدلة على أن الاستخدام الحالي لأنظمة الذكاء الاصطناعي يستهدف الأفراد من المجتمعات المهمشة أصلًا بشكل غير متناسب. وغالبًا ما تنطوي سياقات إنفاذ القانون والأمن القومي ومراقبة الهجرة على تدابير وأدوات متطفلة تتطلب ضمانات معززة وضمانات للإجراءات القانونية الواجبة، لا أقل من ذلك.3 وبالتالي، تولّد الإعفاءات والاستثناءات المذكورة في القانون بشأن الذكاء الاصطناعي في هذا الصدد ثغرات بارزة ومثيرة للقلق البالغ في مجال حماية حقوق الإنسان.
والمفوضية السامية على أهبّ استعداد للتعاون مع جميع مؤسسات الاتحاد الأوروبي بهدف ضمان أن يسترشد إعداد وتنفيذ قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي والإطار الرقمي الأوسع نطاقًا المرافق له باعتبارات حقوق الإنسان الأساسية.