Skip to main content

Déclarations et discours Haut-Commissariat aux droits de l’homme

Les droits humains doivent être au cœur des technologies de l’IA, déclare Volker Türk

14 février 2024

Prononcé par

Volker Türk, Haut-Commissaire des Nations Unies aux droits de l’homme

À

Université de Stanford, États-Unis d’Amérique

Bonjour,

Je suis très heureux de m’adresser à vous aujourd’hui. Je tiens à remercier chaleureusement le Centre pour les droits de l’homme et la justice internationale et tous les coorganisateurs de l’Université de Stanford qui accueillent cet événement.

Notre présence ici semble opportune : cette université est depuis longtemps l’une des premières au monde dans le domaine de l’intelligence artificielle (IA). Le laboratoire d’intelligence artificielle de Stanford, pour ne citer qu’un exemple, est à l’avant-garde de la recherche innovante depuis 1963.

L’IA n’est donc certainement pas un phénomène nouveau. Nous savons tous cependant que les changements rapides et sismiques d’aujourd’hui posent des défis qu’aucun d’entre nous n’a rencontrés auparavant.

Nous avons tous entendu le scénario dystopique : un monde qui se précipite, presque en somnambule, vers une tutelle auto-infligée, un tourbillon de phénomènes incontrôlables et une possible extinction.

D’un autre côté, l’IA pourrait aider à faire des découvertes permettant de guérir le cancer, de mettre fin au réchauffement climatique et de résoudre le problème de la faim : le scénario de sauvetage. Pourtant, entre ces deux extrêmes où l’IA nous tue ou nous sauve, il y a le monde d’aujourd’hui, où on réalise le potentiel de l’IA dans une multitude de domaines, tandis que les effets sans précédent de l’IA avancée, notamment l’IA générative, sur les droits humains se font déjà actuellement sentir par un grand nombre de personnes.

Quelques réflexions me viennent à l’esprit. Faust de Goethe raconte l’histoire fascinante d’Homunculus, un être humain artificiel représentant le meilleur de la science et de l’époque des Lumières tout en étant plus « humain » dans ses désirs que son créateur. Dans son poème « L’apprenti sorcier », Goethe décrit de manière saisissante ce qui se passe lorsqu’on fait sortir le génie de la lampe. À la fin, le vieux sorcier revient, alors que tout semble perdu, et rompt le sort, la leçon étant qu’il ne faut invoquer la magie que lorsqu’on la maîtrise vraiment. Qu’est-ce qui nous aide à maîtriser l’IA ? Je suis évidemment convaincu que les droits de l’homme font partie intégrante de cette maîtrise et de la solution.

Les droits humains incarnent une sagesse ancestrale qui peut nous guider face aux défis actuels. Ils nous aident à naviguer dans le brouillard de la nouveauté, de l’inconnu. Ils remédient au désordre et évitent le chaos. Ils représentent, et cela est important, un cadre normatif, juridiquement contraignant, qui non seulement oriente, mais aussi libère toutes les libertés de chaque personne, partout au monde, d’où les contrôles et les contrepoids qu’ils établissent. En fin de compte, ils portent sur l’action et la dignité humaines, et sur notre place dans l’écosystème de la Terre. En somme, ils offrent un modèle de gouvernance à long terme, intergénérationnel et qui garantit notre avenir.

Il est donc plus urgent que jamais de replacer l’action et la dignité humaines au centre de ce débat.

En effet, à l’heure actuelle, l’IA générative est encore développée et déployée sans que l’on sache exactement comment garantir la sécurité. J’irais même plus loin en disant que cela a lieu sans vision claire quant aux objectifs à atteindre. Une transparence limitée, une responsabilité floue et une confiance excessive dans les entreprises privées pour « faire ce qui est juste » ne sont tout simplement pas suffisantes face à ces puissantes technologies. Alors que les régulateurs s’empressent de poser des garde-fous autour de ce tsunami, les pays et les entreprises ont largement échoué à intégrer le seul ensemble de lois transversales dont nous disposons pour relever ces défis colossaux : le cadre international des droits de l’homme.

Le cadre des droits de l’homme constitue la base dont nous avons besoin de toute urgence pour innover et exploiter le potentiel de l’IA.

Il peut également aider à prévenir et atténuer une multitude de risques et éviter que l’IA générative ne devienne un vecteur de violations généralisées des droits de l’homme, d’atteintes à ces droits, de discrimination et d’exclusion.

Les droits de l’homme incarnent l’idée que les personnes doivent être protégées contre certains abus perpétrés par leurs gouvernements, ainsi que par des individus, des entités privées et des entreprises.

Pour illustrer mon propos, permettez-moi de citer certains des droits qui présentent un intérêt particulier pour notre discussion.

Le droit au travail.

L’IA générative a le potentiel de modifier radicalement les marchés de l’économie et de l’emploi. Dans divers domaines, nous avons déjà vu la création humaine être remplacée par des contenus générés par l’IA. Un nouveau monde du travail, des loisirs et de l’utilisation du temps émergera. Qu’est-ce que cela signifie pour ceux qui seront licenciés, qui se sentiront exclus, qui auront du mal à s’en sortir ? Comment s’y préparer ? Qu’arrivera-t-il si nous n’avons pas de protection sociale universelle, si les inégalités augmentent en conséquence, si cela devait conduire à une dangereuse désintégration des sociétés ?

Le droit à la non-discrimination, avec des modèles d’IA générative qui se servent de données contenant presque inévitablement les idées haineuses et discriminatoires qui infectent nos sociétés, qui diffusent un contenu profondément raciste ou misogyne, qui font écho à la multitude d’idées fausses, d’inexactitudes et de mensonges purs et simples que l’on trouve dans toutes les sociétés, et qui alimentent la haine. Comment allons-nous protéger le public qui réclame des débats critiques, les voix des minorités, des LGBTIQ+, des femmes et des enfants ? Si nous ne prêtons pas suffisamment attention aux besoins spécifiques de ces groupes à risque, nous exacerbons les maux fondamentaux de nos sociétés.

Le droit d’accéder à l’information.

En cette année électorale importante, où quelque 70 élections se dérouleront dans le monde entier, on risque fort de voir émerger une propagande puissante, produite à faible coût et à grande échelle, et des campagnes de désinformation organisées. Les effets qui en découlent, notamment la haine, la discrimination ou la délégitimation des acteurs politiques et des institutions de l’État, peuvent profondément nuire aux principes de fonctionnement des démocraties. Comment nous assurer que les autocrates, les populistes, les extrémistes, les ennemis d’une « société ouverte » et d’un ordre fondé sur les droits humains, ne prennent pas le dessus, n’obscurcissent pas l’esprit et le cœur des gens et ne transforment pas tout en une propagande parfaite, perpétuelle et autogénérée qui ne sert que les intérêts d’un petit nombre de personnes ?

Ou encore le droit à la vie privée.

La capacité de produire et de diffuser à grande échelle des « deepfakes » de haute qualité avec un investissement minime n’en est qu’à ses débuts, mais nous avons déjà constaté que ce phénomène pourrait perturber les élections, tromper les gens et répandre la misogynie et la haine. Comment allons-nous prévenir le phénomène du « double » que Naomi Klein a décrit de façon si sinistre ? Comment échapper à un avenir orwellien de contrôle de la pensée et de surveillance omniprésente ? Et comment veiller à ce que l’humanité ne se divise pas davantage entre les nantis et les démunis, en particulier à la lumière de la colossale fracture numérique ?

D’autres droits viennent à l’esprit, comme le droit d’être à l’abri de la faim, le droit à un niveau de vie suffisant, le droit à la sécurité sociale et le droit au logement. Il sera important de comprendre comment l’IA peut réaliser ces droits ou les menacer.

Chers collègues et amis,

Dans ce contexte, qu’est-ce que cela signifie concrètement pour l’IA générative ?

Premièrement, les États et les entreprises doivent utiliser le cadre des droits de l’homme comme premier point de référence dans la réglementation et la gouvernance de l’IA générative.

Deuxièmement, ce cadre doit guider la conception et le développement des technologies d’IA générative, en intégrant les droits de l’homme tout au long de leur cycle de vie.

La complexité de l’IA exige une approche réfléchie et prudente. Nous devons nous demander comment elle affecte les droits des différents individus et communautés.

Pas seulement ici en Californie, mais partout.

Que signifient l’innovation en matière d’IA et son impact sur les droits humains pour un adolescent de Lagos, une enseignante de Buenos Aires ou un enfant de Bangkok ? Ou pour celles et ceux qui sont victimes des quelque 55 conflits violents qui sévissent dans le monde ?

Pour obtenir une IA générative respectueuse des droits, il faut écouter les personnes susceptibles d’être affectées par cette dernière, pour le meilleur ou pour le pire. Cela nous permettra de réorienter notre approche de l’IA afin de garantir qu’elle fonctionne pour tous, sans discrimination. De la même manière que les personnes sont au cœur des droits de l’homme, elles doivent être au cœur des technologies.

Nous devons aussi continuer à poser les questions difficiles. Comment préserver la liberté d’expression tout en empêchant les discours haineux et la désinformation ? Comment protéger les droits et la propriété intellectuelle des artistes, des musiciens et des écrivains sans porter atteinte à notre droit d’accès à l’information ?

Si les considérations éthiques sont importantes dans ce débat, nous avons besoin des droits de l’homme, et de leur cadre universel et contraignant, pour faire un pas de plus vers des solutions concrètes et éviter, dans le pire des cas, la responsabilité pénale pour les violations des droits de l’homme.

Le HCDH collabore directement avec certaines des principales entreprises produisant de l’IA générative. Notre objectif est de les aider à concrétiser les droits humains au fur et à mesure qu’elles développent leurs outils.

Dans le même temps, nous avons également appelé à une pause dans l’utilisation de l’IA dans les domaines présentant un risque élevé pour les droits de l’homme, tels que l’application de la loi et le pouvoir judiciaire, jusqu’à ce que des garde-fous suffisants soient mis en place. Nous avons insisté sur une plus grande intégration des droits humains dans les processus de normalisation technique, où des décisions cruciales seront prises sur les applications et l’utilisation de l’IA.

Ce que nous savons, c’est que pour naviguer dans l’inconnu que représente l’IA générative, il est urgent de prendre les mesures suivantes.

Il faut que les entreprises adoptent une conduite responsable.

Nous devons appliquer le principe de responsabilité en cas de préjudice.

Les victimes de tels préjudices doivent pouvoir accéder à des voies de recours.

Mais avant tout, pour éviter que ces préjudices ne se produisent, nous avons besoin d’une bonne gouvernance de l’IA, fermement ancrée dans les droits de l’homme.

Les entreprises sont responsables des produits qu’elles s’empressent de mettre sur le marché. Elles doivent faire beaucoup plus pour identifier les risques immédiats évidents et les résoudre, et pour améliorer la transparence à la fois sur les approches en matière de sécurité et sur les sources des données relatives à la formation.

Les entreprises, mais aussi les États, doivent systématiquement faire preuve de diligence raisonnable en matière de droits de l’homme pour les systèmes d’IA qu’ils conçoivent, développent, déploient, vendent, obtiennent ou utilisent. Les études d’impact en matière de droits de l’homme régulières doivent constituer un élément clé de cette démarche.

Le fait est que nous disposons déjà des outils nécessaires pour guider les gouvernements et le secteur privé vers une IA fondée sur les droits humains.

Depuis 2011, les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme fournissent des principes solides tant pour les États que pour les entreprises, et peuvent aujourd’hui jeter les bases d’un développement responsable de l’IA. Le projet B-Tech du HCDH a également produit une série de recommandations, d’outils et d’orientations, élaborés avec la participation active des entreprises et d’autres parties prenantes, sur la manière d’appliquer les Principes directeurs pour prévenir et traiter les risques en matière de droits de l’homme liés aux technologies numériques. Le nouveau Conseil consultatif de haut niveau sur l’intelligence artificielle a également fourni plusieurs recommandations préliminaires sur la gouvernance de l’IA. Alors que nous nous préparons pour le Sommet de l’avenir, qui se tiendra à New York en septembre, le pacte numérique mondial constituera une autre voie essentielle pour aller de l’avant.

Chers collègues et amis,

L’Université de Stanford a fait d’importants progrès au cours des dernières décennies quant aux moyens d’exploiter le potentiel de l’IA. Les programmes AI4ALL et AI for Social Good s’efforcent d’accroître la diversité et de former les ingénieurs en IA à intégrer des objectifs de justice sociale lors de la création de technologies. L’AIMI Center aide de nombreux patients grâce à ses travaux novateurs dans le domaine de la santé et de l’innovation.

En tant qu’étudiants, vous construisez votre avenir. Et dans le domaine de l’IA, vous participez également à la construction de l’avenir de l’humanité.

Pour que la technologie profite à l’humanité, nous devons faire preuve d’une grande attention, écouter la voix de la raison et avoir un sens profond de la responsabilité intergénérationnelle.

C’est cela les droits de l’homme.

Vos voix, ici dans la Silicon Valley, le cœur de l’innovation numérique et technologique, comptent plus que vous le pensez pour nous éloigner des risques dont nous discutons aujourd’hui. Car en faisant progresser ce secteur vers une conduite responsable des entreprises, fondée sur nos droits et nos libertés, nous obtiendrons des résultats décisifs et durables pour tous dans le monde entier.

Si les principes des droits de l’homme sont fermement en place, je crois que nous pouvons tirer parti en toute sécurité des possibilités incroyables offertes par l’IA et continuer à soutenir la créativité, l’innovation et le meilleur de ce que les êtres humains peuvent offrir.

J’espère que nous pouvons tous nous engager dans ce sens.

Merci.