Skip to main content
Études en cours

Intelligence artificielle, Réglementation et Droit au Développement - Étude thématique du Mécanisme d’Experts sur le Droit au Développement

Publié

15 août 2026

La cinquième étude portera sur l’intelligence artificielle, la réglementation et le droit au développement.

Comme l’intelligence artificielle remplace inévitablement de nombreux emplois humains, on peut soutenir qu’elle prive également les gens d’une participation significative et efficace à leur vie. Les activités d’intelligence artificielle à haut risque, loin de bénéficier à l’humanité, peuvent lui causer de graves dommages physiques. Dans de telles circonstances, la promotion de la participation du public, de l’intégrité scientifique et des applications fiables, robustes et dignes de confiance de l’intelligence artificielle est fondamentale pour faire progresser l’intelligence artificielle.

En l’absence de lois solides qui aillent au-delà des principes éthiques, il existe un risque réel que le droit au développement soit violé en raison d’un manque de participation effective et significative grâce à laquelle les individus et les peuples contribuent et jouissent d’un développement économique, social, culturel et politique dans lequel tous les droits de l’homme et les libertés fondamentales peuvent être pleinement réalisés.

Qu’il s’agisse de modéliser le changement climatique, de sélectionner des candidats ou de prédire si quelqu’un va commettre un crime, l’IA peut remplacer les humains et prendre plus de décisions plus rapidement et à moindre coût. Bien que l’IA ait été à bien des égards, une force pour le bien, les biais algorithmiques peuvent perpétuer les structures d’inégalité existantes dans nos sociétés et conduire à diverses formes de discrimination. Comme l’IA remplace inévitablement de nombreux emplois humains, elle prive sans doute également l’humanité d’une participation significative et efficace à sa vie. En outre, l’activité d’IA à haut risque, loin de bénéficier à l’humanité, peut lui causer de graves dommages physiques.

Dans ces circonstances, la promotion d’applications d’IA fiables, robustes et dignes de confiance, la participation du public et l’intégrité scientifique sont fondamentales pour des progrès positifs en matière d’IA. La transparence, la confiance et l’autorisation devraient être au cœur de ces progrès.

Cependant, la plupart des initiatives d’IA développées ces dernières années à l’échelle mondiale se sont en grande partie déroulées sans aucune surveillance réglementaire. À l’exception des lignes directrices éthiques, les législateurs du monde entier n’ont pas encore conçu de lois nationales qui réglementent spécifiquement l’utilisation de l’IA. La proposition de loi européenne sur l’IA est peut-être le premier exemple de législation contraignante à venir dans ce domaine, mais on ne sait pas encore comment elle se développera et, le cas échéant, dans quelle mesure, elle aura un impact extraterritorial. Il n’est pas non plus évident que cela aura un effet d’entraînement dans d’autres régions ou pays du monde.

Par conséquent, en l’absence de lois solides qui vont au-delà des principes éthiques, il existe un risque réel que le droit au développement soit violé s’il n’y a pas de participation effective et significative grâce à laquelle les individus et les peuples contribuent et jouissent d’un développement économique, social, culturel et politique, dans lequel tous les droits de l’homme et les libertés fondamentales peuvent être pleinement réalisés. Ce risque devrait être atténué par une réglementation solide, qui inclut nécessairement le droit de suspendre le développement de l’IA (semblable au concept de « droit de ne pas développer » sur lequel s’appuient parfois les peuples autochtones).

Toute innovation et tout développement aux dépens des droits de l’homme sont contre-productifs. Une approche fondée sur les droits est essentielle aux progrès de l’IA.

Publié par :

Mécanisme d’experts chargé de la question du droit au développement

Auteur :

Mme Klentiana MAHMUTAJ (Albanie)

VOIR CETTE PAGE EN :