Si les formes existantes et émergentes de technologies numériques, y compris l'intelligence artificielle (également connue sous le nom d'IA), peuvent offrir de plus en plus de possibilités pour améliorer l'apprentissage, le développement, la communication et la socialisation des enfants, elles peuvent également être à double tranchant.[1] La Rapporteuse spéciale sur la vente d’enfants, l’exploitation sexuelle d’enfants et les abus sexuels sur enfants souhaite consacrer son prochain rapport thématique à l'Assemblée générale aux menaces existantes et émergentes que les technologies numériques font peser sur les enfants et au rôle que les technologies numériques peuvent jouer pour répondre aux diverses manifestations de l'exploitation et des abus sexuels concernant des enfants en ligne.
Elle s'appuie sur les travaux de ses prédécesseurs, notamment le dernier rapport thématique sur les technologies de l'information et de la communication et la vente et l'exploitation sexuelle des enfants (A/HRC/28/56), qui soulignait les comportements criminels existants facilités par les nouvelles technologies, ainsi que les stratégies globales visant à lutter contre ces risques.[2] L'examen d'un grand nombre d'études, de publications et de rapports a toutefois révélé un essor récent et une intensification des manifestations de préjudice et d'exposition à l'abus et à l'exploitation sexuels d'enfants en ligne, tant en termes d'ampleur que de méthode. Le potentiel technologique et l'application actuelle de l'"intelligence artificielle générative" pour commettre des actes d'abus et d'exploitation contribuent à cette évolution.
Dans ce contexte, l'Assemblée générale des Nations unies (AGNU) a récemment adopté par consensus la résolution sur les droits de l'enfant dans l'environnement numérique en novembre 2023, qui reconnaît essentiellement que l'utilisation accrue et non supervisée des technologies numériques a exacerbé l'exposition des enfants, y compris des adolescents, aux risques, aux préjudices et à toutes les formes de violence en ligne.
Tout cela intervient à un moment où les appels à une gouvernance et à une coordination plus sûre de l'intelligence artificielle se multiplient.[3] Sans une action et une réglementation immédiate, technologies numériques nouvelles et émergentes exacerbera encore les inégalités préexistantes et causera des violations supplémentaires des droits de l'enfant, ce qui aura un impact disproportionné sur ceux qui sont dans des situations vulnérables et marginalisées.
Types de contributions/commentaires recherchés
La rapporteuse spéciale invite toutes les parties intéressées, y compris les États, les organisations internationales et régionales, les agences des Nations unies, les institutions nationales des droits de l'homme, les forces de l'ordre, la société civile et les organisations d'assistance téléphonique, les universitaires, les juristes, les experts en politique, les responsables de la protection de l'enfance, les éducateurs, les communautés et les enfants, ainsi que d'autres parties prenantes, à partager des informations, des documents, des déclarations, des analyses et des contributions pour ce rapport thématique.
Pour les besoins du rapport, elle vise à explorer les pratiques existantes et émergentes d'exploitation sexuelle et d'abus contre les enfants dans l'environnement numérique, ainsi que le rôle que joue l'intelligence artificielle dans la facilitation de l'exploitation sexuelle et de l'abus sexuel des enfants et la manière dont les États et les autres acteurs de la protection de l'enfance peuvent répondre à ce problème.
Il est urgent que les États et toutes les parties prenantes intensifient leurs efforts et renforcent leur collaboration par le biais d'une alliance mondiale de base et d'un instrument multilatéral dédié exclusivement à l'éradication des abus sexuels et de l'exploitation des enfants en ligne, en abordant la complexité de ces phénomènes et en faisant un pas en avant pour protéger les enfants dans l'espace numérique et dans le domaine de l'Intelligence Artificielle.
La rapporteuse spéciale invite également à formuler des commentaires et des avis sur la manière dont toutes les parties prenantes, y compris l'industrie technologique, peuvent être mobilisées pour tenir compte de l'intérêt supérieur de l'enfant lors de la conception des technologies.
Les contributions anticipées sont fortement encouragées. Des documents complémentaires, tels que des rapports, des études universitaires et d'autres documents de référence, peuvent être annexés à la soumission.
Bien que toutes les contributions soient les bienvenues et que les questions ci-dessous ne soient en aucun cas exhaustives, la rapporteuse spéciale souhaiterait recevoir des informations sur les questions suivantes :
- Veuillez fournir des informations sur la manière dont les technologies sont utilisées pour faciliter l'exploitation et l'abus sexuels des enfants.
- Quelles recommandations pratiques proposeriez-vous aux États, à l'industrie technologique et aux fournisseurs de services en ligne pour prévenir l'exploitation et les abus sexuels des enfants dans l'environnement numérique ?
- Quelles sont les lacunes qui limitent la mise en œuvre et l'application effectives des lois, politiques et lignes directrices existantes pour prévenir, détecter, signaler et protéger les enfants contre l'exploitation et les abus sexuels en ligne ?
- Quels sont les problèmes liés à l'utilisation de ces technologies, produits ou services numériques qui entravent le travail des services répressifs dans l'ensemble des juridictions en matière d'enquête, de détection, de suppression du matériel pédopornographique en ligne et de poursuite de ces crimes ?
- Quelles mesures techniques et réglementaires peuvent être mises en place par les États, l'industrie technologique et les fournisseurs de services en ligne (législatives, réglementaires, administratives, institutionnelles et autres) pour atténuer les risques pour les droits de l'homme associés à l'exploitation et aux abus sexuels des enfants en ligne, et pour assurer un minimum d'harmonisation entre les juridictions ?
- Existe-t-il d'autres exemples concrets de procédures internes de contrôle, de réclamation et de signalement, de mise en place d'organismes de réglementation et d'interventions, de voies correctives, de procédures de sauvegarde solides, de diligence raisonnable et d'évaluation des risques en matière de droits de l'enfant, et de processus d'établissement de normes techniques visant à garantir la sécurité et l'inclusivité dès la conception ?
- Dans le cas de l'intelligence artificielle générative et du chiffrement de bout en bout, quels sont les défis et les mesures d'atténuation recommandées, y compris l'application d'une technologie avancée nécessaire aux entreprises technologiques, aux fournisseurs de services en ligne et aux forces de l'ordre pour empêcher le partage et le retrait de CSAM en les bloquant ?
- Existe-t-il des exemples de mesures proactives prises pour faciliter la consultation et la participation d'un large éventail de parties prenantes, y compris les enfants et les organisations de défense des droits de l'enfant, afin d'éclairer la politique etla législation, de fixer des normes techniques et de mettre en œuvre des processus visant à éradiquer l'exploitation et les abus sexuels concernant des enfants dans l'environnement numérique ?
- Quel type de mécanisme pourrait être mis en place pour soutenir et coordonner au mieux la participation conjointe des secteurs public et privé au niveau international sur les menaces existantes et émergentes que les technologies numériques font peser sur les enfants, afin d'assurer l'harmonisation et l'intégration des efforts nationaux et régionaux dans la lutte contre ce phénomène ?
Comment les contributions seront utilisées ?
Toutes les contributions seront publiées sur le site web du mandat. Si vous souhaitez préserver la confidentialité de votre contribution, veuillez l'indiquer clairement au moment de la soumission.
[2] Voir également les rapports thématiques présentés sur le sujet par les précédents prédécesseurs en 2005 (E/CN.4/2005/78, Corr.1 et Corr.2) et 2009 (A/HRC/12/23).