Skip to main content

Declaraciones Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos

La inteligencia artificial debe tomar como base los derechos humanos, declara el Alto Comisionado

12 julio 2023

Pronunciado por

Volker Türk, Alto Comisionado de las Naciones Unidas para los Derechos Humanos

En

EVENTO PARALELO DE ALTO NIVEL DEL 53º PERÍODO DE SESIONES DEL CONSEJO DE DERECHOS HUMANOS

«¿Dónde deben estar los límites?» - Una perspectiva de derechos humanos sobre lo que está por llegar en el terreno de la inteligencia artificial y las tecnologías nuevas y emergentes»

Es una gran idea el que debatamos los derechos humanos y la IA.

Todos y todas sabemos en qué medida nuestro mundo, y los derechos humanos, están siendo puestos a prueba en estos momentos. La triple crisis planetaria amenaza nuestra existencia. Los viejos conflictos llevan años desatados, sin que se vea un final pronto. Siguen apareciendo nuevos conflictos, muchos de ellos con consecuencias de gran alcance en todo el planeta. Seguimos estando aun tambaleantes por las consecuencias de la pandemia de COVID-19, la cual dejó al descubierto y profundizó un conjunto de desigualdades que se suceden en todo el mundo.

Pero la pregunta que hemos de responder hoy aquí (donde deberían situarse los límites en la inteligencia artificial y las tecnologías emergentes), es una de las cuestiones más acuciantes para nuestra sociedad, para los gobiernos y para el sector privado.

Todos hemos visto y seguido durante los últimos meses los impresionantes avances en la IA generativa, con ChatGPT y otros programas ofreciendo en la actualidad un acceso inmediato para el público general.

Sabemos que la IA tiene el potencial de proporcionar enormes beneficios para la humanidad. Podría mejorar las previsiones estratégicas, democratizar el acceso al conocimiento, incrementar el ritmo de los avances científicos, y aumentar la capacidad para poder procesar enormes cantidades de información.

Pero para poder aprovechar todo este potencial, hemos de asegurarnos de que las ventajas pesan más que los riesgos, y además necesitamos imponer límites.

Cuando hablamos de límites, de lo que en realidad estamos hablando es de regular.

Para poder cumplir este cometido, para comportarnos como humanos, para situar a las personas en el centro del desarrollo de nuevas tecnologías, cualquier solución, cualquier regulación, debe tomar como base el respeto por los derechos humanos.

Dos escuelas diferentes de pensamiento están moldeando el desarrollo actual de la regulación en torno a la IA.

La primera solamente tiene en cuenta los riesgos, centrándose principalmente en la autorregulación y en la autoevaluación por parte de los desarrolladores de IA. En lugar de acogerse a normas detalladas, la regulación basada en los riesgos pone énfasis en identificar y mitigar los riesgos para poder lograr resultados.

Este enfoque confiere una gran responsabilidad al sector privado. Algunos podrían decir que esta responsabilidad es demasiado alta, esto mismo afirma el propio sector privado.

También ocasiona que existan lagunas evidentes en la normativa reguladora.

El otro enfoque integra los derechos humanos en todo el ciclo de vida de la IA. De principio a fin, los principios de derechos humanos se incorporan a la recopilación y selección de datos; así como al diseño, desarrollo, implantación y uso de los modelos, instrumentos y servicios resultantes.

Esta no es una llamada de advertencia para el futuro, ya podemos percibir las consecuencias negativas que tiene la IA en la actualidad, y no solamente la IA generativa.

AI tiene el potencial de afianzar a los gobiernos autoritarios.

Puede llegar a manejar armas autónomas letales.

Puede crear las bases para diseñar herramientas todavía más poderosas para el control de la sociedad, para la vigilancia, y la censura.

Los sistemas de reconocimiento facial, por ejemplo, pueden convertirse en vehículos para la vigilancia de masas en nuestros espacios públicos, acabando con cualquier concepto de privacidad.

Los sistemas de IA que se utilizan en el sistema de justicia penal para predecir futuros comportamientos criminales ya han demostrado que apuntalan la discriminación y que debilitan los derechos, incluyendo la presunción de inocencia.

Víctimas y expertos, incluyendo a muchos y muchas de los que se encuentran hoy en esta sala, llevan ya bastante tiempo dando la voz de alarma, pero no obstante los legisladores y los desarrolladores de IA no han actuado con bastante determinación, o con bastante rapidez, sobre estos asuntos preocupantes.

Necesitamos de medidas urgentes por parte de gobiernos y empresas. Y a nivel internacional, las Naciones Unidas pueden desempeñar un papel crucial convocando a los actores clave y asesorando sobre los pasos a dar en el futuro.

No podemos perder ni un solo segundo.

El mundo esperó demasiado tiempo para actuar contra el cambio climático. No podemos permitirnos repetir el mismo error.

¿Qué aspecto podría tener una regulación?

El punto de inicio debería ser las consecuencias negativas que padecen las personas y las que es probable que vayan a sufrir.

Esto exige escuchar a aquellas personas que padecen estas consecuencias, así como a aquellos que ya han empleado varios años identificando y respondiendo a estas consecuencias negativas. Las mujeres, los grupos minoritarios, las personas marginadas, en particular, son las más afectadas de forma desproporcionada por los prejuicios que entraña la IA. Debemos hacer serios esfuerzos para hacerles partícipes de cualquier debate sobre la gobernanza.

Se debe prestar atención también al uso de la AI en servicios públicos y privados donde existe un riesgo aumentado de abuso de poder o de intrusiones en la privacidad de una persona: en la justicia, la aplicación de la ley, en la cuestión de la migración, en la protección social, o en los servicios financieros.

En segundo lugar, las iniciativas regulatorias tienen que exigir una evaluación de los riesgos y repercusiones para los derechos humanos que conllevan los sistemas de IA antes, durante y después de su uso. Es necesario que existan garantías de transparencia, una supervisión independiente y un acceso a remedios efectivos, de manera especial cuando es el propio Estado el que está haciendo uso de las tecnologías de IA.

Las tecnologías de IA que no puedan ser operadas en cumplimiento con la normativa internacional de derechos humanos deben ser prohibidas o puestas en suspensión hasta que se consigan implementar protecciones adecuadas.

En tercer lugar, han de aplicarse las regulaciones y protecciones ya existentes, por ejemplo, marcos regulatorios sobre protección de datos, la legislación sobre la competencia, así como regulaciones sectoriales, incluyendo los campos de la atención sanitaria, la tecnología o los mercados financieros. Una perspectiva de derechos humanos aplicada al desarrollo y uso de la IA tendrá un impacto limitado si no viene acompañada de un respeto adecuado por los derechos humanos en el panorama más amplio regulatorio e institucional.

Y en cuarto lugar, hemos de resistirnos a la tentación de permitir que la propia industria de la IA nos convenza de que la autorregulación es suficiente, o que afirme que deben ser ellos mismos los que definan el marco jurídico que ha de aplicarse. Creo que hemos aprendido ya esta lección de nuestra experiencia con las plataformas de redes sociales. A la vez que sus aportaciones son relevantes, resulta esencial que todo el proceso democrático, las leyes que diseñen todas las partes interesadas, sea aplicado en su totalidad, en una cuestión en la que todas las personas, en todos los lugares del mundo, terminarán por resultar afectadas en el futuro.

Al mismo tiempo, las empresas deben cumplir con sus responsabilidades en lo que se refiere a respetar los derechos humanos en consonancia con los Principios Rectores sobre las Empresas y los Derechos Humanos. Las empresas son responsables de los productos que se afanan por lanzar al mercado. Mi Oficina trabaja ya con varias empresas, organizaciones de la sociedad civil y expertos y expertas en IA para elaborar directrices sobre cómo abordar la IA generativa. A pesar de esto, queda mucho trabajo por hacer en todos estos aspectos mencionados.

Finalmente, aunque no se trataría de una solución inmediata, puede que resulte valioso explorar la posibilidad de crear un órgano asesor internacional que rija sobre las tecnologías que entrañen un riesgo especial, uno que pudiera ofrecer perspectivas sobre como las normativas regulatorias podrían alinearse con el marco de los derechos humanos universales y con el marco del estado de derecho. Este órgano podría compartir públicamente los resultados de sus deliberaciones y ofrecer recomendaciones acerca de la gobernanza de la IA. Este punto ha sido también sugerido por el Secretario General de las Naciones Unidas como parte del Pacto Digital Global para la Cumbre del Futuro que tendrá lugar el próximo año.

El marco de los derechos humanos proporciona una base fundamental la cual puede facilitar protecciones a la hora de emplear esfuerzos para explotar el enorme potencial de la IA, a la vez que se previenen y mitigan sus enormes riesgos implícitos.

Espero con mucho interés debatir todas estas cuestiones con todos ustedes.