Noticias

9 Abr 2024

Convencionalidad, inteligencia artificial y dignidad humana en el sector público del siglo XXI

Por Alejandro Spessot* y Federico Tabares**
Recuperado de: elDial.com

 

Sumario: I. Introducción. II. Convencionalidad y sistemas de IA. II. Control de convencionalidad y sistemas de IA. III. El consecuencialismo de la IA, la adecuación al sistema de protección de los derechos humanos y el desafío de superar el test de convencionalidad. IV Los datos personales, desde la perspectiva de la Unión Europea. Algunas reflexiones acerca del rol tuitivo estatal interamericano. V. A modo de conclusión.

Español
La Inteligencia Artificial es el dispositivo tecnológico que permite automatizar procesos complejos en diversas áreas de la sociedad del conocimiento. Su uso y aplicación en el sector público implica un desafío mayor, por la utilidad que le reporta y al mismo tiempo, por los derechos fundamentales que gestiona. Si en su desarrollo, no defendemos la centralidad humana que persigue la convencionalidad en el Sistema Interamericano de Protección de los Derechos Humanos, la inteligencia artificial puede transformarse en una herramienta peligrosa, que afecte derechos y valores básicos de la agenda del siglo XXI.

English
Artificial intelligence is the cutting-edge technology that allows us to automate complex processes in different areas in the knowledge society. The use and application in the public sector involves a real challenge, for the usefulness it brings and at the same time, for the fundamental rights that it manages. If in its development we do not stand for the human centrality that pursues conventionality in the Inter-American System protection of human rights, artificial intelligence could become a dangerous tool, that affects basic rights and values of the 21st century agenda.

Palabras clave: Inteligencia artificial, Convencionalidad, sector público, dignidad humana, datos
Keyword: Artificial Intelligence, Conventionality, public sector, human dignity, Data

I. Introducción
En el marco de las XV Jornadas de Derecho Administrativo Iberoamericano sobre “Convencionalidad, constitucionalidad, legalidad y Administración pública”, celebradas en el Pazo de Mariñan (A. Coruña, España), entre los días 18 y 22 de marzo de 2024 expusimos el presente trabajo, que compartimos con el lector. Mientras los distintos países adoptan la inteligencia artificial (en adelante IA) para sus administraciones, observamos que esta transición implica un potencial transformador en la prestación de servicios y las políticas públicas al brindar un rápido cambio en la toma de decisiones en la materia. Sin perjuicio de ello, diversos trabajos1 analizaron una serie de críticas que señalan dificultades en la integración de los sistemas de la IA con la Administración en su conjunto, indicando en esa verificación, resultados que alertan en términos de justicia y valores. Cualquier Administración que adopte sistemas de IA debe considerar las ambigüedades y las incertidumbres en torno a dos dimensiones clave: los resultados de los algoritmos -que no pueden ser secretos- y las decisiones que tome
la autoridad para diseñarlos.

En primer lugar, enfatizaremos en la necesidad de trabajar el diseño de los matices, los riesgos que puedan presentarse y los posibles resultados de la gobernanza de la IA en el sector público. Luego analizaremos cómo
concilian el consecuencialismo –propio de los sistemas informáticos- con la adecuación a las reglas y principios que rigen el contexto institucional. Éste es el desafío mayor que espera el proceso de toma de decisiones que impacte en la esfera de derechos de sus destinatarios. Caso contrario, cualquier esfuerzo se tornaría ilusorio para resolver las dificultades de la Administración.

II. Convencionalidad y sistemas de IA.

Nos guía en el presente trabajo, el consenso que los países alcanzaron respecto al valor supremo de la persona humana, sustentado en el hecho mismo de su existencia y que originara el derecho inalienable de vivir sin privaciones ni opresión, y a desarrollar plenamente su propia personalidad, tras sus procesos históricos de los siglos XIX y XX. Vertiginosamente la IA se levanta en el estado de derecho, como condición básica de sus posibilidades, configurando un escenario digital extendido a escala planetaria y debe ser abordado, desde la perspectiva de la
condición humana a la luz de la consideración filosófica de los valores de razón, dignidad, libertad, igualdad, solidaridad y paz que la expresan en toda su extensión y que debe realizarse a través de un discurso que los pondere como exigencias morales de realización tanto en el nivel personal como en el comunitario.

Ello exige, que el rol del derecho administrativo, siempre orientado a la defensa, protección y promoción de la dignidad humana resguarde su desarrollo social y moral, que debe ir aparejado a la evolución técnico- científica que nos deparan las TICs, en estos contextos de cambio social, que exigen la aparición de paradigmas éticos que acompañen la configuración de nuevas formas de organización social. Por lo que, en orden al artículo 2° de la Convención Americana sobre Derechos Humanos (CADH) y en pos de la adecuación a la IA a sus prescripciones, los
estados signatarios tienen el deber de adoptar en el derecho interno, las medidas necesarias para que los derechos, libertades y garantías allí reconocidas sean efectivas, como procedió Argentina.

En línea a lo expuesto y a la velocidad en que innova la tecnología, resulta necesario verificar constantemente dicha operación, no sólo respecto a la CADH, sino también en relación a otros instrumentos internacionales esenciales que merezcan ser atendidos en materia de IA y a los patrones interpretativos que la Corte Interamericana de Derechos Humanos ha acuñado y además, comprobar el sentido de la relación entre el desarrollo técnico y la ciudadanía, máxime cuando el entorno digital está en continua expansión, incluidas las redes, contenidos, servicios y aplicaciones, diversos dispositivos, la realidad virtual y aumentada, la IA, robótica, sistemas automatizados, algoritmos y análisis de datos, biometría y la tecnología de implantes, entre los más importantes; es la voluntad que impuso también el Parlamento Europeo con el Reglamento General de IA que aprobó en diciembre de 2023 “con el fin de que estas nuevas tecnologías se gestionen siempre y en todo caso al servicio del ser humano”, porque “…ofrecen y brindan nuevas oportunidades para mejorar el sentido y la realidad del trabajo y en este sentido deben ser empleadas. Por eso, el desafío es claro: O sirven para la mejora de las condiciones de vida de los ciudadanos, o, sencillamente, no sirven. Así de claro”.

Como ut supra lo señalamos, en Argentina merecen mención: a) el decreto 733/18, que prevé que “…es necesario dar el paso clave para reducir la duración y complejidad de los trámites mediante el soporte digital, que consiste en diseñar inteligentemente un circuito de trabajo secuencial, cerrado y uniforme para coordinar la acción administrativa entre los agentes públicos entre sí y de éstos con los administrados, mediante la utilización de motores de reglas e inteligencia artificial para automatizar la mayor cantidad posible de decisiones…” y b) la disposición 2/2023 que prevé «los principios éticos y recomendaciones para abordar las etapas de los proyectos basados en inteligencia artificial» para alcanzar «… mayores niveles de automatización y el salto hacia sistemas descentralizados y predictivos para la toma de decisiones, las cuales permiten mejorar el diseño, implementación y evaluación de las políticas»

III. El consecuencialismo de la IA, la adecuación al sistema de protección de los derechos humanos y el desafío de superar el test de convencionalidad.

Previo adentrarnos al tema, definamos las dos corrientes de nuestro análisis, en cuyas modulaciones, el uso de la IA debe insertarse y regir nuestra sociedad del conocimiento: a) consecuencialista en la que la solución que se alcance puede predecir e incidir en el comportamiento humano y b) la adecuación, que exige matices en los que su poder determinante o prescriptivo depende del análisis de conjuntos de situaciones que varían en precisión y claridad (March y Olsen, 2009).

En correlato a ello, el procedimiento administrativo que prepara la voluntad del funcionario -mediando IA- no solo se apoya en la corriente consecuencialista, sino también en la teoría de adecuación inserta en un modelo ético, las prácticas rutinarias, distintos roles y valores. Si bien la transformación digital de la Administración requiere de herramientas y cálculos de utilidad, constituye una tensión con hábitos, emociones y pautas que impulsan la lógica de adecuación. Esta situación requiere de estructuras de gobernanza que impliquen equilibrarla, que como vimos, se da entre diferentes lógicas de acción.

Dicho esto, cuando la Administración elige racionalmente un sistema de IA a través del método aritmético que le implique utilidad, no es menor la relación que se entabla entre su elección y las preferencias –especialmente las éticas- que tuvo para ello. Así, aquella persigue satisfacer construcciones de tipo personal de impacto en los particulares que son alcanzados por la decisión. La autoridad realiza siempre, la acción que tendrá mejores resultados, esperando que se produzcan en todas las circunstancias posibles.

Estamos ante dos hechos insoslayables: a) la prevalencia del consecuencialismo en la decisiones adoptadas por la autoridad con aplicación de IA y b) la necesidad de adecuar lo aprobado a través de la IA, a los estándares convencionales que rigen nuestro ordenamiento jurídico; como vimos, no son pocos los derechos y valores en juego, por lo que el sistema normativo obliga el apego de la tecnología en su conjunto, a previsiones en la órbita interamericana, especialmente si tenemos en cuenta la capacidad que despliega la IA, de aprender y adaptarse y de efectuar ajustes a medida que interactúa con información y que la procesa, con sus ventajas y riesgos registrados.

Todo ello, con arreglo a los dos anexos que integran la Disposición 2/2023 de la Secretaría de Tecnología de la Jefatura de Gabinete de Ministros de Argentina: I) la Recomendación sobre la Ética de la Inteligencia Artificial emitida por la UNESCO a la que adhirieron una gran cantidad de países, entre los cuales se encuentra Argentina y II) el detallado ciclo de vida de la IA.

Coincidimos con una mirada de la doctrina, que el consecuencialismo no es una teoría ética completa porque aunque nos señala cómo actuar y conseguir todo el bien que podamos esperar, no nos dice qué es lo bueno concretamente. Una crítica fuerte del autor es que los utilitaristas creen que la cantidad de consecuencias buenas se alcanza a través de sumar las mismas y que la optimización decisional se lograría a partir de una suma de voluntades alcanzadas por la IA; imposible saberlo al momento de subsumirlas a cada hecho, tornándose irresoluble. En síntesis, el consecuencialismo sólo se centra en algoritmos prefijados (que puede incluir instrucciones que se formulan para que la máquina realice cierto proceso que eventualmente atenten contra los derechos de cierto grupo de la población, en base a creencias o prejuicios por ejemplo), a riesgo de incurrir en la justificación del medio, desapareciendo toda restricción deontológica que impida la afectación de los derechos, más allá de que aquélla obtenga los beneficios que permita la IA, Ello es un serio problema que demanda a los operadores del derecho, comprometerse para resolverlo o al menos paliarlo.

De esta forma, el acto emitido implica la decisión mejor posible que podría lograrse, a la que el particular debe apegarse sin alternativa. Ahora bien, ¿Es realmente así? Hay razones morales que gravitan para indicar que ciertos derechos no pueden ser violados sólo porque ello vaya a conllevar unas consecuencias mejores de acuerdo a un algoritmo. Es necesario pensar separadamente el plano tecnológico del plano ontológico a fin de generar entornos regulatorios éticos para los proyectos de IA, garantizando desarrollos centrados en las personas, con perspectiva de género y de derechos humanos» (Decreto 733/2018).

IV. Los datos personales, desde la perspectiva de la Unión Europea. Algunas reflexiones acerca del rol tuitivo estatal interamericano.

Con el objetivo de analizar algunos conceptos fundamentales en torno a los datos personales, su regulación y concepción jurídica, tomamos como punto de partida lo establecido en la normativa europea: Data Protection Directive de 19958 donde define Personal Data como “cualquier información relacionada a una persona identificada o identificable, siendo identificable toda persona cuya identidad pueda determinarse, directa o indirectamente, en particular mediante un número de identificación o uno o varios elementos específicos, característicos de su identidad física, fisiológica, psíquica, económica, cultural o social”.

Algunas salvedades en torno a esta definición:

  • “Cualquier información”, remite básicamente a todo lo que pueda ser objetiva o subjetivamente atribuido a los datos de una persona. Esto abarca desde, por ejemplo, la formación y estudios realizados o dirección de vivienda (aspecto objetivo) de un empleado de una empresa que se encuentran en el legajo personal, como así las opiniones o evaluaciones recibidas y confeccionadas sobre su desempeño laboral (aspecto subjetivo). Vale decir que la información no necesita ser verídica para ser considerada datos personales.
  • “Relacionada a”, una persona en particular. La información debe ser sobre el individuo. Es importante distinguir que en determinadas ocasiones un tipo de información puede ser concebida como datos personales, pero no siempre. En base a esto y según las circunstancias, por ejemplo, el valor de un automóvil puede configurar datos personales si se lo considera como elemento para determinar los impuestos que el dueño debe pagar por ese bien. Aplican, en este punto, 3 elementos a considerar en cuanto a la relación sobre los datos personales y el individuo: el contenido, el propósito y el resultado.

El contenido refiere a la información sobre el sujeto en el estricto sentido, como lo puede ser los resultados de un estudio médico. El propósito está vinculado a si la información en cuestión está procesada para evaluar, considerar o analizar al individuo de alguna manera. Y, por último, el resultado existe cuando el procesamiento de la información personal impacta sobre los derechos e intereses del individuo. Dado estos elementos, entendemos que en ciertos contextos es extremadamente difícil dirimir si determinada información constituye datos personales. Por ejemplo, el Tribunal de Justicia de la Unión Europea9 consideró que el acceso a los análisis legales sobre un caso particular no eran datos personales, aun tratándose en el marco de una petición de residencia de un extranjero donde naturalmente se incluían datos personales del aplicante.

  • “Persona identificada o identificable”. Comenzamos afirmando que identificable remite a cuando es factible identificar a una persona, que no ha sido aún identificada, a través de uno o diferentes datos, la dirección de lP (Internet Protocol) o el GPS de los Smartphone son los ejemplos más conocidos. Pero, fundamentalmente, hacemos hincapié en que la combinación de diferentes datos que nos puedan llevar a identificar a un individuo también constituye su información personal.

Esto toma especial relevancia en la actual sociedad de datos en donde el Big Data, los programas de Inteligencia Artificial y/o Machine Learning, entre otros, pueden identificar patrones de conductas de un individuo y, por ende, hacer identificable a cualquier individuo. Retomando el ejemplo anterior relacionado a la dirección de IP, si bien es cierto que existen diferentes debates que ponen bajo juicio hasta qué punto configura un caso de datos personales, como podrían ser las IP dinámicas; el Tribunal de Justicia de la Unión Europea determinó que cuando este se combina con otros datos contenidos en los proveedores de internet (Service Data Providers – ISPs), o con los tiempos de conexión, cookies y/o páginas web visitadas, se podría identificar a la persona y por lo cual constituiría también datos personales.

Es de vital importancia resaltar en este punto lo estipulado en el Artículo 4. acápite 5) de la GDPR11 en donde se introduce el concepto de seudónimo o seudonimización: es “el tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable”.

Actualmente en donde la base de datos es moneda corriente, independientemente de su magnitud, la seudonimización viene a ser un remedio a los fines de resguardar los datos personales que existan en dicha base de datos. Reemplazar datos como el nombre y apellido, dirección de correo electrónico y números de identificación personal es necesario a los fines del resguardo de los datos personales en el marco del uso de una base. Ahora bien, este procedimiento dista de que en la misma se hayan anonimizado a las personas, es decir en donde el o los sujetos ya no sean o puedan ser más identificables. Comprender esta diferenciación entre seudonimizar y anonimizar, resulta fundamental en dos aspectos: el primero en relación a que, en un caso, las personas podrían ser plausibles de identificación y, en segundo lugar, que los datos seudonimizados están bajo la protección normativa, es decir son datos personales y sujetos a la regulación de la ley. En otras palabras, existe el equívoco de tratar indistintamente los datos de anónimos y los seudonimizados en una base de datos, pero como mencionamos, en un caso no existe sujetos identificables (o potencialmente identificables) y en el otro, los datos personales de los sujetos fueron reemplazados por números de referencia que solo tendrá el controlador de la información.

Cuando analizamos los datos personales no podemos dejar de mencionar a las categorías especiales que cuando son procesados engloban significantes riesgos a su libertad y derechos fundamentales para los individuos, y estos son los datos personales sensibles. Así es que los datos que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, la afiliación sindical, y el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera única a una persona física, datos relativos a la salud o datos relativos a la vida sexual o las orientaciones sexuales de una persona física, poseen una protección especial debido a su calidad. Esta enumeración no es taxativa y debe ser extendida a sus derivadas tales como la información de salud de una persona, como asimismo los pronósticos sobre la salud, los análisis clínicos, psicológicos y/o genéticos. Esencialmente están prohibidos el tratamiento de este tipo de datos salvo específicas (y si taxativas) condiciones, algunas de las cuales mencionamos aquí a, los fines de poner de manifiesto su protección especial:

  • Que el individuo interesado haya prestado consentimiento.
  • El tratamiento es necesario para el cumplimiento de obligaciones y el ejercicio de derechos específicos del responsable del tratamiento o del interesado.
  • Su tratamiento es necesario para proteger intereses vitales del interesado.
  • El tratamiento se refiere a datos personales que el interesado ha hecho manifiestamente públicos;
  • El tratamiento es necesario para la formulación, el ejercicio o la defensa de reclamaciones o cuando los tribunales actúen en ejercicio de su función judicial.
  • El tratamiento es necesario con fines de archivo en interés público, fines de investigación científica o histórica o fines estadístico

A los fines de la protección de los derechos y libertades de los individuos comprendidos en los datos que se manipulan, es menester entender y diferenciar los conceptos de Controlador y Procesador.

El controlador es la persona física o jurídica, autoridad pública, servicio u otro organismo que, solo o junto con otros, determine los fines y medios del tratamiento de una serie de datos. Básicamente es quien toma las decisiones sobre el propósito con el que se van a tratar esos datos, y con esto nos referimos a: cómo se van a reunir, archivar, usar, modificar y divulgar. Es el responsable del tratamiento.

Por otro lado, el procesador o encargado del procesamiento es la persona física o jurídica, autoridad pública, servicio u otro organismo que trate datos personales por cuenta del responsable del tratamiento. Fundamentalmente va a procesar la información bajo las instrucciones y manda del controlador o responsable. Tal vez, el procesador va a tener una relación más cercana con la información provista, pero no va a tomar ningún tipo de decisión sobre la misma. Es una persona física o jurídica diferente al controlador responsable y su existencia no es siempre obligatoria. Es decir, es potestativo del controlador convocar y configurar a un procesador o encargado del procesamiento.

En este entramado, nos resta definir qué es el procesamiento o el tratamiento de los datos. Es entendido como cualquier operación o conjunto de operaciones realizadas sobre datos personales o conjuntos de datos personales, ya sea por procedimientos automatizados o no, como la recogida, registro, organización, estructuración, conservación, adaptación o modificación, extracción, consulta, utilización, comunicación por transmisión, difusión o cualquier otra forma de habilitación de acceso, cotejo o interconexión, limitación, supresión o destrucción. Siguiendo esta definición, parecería difícil identificar qué constituye datos personales si no la contextualizamos con lo establecido en el artículo 2° del Reglamento donde establece el ámbito de aplicación a cuando los datos personales sean tratados automatizadamente total o parcialmente, así como los datos personales contenidos (o destinados) en un archivo.

Nos parece pertinente destacar que en el año 2021 – encomendado por 193 estados miembros- la UNESCO aprobó el primer instrumento internacional: “Recomendación sobre la Ética de la inteligencia artificial”, que fija estándares para la IA, con sustento en valores y principios éticos para ser aplicados en todos sus procedimientos. Además, orienta sobre cómo aplicarlos en una variedad de áreas factibles de alcance de la IA, como la gobernanza de datos, el ambiente, la igualdad de género, la economía, los servicios, el trabajo, la cultura, la educación y la investigación. La ética en los nuevos sistemas y el cumplimiento del cuidado de los datos personales son pilares por los cuales no hay que dejar de velar en esta revolución tecnológica.

Por último y a poco tiempo del 75° aniversario de la Declaración Universal de los Derechos Humanos, señalamos dos hechos recientes: a) la máxima autoridad de Naciones Unidas, expresó alarma por la capacidad de las tecnologías digitales para remodelar las sociedades e influir en la política global y alertó de los riesgos que implican tales avances para las garantías fundamentales de las personas14 y b) en Argentina, la Agencia de Acceso a la Información Pública, la comunidad académica y representantes de los poderes públicos de distintas provincias reflexionaron durante sucesivos encuentros, en el marco de los Diálogos Federales sobre el Proyecto de Ley de Protección de Datos Personales; necesarios para determinar cuáles son los riesgos que trae la IA -en el contexto de la Ley 27.506 del régimen de la economía del conocimiento y su decreto reglamentario y disposiciones correspondientes – para su privacidad y seguridad. Dado el particular crecimiento de la IA, y la necesidad de actualizar y reforzar la Ley 25.32615, es relevante el control de convencionalidad ejercido por los magistrados nacionales y demás autoridades públicas, en relación a la producción normativa que rige la materia.

V. Conclusión.

En virtud de los elementos expuestos, concluimos que: a) en el punto II «Convencionalidad y sistemas de IA», el fin último debe perseguir que se gestione siempre al servicio del ser humano, para brindarle nuevas oportunidades y en
consecuencia, mejorar el sentido y la realidad del trabajo y sus actividades, únicamente garantizado por el control convencional de las normas; en el punto III «El consecuencialismo de la IA, la adecuación al sistema de protección de los derechos humanos y el desafío de superar el test de convencionalidad», que en el marco del consecuencialismo y la adecuación respectiva, es necesario pensar separadamente el plano tecnológico del plano ontológico, a fin de generar entornos regulatorios éticos para los proyectos de IA, garantizando desarrollos centrados en las personas, con perspectiva de género y de derechos humanos.

Finalmente, en el tópico IV. » Los datos personales, desde la perspectiva de la Unión Europea. Algunas reflexiones acerca del rol tuitivo estatal interamericano», luego de recordar nociones básicas y concientizarnos de que en la sociedad de datos en donde el Big Data, los programas de IA y/o Machine Learning, entre otros, pueden identificar patrones de conductas de un individuo y, por ende, hacer identificable a cualquier individuo, concluimos que es relevante el rol del control anteriormente descripto, máxime por el crecimiento de la IA y la necesidad de actualizar y reforzar la ley 25.326 y su reglamentación en Argentina, como lo propio en los respectivos estado partes.

Todo ello será factible, si comprendemos que el diseño de los sistemas de IA y su aplicación en la administración pública, tiene relación directa con la concepción de gobernanza que se ponga en práctica. Esto es importante tenerlo en claro, dado que las autoridades deben ser idóneas en la conducción de las políticas trazadas sobre todo en la adecuación que exige la IA, para alcanzar la voluntad final del procedimiento administrativo, en defensa de los intereses y derechos fundamentales de las partes, en la democracia moderna.

 

 

 

* Abogado egresado de la Facultad de Derecho Universidad Nacional de Rosario. Magister en Derecho Administrativo y Administración Pública Universidad de Buenos Aires. Seminario Posgrado Formación Docente UNR; Posgrado en Contratos Administrativos Escuela Cuerpo Abogados del Estado; ex director de Asuntos Jurídicos del Ministerio de Cultura de la Nación; ex Prosecretario de la Sala II de la Cámara Federal de Casación Penal; Prof. Adjunto de Instituciones del Derecho Público en la Facultad de Ciencias Económicas y de Actividad Sustantiva del Estado en la Facultad de Derecho -ambas de la UBA- y en la Universidad de San Isidro (Derecho Político, Derecho
Administrativo y Derecho Procesal Constitucional Federal y Provincial en calidad de -prof. adjunto-); Asesor Instituto Nacional de Cine y Artes Audiovisuales; expositor en jornadas y congresos y autor
de numerosos artículos en materia de derecho público e internacional público.

** Abogado, egresado de la Facultad de Derecho Universidad de Buenos Aires, docente de la Facultad de Ciencias Económicas de la Universidad de Buenos Aires. Autor de numerosos artículos en materia de derecho público e internacional público.

elDial DC33DD
copyright © 1997 – 2024 Editorial Albrematica S.A. – Tucumán 1440 (CP 1050) – Ciudad
Autónoma de Buenos Aires – Argentina
Compartir en: