Derechos Fundamentales
4 de febrero de 2020

¿Puede la inteligencia artificial atentar contra los derechos fundamentales?

 

Por: Jhon Caballero Martínez 

A pesar de que la automatización de competencias se ha venido dando desde mediados del siglo XX, los avances de la ciencia en materia de procesamiento del lenguaje natural y las innovaciones sobre aprendizaje profundo de la última década, han llevado a la inquietud de si los algoritmos tienen el potencial de atentar contra las garantías fundamentales que se han demarcado entorno al Estado Social de Derecho.

En efecto, hay discusiones que giran sobre el derecho a la privacidad, el procesamiento de información con consecuencias jurídicas, el derecho a la explicabilidad, la ciberseguridad y el reconocimiento de otras garantías fundamentales. Sin embargo, antes de adentrarse sobre estos temas, es necesario hacer algunas precisiones sobre inteligencia artificial (IA).

La inteligencia artificial, de acuerdo con el concepto adoptado por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), es un sistema basado en una máquina que puede hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales a partir de un conjunto de objetivos definidos por un ser humano, y para ello, utiliza entradas de máquina basadas en humanos para percibir entornos reales virtuales, abstraer percepciones e inferir opciones de información o acción, de tal forma que los sistemas de IA están diseñados para operar con diferentes niveles de autonomía.

La importancia de esta tecnología radica en su potencial para mejorar la productividad, el bienestar y ayudar a sopesar tareas complejas, pero para su correcto funcionamiento, requiere contar con gran cantidad de datos, habilidades y flujos de trabajo organizacionales. Por lo tanto, la adopción de IA requiere de la estructuración y procesamiento de grandes cantidades de información.

Pese a los grandes costos de inversión, la IA ya está presente en asistentes virtuales como SIRI o Google Now, hasta bots automatizados al servicio al cliente en forma de chat. Las acciones y modelos de comportamiento en dispositivos móviles o computadores son monitoreados para extraer información y ofrecer publicidad dirigida que coincida con nuestros intereses.

Por tal razón, las tendencias en IA son tan diversas como la creatividad del programador mismo lo permita, mientras que los desafíos que se enfrentan en materia jurídica, se pueden dar frente a la tecnología de IA en sí misma o su aspecto social y de política pública.

En cuanto al carácter técnico, se tiene el reto de garantizar el correcto tratamiento en la protección de los datos personales de los usuarios. Se trata de una garantía que prevé la Constitución Política derivada del derecho a la intimidad, en donde el habeas data es el “derecho fundamental autónomo que busca equilibrar las condiciones entre el sujeto de quien se informa y aquel que tiene la capacidad de recolectarlo, almacenarlo, usarlo y transmitirlo”[1].

Los mecanismos de protección establecidos en la Ley 1581 de 2012, habían sido suficientes para responder al accountability requerido para el tratamiento de datos personales. Sin embargo, los desarrollos de IA llevaron a que tuviera un impacto significativo en materia de marketing y publicidad, en donde la IA permite la personalización de experiencias en línea. De esta manera, el contenido de los usuarios es monitoreado y descrito en modelos de comportamiento a fin de ofrecer productos o servicios segmentados, de los cuales el consumidor tiene más probabilidad de estar interesado.

Los adelantos no se quedaron allí y actualmente es posible desagregar los hábitos de consumo en toda clase de aspectos sociales. Si bien los desarrollos tecnológicos son beneficiosos, estos permiten extraer información de forma automatizada respecto del uso de tarjetas o medios de pago del sistema financiero, geolocalizar a usuarios para identificar los lugares que más frecuenta, identificar sus patologías y problemas de salud a través de la historia clínica, e incluso determinar la afinidad política a través de interacciones en diferentes redes sociales.

El tema es de tal trascendencia, que el Reglamento General de Protección de Datos Europeo previó en su artículo 22 la responsabilidad sobre las decisiones individuales automatizadas, de acuerdo con el cual se tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles. Al respecto, la Superintendencia de Industria y Comercio indicó en Concepto del 9 agosto de 2016 que el tratamiento de datos personales corresponde a “cualquier operación que se pretenda hacer con el dato personal, con o sin ayuda de la informática, pues a diferencia de algunas legislaciones, la definición que aquí se analiza no se circunscribe únicamente a procedimientos automatizados”.

En otro sentido, se ha venido debatiendo sobre el derecho a la explicabilidad del diseño y la operación del sistema de una IA, lo cual es extensión del derecho a la información. Los desarrollos actuales permiten el aprendizaje profundo para prever situaciones concretas y tomar decisiones, pero debido a la alta dimensionalidad y complejidad, los diseñadores no pueden proporcionar una explicación humanamente razonable de los procesos que realizan las máquinas para llegar a cumplir con el objetivo del diseño. Este elemento de confusión en la IA ha sido denominado como “cajas negras”, lo cual expone la dificultad para explicar cómo es que la IA llegó a determinada decisión o recomendación.

Lo anterior, encuentra más sentido cuando se analizan los algoritmos predictivos desde el sistema legal, en donde la IA tiene capacidades de predicción en la ocurrencia de crímenes y el estudio del procedimiento penal en la realización de evaluaciones de riesgos para los acusados.

Es el caso de la herramienta COMPAS, la cual se usa en algunas jurisdicciones en los Estados Unidos para hacer predicciones criminales; en un estudio de la organización ProPublica, se pudo descubrir que el 60% de las predicciones eran acertadas en todos los tipos de delitos, sin embargo, la tasa de precisión de predicción específica para delitos violentos fue solo del 20%. Es muy difícil entender por qué la IA tiene algunos resultados relevantes en delitos generales, pero no en delitos violentos, de esto se trata la opacidad de las redes neuronales que conforman la IA.

Además, el estudio señaló disparidades raciales, puesto que el algoritmo marcó falsamente a acusados negros como futuros delincuentes con el doble de frecuencia que a los acusados blancos. El uso de COMPAS fue impugnado en la corte con opositores que afirmaron que su naturaleza propietaria viola el derecho de los acusados al debido proceso. La Corte Suprema de Wisconsin aprobó el uso de COMPAS, pero se estableció que debe seguir siendo una herramienta de asistencia al juez, quien debe tener total discreción para determinar factores adicionales y sopesarlos en consecuencia.

De forma que, es evidente como el fenómeno de las “cajas negras” en la IA, puede llegar a tener implicaciones sobre el derecho a la información en materia de explicabilidad, atentar contra el derecho a la igualdad frente a otros individuos estudiados por la herramienta y el debido proceso en materia de procedimiento judicial.

Por otro lado, se tiene el desafío de evitar los sesgos en los datos estructurados que entrenan a la máquina, ya que podría tener múltiples implicaciones negativas en la marginación de grupos vulnerables e incluso la exacerbación de prejuicios discriminatorios. La IA no tiene el sentido lógico para entender la diversidad, por lo que el procesamiento de información por parte de sistemas de IA no sería igualitario para todos. No hay una forma técnica sencilla de otorgar la noción de discriminación positiva a un algoritmo, tal y como la razona un intérprete judicial humano.

Ahora, frente a los aspectos sociales, hay que enfrentar las cuestiones de brecha digital, el despliegue de tecnología y el desarrollo de políticas públicas acordes a principios éticos. Se requiere capacitar a los funcionarios de las entidades públicas y conformar equipos interdisciplinarios dentro la actividad administrativa para fomentar la apropiación digital.

En el mismo sentido, el ideal es contar con una política pública estructural que brinde seguridad jurídica a las tecnologías de la información y los modelos de negocio que surgen con ella. Esto se ha logrado en cierta medida con leyes y decretos que han reglamentado el reconocimiento de los mensajes de datos, la conectividad, gobierno en línea, protección de datos y otras materias específicas, que están aisladas desde la perspectiva institucional.

No se han delimitado principios éticos que se enmarcan en el escenario internacional y deben tenerse en cuenta para que la IA no atente contra la autonomía y los derechos fundamentales de los ciudadanos. A modo de ejemplo, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea, se ha referido a la importancia de delimitar la agencia humana dentro de los sistemas automatizados, de forma que la IA no debe interferir en la autodeterminación de los seres humanos, en la medida que estos toman decisiones informadas en el ejercicio de su libertad de expresión. En Colombia, la única aproximación a este referente es el CONPES de Transformación Digital e Inteligencia Artificial, pero no desarrolla los principios como tal.

A su vez, la privacidad y la gobernanza de datos adquiere un papel relevante, puesto que deben garantizarse mecanismos adecuados frente al derecho de habeas data, calidad e integridad de la información. Las personas tienen el derecho a ser conscientes de que una IA está analizando sus datos personales o que están interactuando con un sistema de IA, y de esta manera, alcanzar la prevalencia de la autonomía de la voluntad y el derecho a la autodeterminación, evitando influenciar a usuarios o encerrar a los individuos en un perfil de identidades. La auditabilidad debe ser un principio rector, permitiendo la evaluación de algoritmos, datos y procesos de diseño.

De manera que, la inteligencia artificial y los desarrollos de algoritmos si tienen el potencial de atentar contra los derechos fundamentales, sin embargo, ello no debe ser excusa para potencializar ideas fatalistas, sino que por el contrario, es una oportunidad para pensar en protocolos o estándares que promuevan el desarrollo de características técnicas con el objetivo de superar las barreas y se abrir espacios académicos para estas discusiones.

Referencias:

[1] COLOMBIA. CORTE CONSTITUCIONAL. Sentencia T – 1085. (11 de octubre de 2001). Magistrado Ponente: Jaime Araujo Rentería.