La protección de los DD.HH. frente al avance de la inteligencia artificial

Esta columna fue publicada originalmente en EstadoDiario el 14.08.2020

Por Jhenny Rivas Alberti * y Alexander Espinoza **

Los programas que utilizan inteligencia artificial se presumen como neutros y se entiende que, al decidir sobre un determinado aspecto, una maquina lo hará de manera objetiva. No obstante, esos programas se entrenan con datos que en sí mismos pueden incluir prejuicios que refuerzan la discriminación, pero haciéndola más difícil de identificar. 

Casos emblemáticos

En Estados Unidos un informe de ProPublica reveló que un programa que se usaba en los tribunales de Estados Unidos para calcular la probabilidad de reincidencia de los acusados de la comisión de un delito utilizaba una fórmula que era particularmente propensa a señalar falsamente a los acusados negros como futuros delincuentes, etiquetándolos erróneamente de esta manera casi el doble de veces que a los acusados blancos y, además, los acusados blancos fueron etiquetados erróneamente como de bajo riesgo con más frecuencia que los acusados negros1

En el caso de buscadores como Google, su algoritmo hace uso de la inteligencia artificial para optimizar la indexación de la información. Lo mismo ocurre con plataformas de vídeo como Youtube o redes sociales como Facebook. Esto supone que utilizando la información que tienen de sus usuarios estas empresas personalizan los resultados que éstos obtienen. Como se trata de empresas que buscan maximizar sus resultados, los algoritmos no van a tener en cuenta criterios como la pluralidad de la prensa que es básica en una sociedad democrática, sino que van a buscar exponer a sus usuarios las ideas que les gusten, que compartan y que en cierta manera refuercen lo que ya piensan sobre un tema creando así burbujas informativas2.

Otro ejemplo es el de un programa desarrollado por Amazon para buscar talento y filtrar los currículos para la contratación de nuevos empleados que fue descartado por descubrirse que discriminaba a las mujeres. También la tecnología,  favoreció a los candidatos que se describían a sí mismos usando verbos más comúnmente encontrados en los currículums de los ingenieros masculinos, como “ejecutados” y “capturados“3. Este tipo de programas se utilizan cada vez más en la selección de personal y pueden tener efectos que limiten el acceso de determinados grupos al mercado de trabajo manteniendo o incluso en algunos casos profundizando situaciones históricamente discriminatorias.

Por otra parte, un importante problema para las plataformas de contenido ha sido el de moderar comentarios; algo que Facebook, Twitter y otras plataformas con todas sus herramientas aún tienen dificultades para controlar. El anonimato que confiere internet es un caldo de cultivo para los denominadores “haters”, puesto que pueden difundir discursos ofensivos, propagar noticias falsas, mensajes de acoso, entre otros, La inteligencia artificial se presenta como la solución tecnológica. Frente al desborde de este tipo de discurso, la IA detecta un gran número de mensajes de odio, a través de implementaciones como el aprendizaje autosupervisado, para permitir que los algoritmos se alimenten de datos que enseñen a las máquinas a detectar en forma automática este tipo de contenidos en grandes volúmenes de texto en varios idiomas; el uso de la visión computacional para identificar lo mismo en las imágenes; o el aprendizaje multimodal que cumple la misma función pero puede aplicarse en publicaciones que combinan texto, imágenes, videos y sonidos4.

Todas estas innovaciones han permitido avances a estas plataformas, pero tienen limitaciones, porque los algoritmos no tienen el entrenamiento suficiente para hacer un análisis tan eficaz como el que haría un humano, que es capaz de interpretar la intencionalidad o el mensaje oculto, adecuándose al contexto o el uso de recursos como la ironía. De tal forma, pueden surgir limitaciones a la libertad de expresión frente a discursos que no constituyen verdaderos discursos de odio.

Un estudio publicado por el Berkman Klein Center de la Universidad de Harvard en septiembre de 2018 sobre inteligencia artificial y derechos humanos ha destacado la proyección de la inteligencia artificial en aspectos muy diferentes como pueden ser los procesos de préstamo, la salud, la contratación, la información, procesos migratorios, entre otros5.

En 2018 la Unión de Libertades Civiles de Nueva York reveló que en 2017 el Software de Evaluación de Clasificación de Riesgos que utilizaba desde 2013 el Servicio de Inmigración y Control de Aduanas de los Estados Unidos para ayudar a decidir, en procesos de deportación, si un inmigrante debía ser detenido o si podía ser puesto en libertad bajo fianza hasta el momento de la decisión definitiva, había sido manipulado para favorecer las detenciones6

El marco regulatorio

El uso de inteligencia artificial tiene efectos directos sobre los derechos fundamentales, por lo que debe avanzarse en el establecimiento de parámetros éticos e incluso de un marco regulatorio. Tales decisiones no deben quedar sólo en manos de las compañías tecnológicas. Los actuales sistemas y software de alta tecnología merecen un análisis particular. De especial interés resultan los sistemas y software que se vuelven progresivamente independientes de los humanos y ejecutan tareas que convencionalmente requieren inteligencia humana. Sobre esta materia se plantean, entre otros cuestionamientos, preguntas sobre la transparencia de la IA y los sistemas “autónomos”. ¿Cuáles valores sustentan estos sistemas de forma efectiva y demostrable? Al tiempo que también debemos preguntarnos ¿cuáles valores estamos permitiendo que sean vulnerados, en favor del progreso tecnológico?

La Comisión Europea ha destacado la importancia de profundizar el establecimiento de un marco ético y jurídico apropiado, basado en los valores de la Unión y en consonancia con la Carta de los Derechos Fundamentales de la UE, a los fines de elaborar directrices éticas en la materia. En este sentido encontramos la Declaración sobre Inteligencia artificial, robótica y sistemas “autónomos” del Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías, de 9 de marzo de 2018. En dicho documento, se insta a iniciar la construcción de un marco ético y legal común e internacionalmente que abarque el diseño, producción, uso y gobernanza de la inteligencia artificial, la robótica y los sistemas “autónomos”. Se establecen además unos principios éticos fundamentales que pueden servir de guía para el desarrollo de este marco ético y legal. 

Algunas iniciativas destacadas en la formulación de principios éticos para la IA y los sistemas “autónomos”, provienen de la industria y de los profesionales y sus respectivas asociaciones. Entre estas iniciativas es importante destacar el tratado “Diseño Éticamente Alineado” del IEEE (Instituto de Ingenieros Eléctricos y Electrónicos), la Cumbre Global “IA para el bien” de la IUT (Unión Internacional de Telecomunicaciones), que se llevó a cabo en el verano de 2017, y el trabajo de la ACM (Asociación para Maquinaria Computacional), donde cabe destacar la conferencia AAAI/ACM “IA, Ética y Sociedad”, que se llevó a cabo en febrero de 2018. Otros ejemplos dentro del sector privado son los esfuerzos de las compañías IBM, Microsoft y DeepMind de Google, que han establecido sus propios códigos éticos para la IA y han unido esfuerzos para crear iniciativas de gran alcance. Entre ellas se encuentran la asociación Partnership on AI y OpenAI, que generan coaliciones entre industria, organizaciones sin fines de lucro e instituciones académicas. Sin, embargo es claro que los estados deben hacerse cargo. En el ámbito de la Unión Europea se han elaborado numerosos documentos en esta línea.

Entre los principios éticos y requisitos democráticos que deben seguirse para la formulación de un conjunto de directrices éticas que sirvan de base para el establecimiento de normas y medidas legislativas globales, se han propuesto, con carácter enunciativo, la dignidad humana, solidaridad, justicia, equidad, democracia, Estado de derecho, rendición de cuentas, seguridad, protección, integridad física y psíquica, protección de datos y privacidad, sostenibilidad. Estos principios éticos y requisitos tienen como base común los Derechos Humanos. 

La inteligencia artificial, nos está ayudando a resolver algunos de los principales retos a los que se enfrenta nuestro mundo. Entre otros muchos usos, en materia de energía, educación, agricultura. Desde el tratamiento de las enfermedades crónicas o la reducción de las tasas de mortalidad en los accidentes de tráfico, pasando por la lucha contra el cambio climático o la previsión de las amenazas a la ciberseguridad7, el catálogo es abierto y las posibilidades muy amplias. Este uso cada vez más común y extendido de la inteligencia artificial ha obligado a plantearse la necesidad de garantizar un elevado nivel de protección de datos, así como de los derechos digitales y las normas éticas. La perspectiva de derechos humanos es el punto de partida para afrontar el avance de la inteligencia artificial en números aspectos de nuestra vida.

 * Jhenny Rivas Alberti es Abogada suma cum laude Universidad Central de Venezuela, Doctora en Derecho por la Universidad de Zaragoza y DEA en Derecho Político. Académica de la Universidad Autónoma de Chile, Facultad de Derecho.

 * Alexander Espinoza es Abogado Universidad Santa María, Doctor en Derecho por la Universidad de Passau, Magister Legum Universidad de Passau. Académica de la Universidad Autónoma de Chile, Facultad de Derecho

Menú
X