España avanza un paso más en la regulación de la inteligencia artificial
7 septiembre 2022
Como hemos comentado en otras oportunidades la inteligencia artificial tiene un gran potencial para ofrecer un sinnúmero de productos y servicios que mejoren la calidad de vida de las personas, pero al mismo tiempo, la experiencia de los últimos años ha demostrado que puede conllevar también ciertos problemas y dilemas éticos; y que sus impactos negativos pueden verse en algunos procesos de toma de decisiones, en campos tan diversos como el empleo, las relaciones sociales, la atención médica, los servicios financieros, la educación, y un muy largo etcétera.
Por eso han surgido múltiples propuestas contentivas de principios y valores repensados para poner a los sistemas de inteligencia artificial “al servicio de la humanidad, las personas, las sociedades, el medio ambiente y los ecosistemas, así como para prevenir daños”, tal y como lo hace, por ejemplo, uno de los documentos más importantes al respecto que es la “Recomendación Sobre La Ética De La Inteligencia Artificial”, adoptada por la UNESCO en noviembre de 2021.
Con las recomendaciones, guías y directrices éticas en este campo se ha buscado también ofrecer algunas bases para la adopción de políticas y leyes que garanticen y promuevan, entre otras cosas, el respeto a los derechos humanos, la inclusión, la igualdad, la transparencia, la responsabilidad, la confiabilidad y la protección del medio ambiente, entre otros; los cuales deben observarse en todas las etapas del ciclo de vida de los sistemas de inteligencia artificial.
En ese sentido, ya existe suficiente evidencia de que los efectos negativos que pueden tener los sistemas de inteligencia artificial hacen necesario contar con dichos principios y valores repensados para hacerles frente, pero también que son necesarias otras herramientas.
Entre los ejemplos que podemos mencionar, se encuentran los sesgos que, en caso de no gestionarse y corregirse se trasladarán a los sistemas generando efectos discriminatorios. Así lo hemos visto en el caso de algunos sistemas automatizados para la contratación de personal o con sistemas de reconocimiento facial que no reconocen (valga la redundancia) a personas de ciertas razas. De esta forma, la envergadura de los derechos involucrados muestra que se requieren mucho más que meras recomendaciones para combatir la discriminación algorítmica, por lo que, en ocasiones serán necesarias algunas medidas legislativas para regular e incluso exigir ciertas obligaciones y solicitar revisiones en aquellos casos en los que la aplicación de un algoritmo perjudique, favorezca o discrimine arbitrariamente a una persona.
Una prueba de que disposiciones de este tipo pudieran no ser redundantes es la existencia de organizaciones como la Startup “Sanas” que parecen no ver ningún problema en ofrecer un servicio que promete utilizar la inteligencia artificial para “convertir el acento de los trabajadores de los call centers al «inglés americano estándar»”. Lo cierto es que en su sitio web se señala que “el futuro suena como tú” (2), lo que nos hace preguntarnos si una herramienta de este tipo combatirá los prejuicios o los perpetuará, y, en este último caso ¿habría que hacer algo? (3)
Lo cierto es que, ante usos de algoritmos que pueden derivar en impactos negativos y vulneraciones de derechos fundamentales se requieren medidas preventivas, correctivas y sancionatorias. En ese sentido, el pasado 13 de julio de 2022, se publicó en el BOE núm. 167 la “Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación”, circunstancia que marca un importante hito en la regulación de la inteligencia artificial en España.
Esto es así porque como su título sugiere y se puede leer en su artículo 1 con dicha ley se pretende “garantizar y promover el derecho a la igualdad de trato y no discriminación”, así como “respetar la igual dignidad de las personas”. Para lo cual regula derechos y obligaciones de las personas, físicas o jurídicas, públicas o privadas; establece principios y medidas para prevenir, eliminar y corregir toda forma de discriminación, directa o indirecta. Lo interesante en relación con el tema que nos ocupa en esta oportunidad es que, aunque la mencionada ley contiene sin duda más de un aspecto relevante, su artículo 23 se refiere a la “Inteligencia Artificial y mecanismos de toma de decisión automatizados”.
En consonancia con la Estrategia Nacional de Inteligencia Artificial, la Carta de Derechos Digitales y de las diversas iniciativas europeas sobre la Inteligencia Artificial, la citada norma contiene cuatro numerales especialmente dirigidos a hacerle frente a los sesgos discriminatorios en el contexto de la IA.
Así, se establece, en primer lugar, que las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos utilizados en ellas para la toma de decisiones tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que ello sea factible técnicamente. Asimismo, que en dichos mecanismos se incluirán el diseño y datos de entrenamiento, siendo necesario también evaluar el potencial impacto discriminatorio. En segundo lugar, se establece el deber de priorizar la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos. En tercer lugar, el deber no solo para las administraciones públicas, sino también para las empresas de promover el uso de una inteligencia artificial ética, confiable y respetuosa con los derechos fundamentales. Finalmente, en cuarto lugar, se señala que se promoverán los sellos de calidad de los algoritmos.
Aunque como se observa la norma no define con precisión en qué consisten o deben consistir esos “mecanismos” ni lo que habrá de entenderse por “minimización de sesgos”, se ajusta a las tendencias internacionales actuales y, especialmente a la propuesta de Reglamento Europeo de Inteligencia Artificial que establece, entre otras cosas, criterios de calidad, gobernanza y gestión de datos (artículo 10); deberes de transparencia y comunicación de información (por ejemplo, en el artículo 13; rendición de cuentas (por ejemplo, en el artículo 17, literal m). Y, también al Reglamento de protección de datos mejor conocido como “GDPR”(4) que a fin de aumentar la transparencia promueve el establecimiento de mecanismos de certificación, sellos y marcas de protección de datos (Considerando 100 y artículo 42).
Como se ve, aunque puntual, el anterior es sin duda un avance significativo en la regulación de la inteligencia artificial en España.
fuente: España regulación inteligencia artificial – A definitivas