Investigador Dr. Francisco Bedecarratz fue consultado en reportaje de La Tercera sobre la Inteligencia Artificial y los deepfakes
15 marzo 2023
El investigador del IID, Francisco Bedecarratz participó del reportaje del periódico La Tercera sobre el tema de la utilización de la Inteligencia Artificial y los deepfakes.
A continuación el extracto del reportaje donde el académico explica la legislación:
“Esta tecnología, al igual como con casi todas las que aparecen en la historia, nacen en contextos donde regulatoriamente no hay nada escrito”, asegura Bedecarratz.
Según detalla el investigador, existían ciertas regulaciones en cuanto a los computadores, al uso de la red, pero en cuanto a la creación de contenido “original” a través de entes que no son humanos no había nada escrito en los primeros años de la década del 2000. Recién en 2015 empezaron a existir regulaciones en la materia.
“A medida de que empezaron a masificarse, en 2016 y 2017, existía poco y nada de regulación en la materia. Y si no está la legislación ¿Qué se está haciendo? Tenemos algo de regulación ética que pueda encausar de alguna manera el desarrollo de esta tecnología”, explica.
Asimismo, el ingeniero en IA e investigador del Centro Nacional de Inteligencia Artificial, Cristian Irribarra, manifiesta que “es un tema super complejo y urgente. Hay varias empresas y organizaciones que trabajan en esto porque se requiere una legislación urgente”. Según cuenta, los deepfakes son la forma más visible y visceral para evidenciar estas cosas, porque son videos que nos pueden engañar, pero son totalmente ficticios. “Cualquier persona puede subir este tipo de cosas sin un respaldo real”, acusa el experto en IA.
Frente a la lentitud de los Estados en la regulación y legislación, algunas organizaciones supraestatales, ONG, empresas y organizaciones de la sociedad civil han creado parámetros y listados de lineamientos éticos que regulan la inteligencia artificial. Estos los publican como “directrices éticas sobre Inteligencia Artificial”, y son básicamente documentos que listan principios y lineamientos éticos en cuanto a el desarrollo y el uso de estos algoritmos y sistemas de IA, de los cuales crean deepfakes.
Allí se norma, por ejemplo, en cuanto al uso de armas autónomas letales, los sistemas de algoritmos de selección de personal en una empresa que permiten filtrar cuáles son los perfiles más atractivos para cada postulación. O, también, un algoritmo que se dedica a revisar cuál es el índice de reincidencia de un criminal para poder evaluar si se le da o no libertad condicional, que se aplica ahora en Estados Unidos.
El experto en Ciberseguridad de la Universidad Autónoma agrega que los cinco principios que han determinados, los más relevantes, son: Transparencia, es decir los resultados de la IA y los conjuntos de datos que gobiernan las decisiones que lo fundan tienen que ser revisados y explicados transparentemente a sus usuarios de esta tecnología. Justicia: no puede un algoritmo de IA discriminar de manera arbitraria. Seguridad, no puede ser maléfica o en detrimento de una persona. No puede usarse con fines maliciosos, y eso incluye el uso de armas autónomas o cualquier acción dentro de una guerra cibernética. Responsabilidad: es necesario saber quién está detrás de un algoritmo y poder pedirle explicaciones, y tengo que poder concurrir en derecho en contra del autor, si es que ese algoritmo me genera daño. El último principio es la Privacidad: es decir el algoritmo de IA no puede utilizar de manera desautorizada los datos personales y no pueda infringir mi privacidad en ese sentido.
Sin embargo, el problema es que la naturaleza de estas directrices habla sobre cómo tiene que actuar en ciertas situaciones. “Pero sabemos que no tienen ninguna forma de ejecutarse en la práctica de manera estricta”, enfatiza Bedecarratz.
Lee la noticia completa aquí