Director del Grupo de Investigación IA+D, Dr. Francisco Bedecarratz, es entrevistado por Diario Financiero
El abogado, especialista en derecho e IA, abordó estas materias y sus implicancias éticas, en medio de bullados casos públicos y su impacto en la protección de datos personales.
– ¿Qué es lo que más le preocupa respecto del desarrollo de la IA?
– Mis preocupaciones no están dirigidas a la labor del Estado. Donde creo que sí puede existir un riesgo importante es que ya no vamos a saber en qué confiar. La era de la información libre se acabó, que está hace 30 años donde la información es confiable, accesible, rápida, gratis y de calidad, donde todos podíamos realizar trabajos ya se acabó con el advenimiento de la IA.
El perfeccionamiento de sistemas algorítmicos capaces de producir texto, imágenes y videos, son capaces de generar información falsa, deepfakes y sustituciones de rostro.
Todos los mecanismos de control de identidad que existen hoy están obsoletos, porque todo puede ser falsificado. Es un riesgo que ya se está materializando y es casi indistinguible el texto generado por una IA con el real, y eso va a tener un impacto grave.
– ¿Cómo se logra que los creadores resguarden bordes éticos en sus desarrollos?
– Es un gran tema. No tenemos una regulación específica en torno a la IA y lo único que nos queda son preceptos éticos. Hay lineamientos éticos que han ido encausando un poco el asunto. Buscan establecer ciertos límites para su utilización en materia educacional, laboral, armamentista, diseñado por gobiernos y organizaciones de la sociedad civil (…) Se deberían seguir esas experiencias.
Regulación e IA
– ¿Cómo evalúa el proyecto de ley de inteligencia artificial (IA) que se discute en el Congreso? ¿Es partidario de desecharlo e ingresar otro?
– En una tecnología que tiene un impacto tan grande, es bueno regular. La inteligencia artificial en sí puede ser utilizada para cosas muy buenas, pero también puede tener un impacto muy negativo, por ejemplo en propiedad intelectual.
La propuesta actual es muy perfectible, porque es muy general, regula en una extensión muy breve una materia que es muy grande y que tiene repercusiones en todos los ámbitos de la sociedad.
Si bien incorpora un poco la óptica que utilizó la Unión Europea (UE), el proyecto es demasiado flaco y debería ser más minucioso, detallado y menos invasivo; implementa una prohibición de desarrollar sistemas de IA y exige una licencia o autorización del Estado, lo cual en una sociedad libre es absurdo, no tiene ningún sentido.
– ¿Cuáles son las urgencias que debe hacerse cargo el país para abordar el desarrollo de la IA?
– El enfoque que propuso la UE de establecer ciertos ámbitos en las cuales la utilización o el desarrollo de sistemas de IA presenta un riesgo inaceptable es correcto. Chile tiene que definir algunas materias en las que se sabe que no va a entrar a desarrollar sistemas de IA.
Lo que debería regularse con mayor detalle son, por ejemplo, los sistemas que maliciosamente manipulen la opinión pública pensando en las próximas elecciones y la entrega de mensajes subliminales. Son ideas buenas de urgencias.
Otra muy importante es la utilización de la IA en la seguridad pública, porque nos pueden resolver muchos problemas, pero el impacto que esto tiene en cuanto a la privacidad de los datos personales tiene que regularse minuciosamente.
– Aún no se aprueba la ley de protección de datos personales en un contexto como el de Worldcoin y escaneo del iris. ¿Cuál es su visión de este caso?
– Es una empresa que depende de uno de los fundadores de OpenAI, Sam Altman, y propone captar y hacer un mapeo de iris a cambio de una determinada suma de dinero que se paga en criptomonedas.
Caso Worldcoin: “Detrás de eso hay un acto de importantes consecuencias, porque la gente lo banaliza. Por una cantidad muy reducida de dinero y, de una forma poco transparente, se está entregando información fundamental de tu cuerpo. (…) Lo considero muy crítico y grave”.
Ahora, detrás de eso hay un acto de importantes consecuencias, porque la gente lo banaliza. Por una cantidad muy reducida de dinero y, de una forma poco transparente, se está entregando información fundamental de tu cuerpo, es decir, un dato biométrico, que son características únicas y medibles para identificar de manera indubitable con respecto a todo el resto.
Se han presentado recursos de protección para detener la recolección de datos personales, porque los consentimientos ahí no son transparentes y no se ha dicho para qué se quiere usar este tipo de dato personal de manera clara.
Lo considero muy crítico y grave. No se le está tomando el peso adecuado.
-Otra área de rápido avance son las neurotecnologías, tanto para la entretención como la medicina, dispositivos de interfaz cerebro-computadora, como Neuralink. ¿Cómo se debería regular su desarrollo?
– La neurotecnología se enlaza con el concepto de las neurociencias, que es sumamente amplio e integra muchos aspectos. Tiene cierta regulación y protección en Chile en el artículo 19 de la Constitución que establece que el desarrollo científico y tecnológico estará al servicio de la persona y se llevará a cabo con respecto a la integridad física y psíquica, es decir, los famosos neuroderechos.
En relación a este caso también recuerdo, y se ganó en una causa, la sentencia de Emotiv que dictó un precedente muy importante, porque a nivel mundial fue la primera operacionalización de una norma que protegía la integridad neurológica.*