Dra. Isabel Cornejo Plaza del IID publica junto al Dr. Roberto Cippitani columna en La Tercera en el marco del Proyecto INTACT
29 abril 2024
Nuestra Investigadora del IID Dra. Isabel Cornejo Plaza publicó el 23 de abril de 2024 junto al Dr. Roberto Cippitani una columna titulada «El futuro de la Inteligencia Artificial en suspenso», en el diario La Tercera. Cabe señalar que la UA con el IID son parte del consorcio de Universidades lideradas por la Universidad de Perugia del Proyecto INTACT. Más informaciones del proyecto en https://intactproject.eu/
El vertiginoso avance de las aplicaciones de la Inteligencia Artificial (IA) y su asombrosa popularidad en todo el mundo queda demostrado por ejemplo de las más de mil aplicaciones de Large Language Model que se encuentran en el mercado para proporcionar herramientas de la más variada índole. Tal masificación no se encuentra exenta de la enorme preocupación por los efectos no previstos e impensados en sus comienzos, lo cual ha llevado a la prohibición de su uso en ámbitos educacionales, a políticas de transparencia en las empresas editoriales, por ejemplo, además de la moratoria impulsada por Elon Musk una vez que quedó fuera de juego con Open AI.
La cuestión central es por qué a fines de 2022 la irrupción del Chat GPT despertó tal nivel de atención que aumentó su suscripción sin haberse pensado o revelado las verdaderas falencias que actualmente constatamos de manera patente y que sin embargo no son capaces de hacer fuerza a las visiones apocalípticas del fin de la humanidad por el reemplazo de supuestas habilidades atribuidas a la IA.
Es curioso que este fenómeno se compare con una revolución o con un nuevo renacimiento, cuando en verdad se trata de un desarrollo que comenzó en el siglo pasado, solo que con el uso de la IA generativa las esperanzas y miedos que despierta lo desconocido, se reverberaron con una fuerza quizá impostada y ficticia. Resulta curioso porque esas esperanzas cifradas en una perfección que no es tal dieron paso a normativas que evidenciaron la necesidad de regular los riesgos de una máquina que actúa de manera imperfecta. Los riesgos se incrementaron porque la IA reproducía la naturaleza humana en todo aquello que la civilización ha logrado disciplinar, los prejuicios llamados en esta nueva jerga lingüística sesgos, los hay de diversa índole, como el edaísmo (discriminación a las personas ancianas), algunos ejemplos triviales son el corte de edad para elegir a un trabajador, o cuestiones más rebuscadas como las estructuras gramaticales que usa la IA, que pueden ser rígidas y dejar fuera a interlocutores más añosos. En cuanto al género habría mucho que decir, por ejemplo en materia de investigación se cita más a los investigadores hombres, los centros de poder son dirigidos por hombres etc. Las discriminaciones de género se incrementan si además adicionamos un factor como la raza que en sí mismo es también profundamente prevalente en la IA, por ejemplo recientemente en una universidad norteamericana los detectores de plagio del software Turnitun acusaron a estudiantes no nativos del inglés de usar IA en sus asignaciones. Sin embargo, posteriormente se dio a conocer que los resultados del estudio poseían un sesgo racista porque contenía un porcentaje de 61% de error a disfavor de los no nativos parlantes del inglés.
Otra falencia de la IA que nos hace pensar que sus alcances no son tan espectaculares es la trivialidad de sus razonamientos y respuestas. Vemos que los resultados arrojados por el Chat GPT son ordenados bajo una (aparente) perfecta semántica, pero sin la creatividad de la inteligencia humana, sin la sorpresa, la sofisticación o los giros impensados propios de la inteligencia humana; la IA solo sirve para una muy básica aproximación de los fenómenos por los cuales se le pregunta. Posee destrezas de orden, categorización, clasificación, pero no genera ideas disruptivas, pensamiento crítico, sino que repite lo que se puede encontrar en Wikipedia o en un buscador estándar. Por otro lado, las alucinaciones de la IA son tan grotescas que es fundamental desconfiar de la información que entrega, ya que existe la paradoja que los errores están escritos de manera bastante correcta en cuanto a estructura gramatical y en el idioma que se elija.
Otra falencia de la IA generativa es que conculca nuestras ideas sobre el derecho de propiedad, propio de la modernidad es la apropiación que la IA hace de todo lo que está en la web como insumo para recabar información y combinarla en cálculos algorítmicos, los cuales no otorgan crédito a quienes concibieron dichas ideas y pensamientos, sino que la IA lo toma como un simple dato, en lo que podría hacernos retroceder sino se le pone coto, a la edad media donde la idea de propiedad intelectual no existía tal como la concebimos hoy en día.
Probablemente la IA no es tan revolucionaria ni tampoco distópica como se dice, o por lo menos parecen exageradas las continuas declaraciones y predicciones apocalípticas sobre el futuro de la humanidad a propósito de los vertiginosos desarrollos de la inteligencia artificial, como las recientes de Elon Musk o Jamie Dimon. Más que consideraciones técnicas, previsiones sociológicas o simplemente preocupaciones personales, los verdaderos motivos de aseveraciones tan extremas parecen asociadas a cuestiones de competencia entre gigantes tecnológicos o medios para conseguir más recursos financieros, independientemente de la viabilidad tecnológicas de las aplicaciones de la IA. Recientemente Gary Gensler, presidente de la Securities and Exchange Commission (SEC), la agencia federal estadounidense encargada de supervisar las bolsas de valores, ha usado concepto de “AI washing” para denotar la estrategia utilizada por las empresas que mencionan la inteligencia artificial en sus informes, a menudo sin ninguna base concreta, para aumentar su visibilidad en los mercados.
La realidad, como dice el filósofo Floridi, es que la IA no es una nueva forma de inteligencia superior a la humana, si no una nueva poderosa forma de actuar que puede afectar a la humanidad si no diseñada y utilizada teniendo en cuenta valores como la dignidad y la solidaridad. Desde este punto de vista la IA es como otras tecnologías (piénsese en las biotecnologías o en las neurotecnologías) que pueden expresar su potencial benéfico solo si protegen los derechos de las personas y otros intereses fundamentales como el medioambiente.
Finalmente, en lugar de invocar perspectivas irrealizables o amenazar peligros inexistentes, se debería suscitar interés en la IA (incluso de los inversores) garantizando su desarrollo “ético” y por tanto sostenible.
This project has received funding from the European Union’s Horizon 2020 research and innovation programme under the Marie Skłodowska-Curie grant agreement No 101007623.