Los riesgos y desafíos de la inteligencia artificial según expertos chilenos
La inteligencia artificial ya no es cosa del futuro: organiza tareas, responde preguntas y transforma la forma en que trabajamos, pensamos y nos relacionamos. En un nuevo episodio de Hablemos de Chile, la periodista Lucía López conversa con tres expertos sobre los riesgos, beneficios y la urgente necesidad de regular esta tecnología.
La inteligencia artificial (IA) ya está en nuestra vida: te organiza tareas, responde preguntas y ayudar a gestionar el tiempo con solo una orden. Pero también ha cambiado nuestra manera de trabajar, pensar y de relacionarnos. Esta transformación fue el tema de conversación del nuevo episodio de “Hablemos de Chile”, programa conducido por la periodista Lucía López.
En el espacio, López consultó a tres destacados académicos sobre los cambios que ha generado la inteligencia artificial en nuestras vidas, así como sus riesgos y beneficios. Los expertos Abel Wajnerman, académico del Instituto de Éticas Aplicadas de la UC; Claudia López, académica en Informática de la UTFSM e investigadora del Centro Nacional de Inteligencia Artificial; y Cristóbal Joannon, académico de Filosofía en la UAI, coincidieron en que preocupa el nivel de incontrolabilidad de la IA y que es necesario establecer una regulación que defina estándares y garantice transparencia, especialmente frente a los sesgos que pueden afectar a distintos grupos sociales.
Expertos advierten sobre los riesgos de la IA
Uno de los riesgos de la IA, mencionado por Abel Wajnerman, es el uso que tiene la IA en materias completamente humanas. “Ahora en todo el mundo hay inteligencias artificiales que fueron desarrolladas para realizar tareas terapéuticas, o sea actuar como psicólogos por ejemplo”, indicó, “pero hay mucha gente que está tratando de hacer eso con ChatGPT o con herramientas que no fueron desarrolladas para eso, pero las están usando para tener compañía o cosas por el estilo. Ese tipo de aplicaciones son un poco preocupantes, hay personas que tratan de casarse, o tener amigos o parejas con modelos de inteligencia artificial”, indicó.
Por su parte, el académico de filosofía en la UAI, Cristóbal Joannon, señaló que le llama la atención el cómo se ha instalado la IA en el mundo de la robótica. “En cómo los robots se están comportando… ahora bailan, son capaces de pasarse un huevo —digamos— de una mano a otra sin que se rompa. Uno ve videos recientes y como que no puede creer que esto sea real”, indicó.
En este sentido, el experto aseguró que esa integración va a tener implicancias en la empleabilidad. Pero no solo eso, sino que también en cómo se está desarrollando o disminuyendo la creatividad y el pensamiento crítico con el uso de la inteligencia artificial generativa.
“Por ejemplo, tú puedes conversar con un libro: lo cargas y puede generar una conversación entre dos personas muy animada, incluso con un tono de voz no demasiado distinto a este… y esto mejora mes a mes. Por lo tanto, son recursos realmente sorprendentes. Pero tienen un revés: en el fondo, tú ya no lees el libro. Entonces tienes un diálogo, un podcast animadísimo sobre el libro… pero no estás leyéndolo”, dijo y agregó: “Y creo que hay algo muy importante ahí. Ya estamos viendo que la gente deja de leer y escribir, y eso nos lleva al tema educativo. La pregunta es cómo vamos a afrontar la educación. ¿Qué transformación va a tener la educación para que las personas, en el futuro, puedan adaptarse?”, concluyó.
Además de esos desafíos, la IA han generado problemas para una multitud de personas, incluyendo grupos particulares como las mujeres o personas de clases sociales bajas, y la falta de transparencia sobre quién está utilizando estas herramientas y cómo funcionan.
“Yo creo que a nivel ciudadano, pienso que a nivel personal, hay harto que hacer”, dijo Claudia López, investigadora del Centro Nacional de Inteligencia Artificial, sobre los problemas que presenta la IA en la vida cotidiana. “Pero creo que no es justo darle la mochila de hacernos cargo de la inteligencia artificial a la usuaria y al usuario que tiene que vivir su vida y tener pensamiento crítico, pero además ser supervisor de la inteligencia artificial. A mí me parece que eso no va a dar el ancho, básicamente. No va a ser suficiente”, comentó.
Para la investigadora, “hay que tener una discusión pública” sobre el funcionamiento de la IA. “Entonces me parece a mí que ahí sí hay que regular, porque sí tenemos que tener cierto nivel de permisología (…) Me parece que lo que le hace falta a la inteligencia artificial es tener estándares de cómo es que nos vamos a evaluar antes de salir al mercado. No podemos salir al mercado y simplemente ver cómo funciona, y ver cuáles son los efectos que tiene una tecnología que le va a afectar la vida a la gente.”, explicó.
En ese sentido, es importante que exista un nivel de transparencia de la inteligencia artificial. Para Claudia López es “que sepamos dónde está, y que después sepamos evaluarla, y saber si funciona, o cuán bien funciona, o cuán mal funciona. Y si funciona mal, establecer niveles mínimos y cuáles son las formas de corrección”, concluyó.


