08 de Julio de 2024
Aproximaciones críticas hacia el uso de la IA en la Cátedra Unesco Ulima
Debido a que la adopción de la IA ocurre desde el estudiante y no desde el profesor, se ha encontrado un significativo rechazo al uso de la inteligencia artificial (IA) en las aulas por riesgos como la pérdida de integridad académica, afirmó Arianna Valentini, analista sénior de políticas de investigación y prospectiva en el Instituto Internacional de la Unesco para la Educación Superior en América Latina y el Caribe, durante su intervención en el conversatorio Cátedra Unesco: “Impacto de la IA en la educación superior en Iberoamérica. Desafíos, oportunidades y prospectivas”. El evento fue organizado por la Facultad de Comunicación de la Universidad de Lima el 27 de junio y contó con las palabras de bienvenida de Carlos Rivadeneyra Olcese, decano (e) de la Facultad de Comunicación Ulima, y la moderación de Melissa Huamán, docente de la mencionada facultad.
Valentini recomendó que toda institución educativa superior debe contar con una guía que regule el empleo de esta herramienta y plasme reglas claras para todos. Asimismo, precisó que la IA impacta en todas las disciplinas académicas y, por eso, es urgente que las universidades replanteen la adopción de esta tecnología:
“La idea es evaluar el uso de la IA como un instrumento más, sin que esto signifique que esta herramienta suplante a un docente. La IA va estar presente en la vida de todos, no solo en la de los estudiantes de alguna disciplina vinculada a esta tecnología, también en la de los alumnos de comunicación, historia o filosofía. La idea es que todos cuenten con nociones básicas para observar con ojo crítico lo que la IA proporciona”.
En el evento, participaron Julio César Mateus, docente e investigador de nuestra Carrera de Comunicación; Manuel Alejandro Guerrero, investigador de la Universidad Iberoamericana (México) y miembro de la Academia Mexicana de Ciencias; Carlos Eduardo Cortés, integrante del programa de Comunicación Social de la Facultad de Comunicación y Lenguaje de la Universidad Javeriana (Colombia) y editor de la revista TV Technology América Latina; y Amparo Huertas Bailén, profesora de la Universidad Autónoma de Barcelona y directora del Instituto de la Comunicación (InCom-UAB).
En su intervención, Manuel Alejandro Guerrero agregó que se debe observar de forma mucho más crítica el rol de la IA en las universidades y recalcó la importancia que tendrán los docentes en cuanto a la evaluación de los contenidos:
“Se va a requerir una docencia capaz de atender y supervisar en diferentes ritmos, niveles y temáticas, es decir, habrá mayor trabajo por parte de los profesores. La literatura especializada en IA menciona que esta requiere de mucha carga de datos, pero ¿quién carga estos datos y quién supervisa la privacidad de la información sensible? Sin revisión humana, la IA puede perjudicar la retroalimentación. Estamos ante un riesgo de simulación, porque la IA hace trabajos para los estudiantes y ejecuta la revisión de los profesores”.
El profesor Mateus indicó que se debe priorizar una reformulación de la forma en que los estudiantes son evaluados:
“Debemos trabajar en evaluaciones mucho más contextualizadas y complejas. Si un usuario le pregunta al ChatGPT acerca de lo que plantea un determinado autor, lo más probable es que esta IA nos brinde una respuesta correcta, dado que cuenta con dicha información. Pero qué ocurre si le preguntamos qué señala tal autor en relación con un determinado problema y el último tema conversado en clase. El ChatGTP no estuvo en el curso, eso nos da una ventaja para complejizar la información”.
Nuestro docente subrayó que aún muchos usuarios consideran a la IA como un dispositivo neutral. Ante esto, hizo hincapié en que el reto no es saber cómo utilizar estas tecnologías, sino comprender qué intereses económicos, qué modelos de negocio y qué cuestiones políticas y culturales están detrás del entrenamiento de datos.
Luego, Carlos Eduardo Cortés puso énfasis en la necesidad de tener en cuenta que la IA también puede ser un espacio en el que se diseminan prejuicios discriminatorios:
“Todos los sistemas de IA deberían ser comprensibles e inclusivos para todos y no deben discriminar a nadie, tampoco deben crear sesgos ni difundir ni reforzar prejuicios. Todos los datos que provienen de internet son los que alimentan estos instrumentos de IA, por lo tanto, no es una sorpresa que se reproduzcan todas las formas de discriminación”.
Finalmente, Amparo Huertas indicó que es necesario cuestionar el protagonismo de la IA en la etapa formativa de los estudiantes:
“No solo hace falta estimular el pensamiento crítico, sino también se requiere de un conocimiento suficiente para generarlo. Aquí, encontramos una dificultad enorme. Cómo analizar el resultado de algo que surge de la IA cuando un docente trabaja con un grupo que tiene una mirada sesgada, que aún está en proceso de formación y, por lo tanto, no posee el conocimiento suficiente”.