Existe un gran debate en torno a la infiltración de la IA (inteligencia artificial) en la educación superior y sus instituciones, lo que impacta en diversos aspectos. Entre ellos, la admisión, los procesos de enseñanza y la calificación, todos ellos ampliamente debatidos en diferentes plataformas. El papel de los chatbots también es un punto clave de debate en cuanto a las opciones de enseñanza personalizada, pero aún no se ha desarrollado para la educación superior. Con el uso generalizado de la tecnología de IA, también ha surgido en el mercado una serie de aplicaciones que detectan IA.
En el otoño del año pasado, se formó el Grupo de Trabajo sobre IA de la Universidad de Boston para evaluar el impacto de la IA generativa en la educación superior y la investigación y también para revisar las políticas que se están adoptando en los institutos académicos, escuelas y universidades relacionados con la BU.
Recomendaciones del grupo de trabajo de BU para un enfoque crítico de IA
Estas prácticas no son exclusivas de la BU, ya que universidades de todo el país han estado evaluando la tecnología de IA y su impacto, y formulando políticas y marcos éticos en torno a su uso. El desafío radica en que la inteligencia artificial aún no ha madurado y sigue evolucionando, y los nuevos avances brillan con una intensidad extrema, robándonos la vista por el momento. Todo esto comenzó con el lanzamiento de ChatGPT, que vuelve a revolucionar el mundo con su aplicación de generación de vídeo con IA, Sora.
Al observar los avances logrados en tan solo un año, es realmente difícil predecir qué se presentará, digamos dentro de cinco años. Volviendo a las perspectivas educativas y los esfuerzos de la BU, el grupo de trabajo publicó su informe al respecto tras consultar con el profesorado y expertos del sector. El informe, titulado "Informe sobre IA Generativa en la Educación y la Investigación", destaca varios puntos, pero se centra principalmente en abordar la IA generativa con un enfoque crítico. Se recomienda que esto se dirija al profesorado, ¿qué pensaban sobre losdent? Bueno, quizás sea para todos los involucrados.
También se recomienda que los estudiantes dent informados sobre la IA en su programa de estudios y sean educados sobre sus capacidades y enfoque de uso. La BU también publicó las opiniones de algunos de los profesores más destacados sobre la integración de la IA . El profesor Yannis Paschalidis, de Ingeniería, al ser preguntado sobre la "adopción crítica" de la IA, en términos prácticos, afirmó:
“Reconozcamos que la IA llegó para quedarse y que puede ser una herramienta eficaz para acelerar la investigación y mejorar la enseñanza”
Fuente: Universidad de Boston
También añadió:
En la práctica, esto implica usarlo con cautela. Si la universidad adopta una política de "adopción crítica" de la IA, las escuelas y facultades se verían obligadas a adoptar sus propias políticas locales adaptadas a las necesidades de las disciplinas que imparten
Fuente: Universidad de Boston
El profesor Paschalidis afirma que las políticas deben ser coherentes con las políticas universitarias generales. Sin embargo, enfatiza que debe haber margen para que el profesorado tome sus propias decisiones sobre el tema, las cuales se adoptarán según los requisitos de su clase.
Aplicaciones de detección de IA y su falta de fiabilidad
El informe de la BU también destaca la importancia del uso de programas de monitoreo de IA, ya que losdentya los estarían utilizando gracias a la disponibilidad de diversas aplicaciones y programas. Sin embargo, busca mantener y promover la integridad académica y proceder con cautela con respecto a la IA. El profesor Pasachalidis considera que las aplicaciones que detectan el uso de IA no son infalibles. Dicho esto, afirma que estos programas solo proporcionan una estimación de si se utilizó IA para generar cierto texto, audio o video, pero no son 100% correctos. Por lo tanto, al evaluar la mala conducta desde una perspectiva académica, el profesorado debe estar atento y no depender exclusivamente de herramientas.
Otro profesor, Wesley J. Wildman de Filosofía, afirma que instructores ydentpodrían estar usando el mismo software de detección de IA y obteniendo la misma calificación que para la detección de plagio. Afirma que los detectores de IA no son consistentes actualmente ni muy confiables. Esto pone en duda su precisión y fiabilidad, ya que pueden ser manipulados con errores ortográficos ymatichasta cierto punto. Por esta misma razón, se recomienda a los instructores tener precaución al utilizar estas herramientas.
El profesor Pasachalidis explicó que, en relación con el esfuerzo de la BU y la realización de esta tarea para elaborar un informe exhaustivo sobre el uso de la IA, la formación del grupo de trabajo se llevó a cabo a finales de 2023 y en el semestre de primavera de 2024. La junta contactó a numerosos expertos, representantes del sector, consultores y expertos de su propia BU. Incorporaron a personas de todas las disciplinas que aportaron perspectivas originales a su propio campo sobre la IA. Todos estos esfuerzos se llevaron a cabo para que la universidad pudiera contar con un marco unificado respecto a la tecnología, asignar recursos para la formación y adoptar nuevas formas de enseñanza con la tecnología emergente.
Sobre el mismo tema, el profesor Wildman dijo:
“Escuchamos a expertos que representan disciplinas que aún no estaban incluidas en el grupo de trabajo”
Fuente: Universidad de Boston
Esperaba que las importantes recomendaciones del informe se implementaran de inmediato, y que algunas podrían tardar más en implementarse debido a su naturaleza y los recursos requeridos. Sin embargo, la narrativa de manejar la inteligencia artificial con un enfoque crítico se está poniendo en práctica sin demora.
Encuentre el informe de BU aquí .

