2023-07-19 05:46:27
A medida que la inteligencia artificial, y en particular el ChatGPT, se infiltra en la enseñanza superior, el profesorado sigue en vilo. La preocupación más destacada es el impacto en la integridad académica. ¿Provocará la tecnología las trampas? ¿Hasta qué punto debe permitirse la introducción de datos por parte de un robot mientras se realizan las tareas? ¿Cómo enseñar en un mundo en el que todo el mundo tiene una calculadora para todo?
Estas preocupaciones no son nuevas. Cuestiones como el plagio, el engaño (en exámenes o en escándalos de admisión) y la integridad han sido el centro de conversaciones éticas durante muchos años. En su mayor parte, estas preocupaciones están arraigadas en una orientación cultural que enmarca el conocimiento como propiedad. El ensayo clásico de Jonathan Lethem, «El éxtasis de la influencialo explica: A pesar de que la creación es un fenómeno social, la creatividad se ve amenazada por «la idea de que la cultura puede ser propiedad, propiedad intelectual».
Cuando consideramos cualquier tipo de conocimiento como propiedad, el peligro emergente es la posibilidad de que alguien «robe» el conocimiento de otro. Política de la Universidad de Yale afirma explícitamente que «quien toma prestadas ideas o lenguaje no reconocidos de otros está robando su trabajo». En este posthumano A su vez, el potencial de robo va más allá de los estudiantes humanos que roban a otros humanos. Ahora, el riesgo incluye el robo a la tecnología: si el conocimiento producido por la IA (como un ensayo producido por ChatGPT) se hace pasar por el de un estudiante, ese estudiante ha robado a la IA. Abundan los temores en cuanto a acreditar a la IA, responsabilizar a los estudiantes y medir el aprendizaje que se ha producido exclusivamente como resultado de las acciones de un estudiante.
Pero estas preocupaciones surgen de una visión individualista del aprendizaje. ¿Qué ocurre cuando adoptamos una orientación más social de la enseñanza y el aprendizaje? ¿Qué ocurre cuando incluimos la IA en una pedagogía culturalmente relevante que comprende lo profundas que son ya nuestras relaciones con la tecnología, desde los mensajes de texto y las redes sociales hasta los dispositivos portátiles que controlan nuestros patrones de sueño y nuestro ritmo cardíaco?
Puede que haya llegado el momento de reflexionar sobre lo que significa vivir y aprender hoy (y también en el futuro). La IA hace que la información sea aún más accesible y puede realizar tareas más sofisticadas. Aunque es probable que esta constatación genere muchas inquietudes, la que esperamos abordar gira en torno a la enseñanza y el aprendizaje. ¿Cuándo es algo como el uso de un chatbot una violación del proceso de aprendizaje? Por supuesto, el uso de la IA -o de la tecnología en general- por sí solo no impide ni interrumpe el aprendizaje. La cuestión es siempre cómo se utiliza la tecnología.
Cuando se utiliza adecuadamente, algo como ChatGPT no sólo puede servir de modelo de escritura eficaz, sino incluso ayudar a los alumnos a desarrollar su propia escritura. En lugar de adoptar una postura punitiva, los profesores podrían modelar el uso responsable de las nuevas tecnologías y la IA podría modelar posibles esquemas, enfoques o diagnósticos.
Desde la perspectiva de la ciencia del aprendizaje, la inteligencia artificial puede ofrecer oportunidades de modelado, o aprendizaje, a través de la imitación estructurada. Bandura lleva mucho tiempo demostrando el efecto de la observación y el modelado cognitivo, es decir, el papel que desempeña la imitación en el aprendizaje de un conjunto de habilidades, un proceso o una estrategia para resolver problemas. Estudios empíricos recientes validan las estrategias de aprendizaje imitativo como eficaces para apoyar a los alumnos con escasos conocimientos previos. Para que quede claro, ni estos estudios ni este artículo defienden la copia indiscriminada en las aulas. Es más probable que la imitación dé lugar a un aprendizaje sólo cuando se utiliza estratégicamente para practicar una habilidad o un concepto; por lo tanto, la imitación tiene que ser consciente y ética y selectiva.. Entonces, ¿cómo enseñamos a los alumnos a ser éticamente selectivos en el uso de las distintas herramientas y de la información disponible?
- Reforzar la comprensión de la política de integridad académica del campus y de las normas académicas aceptables, especialmente en relación con las expectativas del profesorado y la asistencia no autorizada.
- Asignar ejercicios con y sin ayuda que incluyan varios borradores, incluido el texto inicial con ayuda de recursos y reflexiones escritas sobre el proceso de escritura.
- Anime a los estudiantes a trabajar directamente con modelos y herramientas de IA al principio del proceso de aprendizaje, como lo harían con otros recursos (por ejemplo, ayuda a la investigación, ayuda a la escritura).
- Exija a los estudiantes que revisen los primeros productos desarrollados mediante modelos y herramientas y que reflexionen sobre sus revisiones (p. ej., ¿por qué hiciste los cambios que hiciste?).
- Enseñe a los alumnos el valor de la citación, más allá del mero cumplimiento de las normas. Cuando los alumnos entienden por qué es importante citar (por ejemplo, nos ayuda a localizar información), es más probable que se interesen por el cómo.
- Instruye a los alumnos para que citen o reconozcan -y aprecien- el uso de las herramientas.
Así como hemos trabajado siempre en colaboración para crear conocimientoAhora, la inteligencia artificial puede incorporarse al proceso de grupo. A lo largo de la educación formal -y para muchos fuera de ella- el aprendizaje es un proceso reiterativo y social que tiene más valor en su compromiso que en la propiedad resultante. Al fin y al cabo, la enseñanza y el aprendizaje críticos consisten en conocer las reglas para poder aplicarlas a tu manera, desarrollando en gran medida la independencia a partir de la imitación y por la vía de la imitación.
Aceptar que la IA definirá el futuro inmediato no significa que tengamos que aceptar que hacer trampas sea la norma. No ofrecemos ninguna defensa a los estudiantes que escatiman en sus estudios y sólo buscan una nota en lugar del aprendizaje requerido. Sin embargo, damos la bienvenida al actual entorno de aprendizaje multimodal y rico en información. La IA formará parte cada vez más de esta compleja ecología, y a todos nos corresponde modelar, enmarcar y guiar las relaciones responsables.
**JT Torres es director del Centro de Enseñanza y Aprendizaje de la Universidad de Quinnipiac. Claude E. P. Mayo es director de Integridad Académica de la Universidad de Quinnipiac.