ChatGPT es un tipo de Inteligencia Artificial capaz de producir textos, resolver fórmulas matemáticas o diseñar programas computacionales. Muchos estudiantes en el mundo están resolviendo sus tareas allí. ¿Cómo reaccionar ante esto? ¿Puede ser una herramienta pedagógica o es mejor prohibirla?
Diez días después del lanzamiento oficial de ChatGPT, Sam Altman, CEO de la empresa a la que pertenece el desarrollo, dijo públicamente: “ChatGPT es increíblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una impresión engañosa de grandeza. Es un error confiar en él para algo importante en este momento. Es un adelanto del progreso; tenemos mucho trabajo que hacer en materia de solidez y veracidad”.
A pesar de la advertencia, en menos de un año algunos colegios y universidades han prohibido su uso debido a que los estudiantes se han volcado a resolver tareas con ella, desde búsquedas simples de información o problemas matemáticos hasta la elaboración de ensayos o programas computacionales. Los distritos escolares de Los Ángeles y Nueva York la bloquearon dentro de sus centros y computadores públicos, así como la universidad Imperial de Londres y la universidad de Cambridge advirtieron a los estudiantes sobre su uso.
Altman lo dice con claridad: ChatGPT, al igual que otras inteligencias artificiales generativas, es un adelanto del progreso, pero la tenemos tan encima que necesitamos un poco más de distancia para entender sus posibilidades y limitaciones dentro de ámbitos como el educativo sin caer en salidas fáciles como la prohibición. No olvidemos que toda tecnología ha seguido el mismo camino de reticencia y aceptación al entrar en la escuela, desde la calculadora hasta el computador.
El problema del control
ChatGPT es un chatbot impulsado por Inteligencia Artificial (IA) Generativa capaz de producir texto en respuesta a las indicaciones de un usuario. No es la única IA de este tipo; por ejemplo, las hay que producen imágenes o que producen audios. El asunto es que es una de las más adelantadas porque a partir de la información con la que se alimenta logra construir proposiciones que dejan una “impresión engañosa de grandeza”.
Carlos Merchán, profesor en la maestría de Tecnologías de la Información Aplicadas a la Educación de la Universidad Pedagógica Nacional, señala que el ser humano forma parte del mismo sistema que las tecnologías (esta y las anteriores) y, por ende, es inútil querer distanciarnos de ellas prohibiéndolas o negándolas. El asunto es que las IA generativas piden de nosotros algo que las tecnologías anteriores no: control.
El profesor Merchán señala que hay tres elementos que median la relación del ser humano con la tecnología y que hemos ido entregando poco a poco: energía, información y control. Primero cedimos la energía a los animales y luego a los motores. Después entregamos la información a los programas que almacenan bases de datos y operan a partir de ellas. Y ahora estamos entregando el control a una IA capaz de trazar una ruta definida con las proposiciones que le damos: nos regala un ensayo terminado, una imagen completa, una canción lista para subir a Spotify.
Antes de las IA generativas, las tecnologías nos daban información en bruto, ahora nos dan productos finalizados. Esto nos deja con dos opciones: seguir la ruta ciegamente o tomar esa ruta para llegar un poco más rápido a un lugar un poco más lejano. Desde esta noción de control son entendibles las principales preocupaciones que siente parte de la academia ante ChatGPT.
Mientras algunas personas temen que los estudiantes dejen de pensar por sí mismos y asuman esos productos como verdad, otras temen que los profesores tengan un rol menos protagónico en la enseñanza. Pero ninguno de estos temores es nuevo y probablemente ninguno se cumpla a cabalidad. Antes estuvo el libro de texto, la calculadora, la radio educativa, la televisión educativa, el computador, el celular e internet. Hoy son recursos pedagógicos o materiales didácticos que pueden usarse dentro del salón de clase. Sucede lo mismo con las IA generativas. Quien decide si se usan o no es el profesor, porque todas ellas necesitan de su mediación.
El problema de calificar el producto
Imagino que cuando salió la calculadora los profesores experimentaron un miedo similar al que sienten ahora. Y, sin embargo, hoy es un artículo inofensivo e indispensable dentro del salón de clase. Lo más probable es que entonces esa tecnología haya revelado la debilidad de un sistema educativo centrado en evaluar el producto y no el proceso. La calculadora llevó a que los profesores de matemáticas dejaran de calificar el resultado de 2 + 2 y comenzaran a centrarse en la manera en la que el estudiante llegaba al 4; o en la que el estudiante leía el 4 en un balance de resultados; o en la que el estudiante entendía que el 4 significaba que ahora tenía el doble de manzanas que antes.
Una de las quejas de muchos profesores es que ChatGPT puede elaborar ensayos redondos. Los estudiantes hacen la petición en la aplicación y en cuestión de minutos tienen la tarea que antes les tomaba algunas horas. Un profesor de periodismo de la Universidad Estatal de Arizona le contó al periódico The Guardian que hizo el experimento de pedirle a ChatGPT que resolviera una tarea que suele poner a sus estudiantes y el resultado fue un artículo que merecía una buena calificación. En esas condiciones, si se evalúa la entrega de un ensayo y el estudiante entrega un ensayo de calidad, ¿cómo bajar puntos en la calificación?
Un artículo de la revista Nature señala que ante esta complejidad los educadores alrededor del mundo están repensando sus sistemas de evaluación: “Algunos países recuperaron los exámenes con lápiz y papel. Y algunas escuelas están ‘invirtiendo’ el modelo de aula: los estudiantes hacen sus tareas en la escuela después de aprender sobre un tema en casa”. Ambas estrategias son válidas, aunque no resuelven el dilema.
El profesor Merchán apunta que la entrega de productos es apenas uno de cuatro ítems que el sistema educativo debe evaluar en un estudiante. También están las competencias que le permiten al estudiante desenvolverse en la sociedad; los conocimientos temáticos que le permiten saber cómo se hacen ciertas cosas en la sociedad; y las estrategias metodológicas que le permiten hacer cosas dentro de la sociedad.
Las IA generativas vuelven a ser herramientas pedagógicas si la evaluación se concentra por lo menos en uno de esos otros tres elementos, pues el modelo pedagógico cambia. El producto es un paso adicional del proceso cuando deja de asumirse como el objetivo final de la educación. Así no se entrega todo el control, igual que sucede con la calculadora: el resultado del 2+2 es un escalón para llegar a un lugar más lejano.
ChatGPT en clase
En un artículo publicado en El País de España, un profesor de bachillerato comentó que le gustaba adelantarse a sus estudiantes y, por un lado, realizar él mismo la tarea en ChatGPT para saber con qué le llegarían, y, por el otro, pedirles que terminaran el trabajo en clase a partir del punto en el que quedaba la IA. Dice: “Sobre Hernán Cortés, ChatGPT habla de dominio, colonización, explotación y de consecuencias devastadoras para los pueblos indígenas. [ChatGPT] afirma que ‘el legado de Cortés es complejo y las opiniones sobre él son muy variadas’. Esa complejidad es lo que trabajamos en clase y es lo que al final me importa”. ¿Qué significa trabajar esa complejidad? Tomar la ruta que ofrece la IA para llegar más rápido a un punto más lejano; en este caso, para desarrollar competencias analíticas y un pensamiento crítico con relación a una información.
Como en el ejemplo de la calculadora, lo importante no es llegar al resultado sino saber cómo se llegó al resultado y saber qué hacer con él. “El profesor puede decirle al estudiante que le pida a ChatGPT un ensayo y a partir de ese resultado elaborar un ensayo propio; o en ese resultado reconocer la tesis, los argumentos, las conclusiones, evaluar las fuentes; o intentar entender cuál fue el razonamiento de la IA para llegar a ese resultado, por qué tomó ese camino y no otro, por qué llegó a esas conclusiones y no a otras”, señala el profesor Merchán.
Otro uso que se ha explorado en el mundo científico es pedirle a la IA que recoja todas las fuentes de información sobre un determinado tema y las resuma para que el estudiante pueda elaborar investigaciones a partir de allí. La Universidad Estatal de Arizona está apostándole a esto para encontrar información pertinente en bases de datos específicas valiéndose de ChatGPT pero también de IA similares que la universidad misma está desarrollando.
Por ejemplo, para fomentar el pensamiento crítico y no solo metodológico (algo que la IA generativa aún no ha conseguido), la universidad llevó a cabo un desarrollo a partir de ChatGPT con el que sus estudiantes puedan discutir sus trabajos con el chat buscando cuestionar sus propios argumentos y así hacerlos más sólidos; o comprobar que sus conclusiones son coherentes; o que sus fuentes son válidas.
Al concentrar la evaluación en el proceso, la IA generativa vuelve a ser una herramienta pedagógica al servicio del profesor y del estudiante para recordar que las tareas, como ensayos u operaciones matemáticas, no son el fin último de la educación, sino un medio. Lo importante del producto es comprender cómo se llegó a él y qué se hace con él. En esa medida, ChatGPT es una herramienta como muchas otras. Si el CEO de la empresa que la creó la ve justamente con esa dimensión, ¿por qué nosotros no?
Dejar un comentario