¿Qué puede hacer la escuela con la inteligencia artificial? ¿Qué herramientas debería brindarles a los estudiantes para que puedan actuar frente a los nuevos interrogantes que genera hoy el uso de las tecnologías?
A partir de la irrupción de Chat GPT, ¿qué es lo que la escuela no puede seguir haciendo como antes, y qué sí sigue teniendo sentido?
Roxana Morduchowicz es autora del libro "La inteligencia artificial" publicado por Unesco, es doctora en Comunicación y asesora principal de Unesco en Ciudadanía Digital.
Allí aborda el tema y explica qué puede hacer la escuela con la inteligencia artificial ¿Qué herramientas debería brindarles a los estudiantes para que puedan actuar frente a los nuevos interrogantes que genera hoy el uso de las tecnologías? ¿Qué nuevos desafíos plantea la inteligencia artificial a la enseñanza?
Roxana nos da respuestas:
–Una de las actividades más frecuentes que piden los docentes a sus alumnos es que a partir de un texto hagan un resumen o escriban un comentario. Ese tipo de actividades ya no van a tener sentido porque lo que le pasa al docente es que muchos alumnos entregan el mismo trabajo: ya descubrieron el valor de pedirle al Chat GPT o a otras herramientas que hagan ese resumen o ese comentario; son tareas que la inteligencia artificial puede hacer rápidamente
Tampoco va a tener sentido formularles preguntas puntuales, lineales, que se puedan responder con una fecha, un lugar o un nombre, porque también son tareas que puede desempeñar un sistema de inteligencia artificial.
Lo que sí podemos hacer es pedirles a los estudiantes que evalúen el resultado que ofrece la inteligencia artificial. Por ejemplo, si yo les pido que le pregunten al Chat GPT por argumentos que la instalación de una fábrica en un barrio residencial, el chat va a entregar esos argumentos. Les puedo pedir a los estudiantes que evalúen la eficiencia y la calidad de esos argumentos, y cómo los complementarían o mejorarían. Esa es una actividad que utiliza inteligencia artificial para evaluarla, no para copiar y pegar.
En otra actividad, por ejemplo, un docente les pidió a los alumnos que hicieran un trabajo sobre la historia de la imprenta. Los chicos se dieron cuenta de que el Chat GPT no mencionaba los orígenes en China, entonces esa clase le sirvió al docente para debatir por qué no se puede tener a la inteligencia artificial como única fuente, porque puede ser incompleta, puede incurrir en errores e incluso ser falsa.
Entonces podemos debatir cómo funciona la inteligencia artificial, ver que puede tener sesgos y omisiones. Podemos enseñar a leer esa información, enseñar a distinguir una información confiable de una falsa o dudosa.
El desafío es tomar la inteligencia artificial como objeto de análisis, para tratar de entenderla. Esto requiere una competencia fundamental, que también es un desafío para la escuela hoy: enseñar a preguntar
Esto requiere una competencia fundamental, que también es un desafío para la escuela hoy: enseñar a preguntar. Esto siempre fue importante, pero hoy se vuelve urgente. ¿De qué sirve un sistema de inteligencia artificial al que hay que preguntarle, si los estudiantes no saben encontrar las palabras justas para formular la pregunta? Es fundamental que sepamos precisar la pregunta, encontrar las palabras justas para obtener la respuesta que queremos.
Lo segundo es enseñar a repreguntarle al texto: una vez que tenemos la respuesta, preguntarle por qué arroja este resultado, qué refleja ese resultado, si responde a sesgos, si es confiable. Enseñar a pensar críticamente, a formular preguntas con precisión y a repreguntar es fundamental, no solo para obtener las respuestas que necesitamos sino también para entender cómo funciona la inteligencia artificial.
–¿Hasta qué punto las habilidades que requiere la inteligencia artificial son nuevas, o se apoyan en definitiva en las habilidades que siempre enseñó la escuela?
–Estamos hablando de aplicar en el mundo digital las competencias que la escuela ya conoce, que son las vinculadas al pensamiento crítico, saber leer críticamente, analizar, interpretar, evaluar, construir argumentos, participar y tomar decisiones. En todo el mundo se está fomentando la formación en ciudadanía digital, para formar un ciudadano que sepa utilizar las tecnologías e internet de manera reflexiva, crítica, ética, creativa y participativa.
En los años 2000 se hablaba de nativos digitales para calificar a una generación que nacía con las tecnologías. Hoy esa expresión ya no existe más, porque un ciudadano digital no se puede definir por el año en que nació o la generación a la que pertenece, sino por si sabe hacer un uso seguro, responsable, crítico, creativo, reflexivo de las tecnologías. Eso es lo que queremos: una ciudadanía digital en base a competencias que ya conocemos, pero que hoy se vuelven más urgentes.
Cuando yo iba a la escuela, tenía un libro de texto y una enciclopedia o dos para consultar. La información que necesitaba la extraía de ahí. Ahora por cada tema hay millones de informaciones y necesito saber distinguir en cuál confiar, porque mayor información no quiere decir mejor capacidad de decisión: a veces genera más confusión.
La inteligencia artificial tiene una memoria y una capacidad de almacenamiento de datos muy superior a la humana. Lo que podemos hacer es usar esa información que nos da para analizarla, para evaluarla y para construir nuestros propios argumentos y nuestra opinión. Por eso la inteligencia artificial no puede reemplazar a la escuela y al docente, siempre que la escuela no se quede en esas consignas simplificadas, o no privilegie solo la memoria y la acumulación de datos. En ese valor agregado de análisis, pensamiento crítico, creatividad, interrogación y debate es donde la escuela nunca será reemplazada.
–A lo largo de la historia, muchas nuevas tecnologías han generado pánico y se han alzado voces reclamando su prohibición. ¿Qué pensás de las decisiones que tomaron algunos países europeos de prohibir o restringir el uso de dispositivos digitales en el aula?
–Con cada nueva tecnología que apareció en el mundo hubo miedos, inquietudes y temores. Por ejemplo, Platón cuenta en el Fedro –estamos hablando de la Grecia antigua– que, cuando surgió la escritura, la gente tenía miedo de que se perdiera la memoria, porque hasta ese momento todo se transmitía por tradición oral: se preguntaban quién iba a recordar si todo quedaba por escrito. Pero la memoria no desapareció. Lo mismo con la televisión: el temor era que desapareciera la imaginación, porque cuando los chicos escuchaban Tarzán por radio se imaginaban la selva, las lianas, la mona, pero la pantalla te muestra eso directamente. Sin embargo, la imaginación tampoco desapareció.
Antes que prohibir, prefiero enseñar a pensar, aunque prohibir es más fácil. La tecnología está acá para quedarse y, si la escuela quiere vivir en una sociedad que usa las tecnologías, las tiene que tomar como un recurso más. Cuando me preguntan si celular sí o no dentro del aula, siempre respondo: depende de qué proyecto educativo hay detrás de esa tecnología, para qué lo quiero utilizar en la clase.
–En muchos países, entre ellos el nuestro, hay una preocupación creciente por la democracia. ¿Cuáles son los desafíos más críticos que enfrenta la construcción de ciudadanía digital en este contexto?
–La ciudadanía digital requiere que los estudiantes aprendan a identificar, comprender y responder a los grandes dilemas y problemas que genera hoy el uso de internet. Por ejemplo, las noticias falsas, el discurso del odio, los usos no éticos de la inteligencia artificial.
La difusión de contenido falso tiene que ver con que los sistemas de inteligencia artificial se entrenan con los millones de textos que circulan en internet, muchos de los cuales son falsos. Justamente porque es un riesgo para una convivencia democrática plural, necesitamos que los estudiantes y los docentes sepan distinguir un contenido falso de aquel que no lo es. Que sepan cómo responder al discurso del odio, la discriminación, el racismo. Necesitamos formar en ciudadanía digital porque es la única manera de que los jóvenes y las personas en general puedan ejercer una ciudadanía plena.
–En el libro hablás de “ser mejores” que la inteligencia artificial y conocer sus lógicas. ¿Es deseable que todos tengamos una mínima alfabetización tecnológica para entender cómo funcionan los algoritmos?
–Una cosa es el uso instrumental de la tecnología, por ejemplo saber hacer un Power Point, saber leer una planilla de Excel o saber cómo funciona un algoritmo. Esas son habilidades prácticas súper importantes, y es bueno que los estudiantes las tengan. Pero con esas capacidades instrumentales no alcanza. Yo puedo enseñarle a un estudiante a diseñar el mejor Power Point, pero si el contenido que usa está basado en información falsa, no me sirve de nada que el Power Point quede lindo.
La habilidad instrumental sirve si está acompañada de competencias fundamentales o transversales, que son las que se demandan hoy para tener una mejor inserción laboral y social. Hoy le podés pedir al Chat GPT que te arme una carta de presentación cuando te querés postular a un trabajo. Antes las empresas usaban esa carta como una variable para saber si el candidato podía ocupar el puesto o no, hoy ya vieron que no tiene sentido pedir eso.
¿Qué les interesa? Si la persona puede tomar decisiones y argumentar, piensa críticamente, sabe trabajar en equipo, es empática, tiene códigos éticos: son las competencias inherentes a la escuela. Es súper importante contar con habilidades instrumentales, pero si no las acompañamos de estas competencias aplicadas al mundo digital, vamos a empobrecernos. La tecnología servirá con fines instrumentales o lúdicos, pero no estará al servicio de ciudadanos digitales.
A tener en cuenta para su aplicación:
La Unesco ya advirtió en junio pasado que la utilización de la IA generativa en las escuelas se está extendiendo con excesiva rapidez y con una “preocupante falta de escrutinio, controles o regulaciones”.
La IA generativa puede crear texto, imágenes, vídeos, música y códigos de programación informática, por lo que tienen implicaciones profundas para la educación y la investigación.
Pero una reciente encuesta mundial realizada por la Unesco en más de 450 escuelas y universidades mostró que menos del 10 por ciento tenía normas sobre el uso de estas herramientas, debido sobre todo a la falta de normativas nacionales.
Por ello, insistió en que esta herramienta “no puede integrarse en la educación sin el compromiso público y sin las salvaguardias y regulaciones necesarias por parte de los gobiernos
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) divulgó hoy unas orientaciones mundiales sobre el uso de la AI generativa en las que propone fijar en 13 años la edad mínima para que los alumnos usen estas herramientas en las aulas.
Roxana Morduchowicz: “Con la inteligencia artificial, enseñar a preguntar es más importante que nunca” - Infobae