Skip to main content

Es probable que la IA signifique el fin del aula escolar tradicional, dice un destacado experto

Exclusivo: el profesor Stuart Russell dice que la tecnología podría resultar en 'menos maestros empleados, posiblemente incluso ninguno'

Es probable que los avances recientes en IA supongan el fin del aula escolar tradicional, según ha predicho uno de los principales expertos mundiales en IA.

El profesor Stuart Russell, científico informático británico con sede en la Universidad de California, Berkeley, dijo que los tutores personalizados al estilo de ChatGPT tienen el potencial de enriquecer enormemente la educación y ampliar el acceso global al brindar enseñanza personalizada a cada hogar con un teléfono inteligente. La tecnología podría entregar factiblemente "la mayor parte del material hasta el final de la escuela secundaria", dijo.

 

“La educación es el mayor beneficio que podemos buscar en los próximos años”, dijo Russell antes de una charla el viernes en la Cumbre Global AI for Good de la ONU en Ginebra. “Debería ser posible dentro de unos años, tal vez para fines de esta década, brindar una educación de muy alta calidad a todos los niños del mundo. Eso es potencialmente transformador”.

Sin embargo, advirtió que implementar la poderosa tecnología en el sector educativo también conlleva riesgos, incluido el potencial de adoctrinamiento.

Russell citó evidencia de estudios que utilizaron tutores humanos de que la enseñanza uno a uno puede ser dos o tres veces más efectiva que las lecciones tradicionales en el aula, lo que permite que los niños obtengan apoyo personalizado y se dejen guiar por la curiosidad.

“Oxford y Cambridge en realidad no usan un salón de clases tradicional… presumiblemente usan tutores porque es más efectivo”, dijo. “Es literalmente inviable hacer eso para todos los niños del mundo. No hay suficientes adultos para todos”.

OpenAI ya está explorando aplicaciones educativas y anunció una asociación en marzo con una organización educativa sin fines de lucro, Khan Academy, para probar un tutor virtual impulsado por ChatGPT-4.

Esta perspectiva puede generar “temores razonables” entre los docentes y los sindicatos docentes de “menos maestros empleados, posiblemente incluso ninguno”, dijo Russell. La participación humana seguiría siendo esencial, predijo, pero podría ser drásticamente diferente del rol tradicional de un maestro, incorporando potencialmente responsabilidades de "monitor de juegos", facilitando actividades colectivas más complejas y brindando educación cívica y moral.

 

“No hemos hecho los experimentos, así que no sabemos si un sistema de IA será suficiente para un niño. Hay motivación, hay aprendizaje para colaborar, no es solo '¿Puedo hacer las sumas?'”, dijo Russell. “Será fundamental garantizar que los aspectos sociales de la infancia se preserven y mejoren”.

La tecnología también deberá evaluarse cuidadosamente los riesgos.

“Esperemos que el sistema, si está bien diseñado, no le diga a un niño cómo hacer un arma biológica. Creo que eso es manejable”, dijo Russell. Una preocupación más apremiante es la posibilidad de secuestro de software por parte de regímenes autoritarios u otros jugadores, sugirió. “Estoy seguro de que el gobierno chino espera que [la tecnología] sea más efectiva para inculcar la lealtad al estado”, dijo. “Supongo que esperaríamos que esta tecnología fuera más efectiva que un libro o un maestro”.

Russell ha pasado años destacando los riesgos existenciales más amplios que plantea la IA, y fue signatario de una carta abierta en marzo, firmada por Elon Musk y otros, pidiendo una pausa en una "carrera fuera de control" para desarrollar mentes digitales poderosas. . El tema se ha vuelto más urgente desde la aparición de grandes modelos de lenguaje, dijo Russell. “Pienso en [la inteligencia general artificial] como un imán gigante en el futuro”, dijo. “Cuanto más nos acercamos a él, más fuerte es la fuerza. Definitivamente se siente más cerca de lo que solía".

Los formuladores de políticas se están involucrando con retraso en el tema, dijo. “Creo que los gobiernos se han despertado… ahora están tratando de averiguar qué hacer”, dijo. "Eso es bueno, al menos la gente está prestando atención".

Sin embargo, controlar los sistemas de IA plantea desafíos tanto normativos como técnicos, porque incluso los expertos no saben cómo cuantificar los riesgos de perder el control de un sistema. OpenAI anunció el jueves que dedicaría el 20% de su poder de cómputo a buscar una solución para "dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta".

“Los modelos de lenguaje grande en particular, realmente no tenemos idea de cómo funcionan”, dijo Russell. “No sabemos si son capaces de razonar o planificar. Pueden tener metas internas que están persiguiendo, no sabemos cuáles son”.

Incluso más allá de los riesgos directos, los sistemas pueden tener otras consecuencias impredecibles para todo, desde la acción sobre el cambio climático hasta las relaciones con China.

“Cientos de millones de personas, muy pronto miles de millones, estarán en conversación con estas cosas todo el tiempo”, dijo Russell. “No sabemos en qué dirección podrían cambiar la opinión global y las tendencias políticas”.

“Podríamos entrar en una crisis ambiental masiva o una guerra nuclear y ni siquiera darnos cuenta de por qué sucedió”, agregó. “Esas son solo consecuencias del hecho de que, independientemente de la dirección en la que mueva la opinión pública, lo hace de manera correlacionada en todo el mundo”.

https://www.theguardian.com/technology/2023/jul/07/ai-likely-to-spell-end-of-traditional-school-classroom-leading-expert-says