Skip to main content

Mis estudiantes están usando IA para hacer trampa. He aquí por qué es un momento de enseñanza

Ignorar ChatGPT y sus primos no nos llevará a ninguna parte. De hecho, estos sistemas revelan problemas que a menudo pasamos por alto.

En mi curso de conferencias de primavera de 120 estudiantes, mis asistentes de enseñanza captaron cuatro ejemplos de estudiantes que usaban programas de lenguaje impulsados ​​por inteligencia artificial como ChatGPT para completar ensayos cortos. En cada caso, los estudiantes confesaron haber usado dichos sistemas y accedieron a reescribir las tareas ellos mismos.

Con todo el pánico sobre cómo los estudiantes podrían usar estos sistemas para evitar la carga de aprender, a menudo olvidamos que a partir de 2023, los sistemas no funcionarán bien. Fue fácil detectar estos ensayos fraudulentos. Contenían errores espectaculares. Usaron texto que no respondía a la indicación que habíamos enviado a los estudiantes. O simplemente sonaban diferentes a lo que escribiría un humano.

 

Nuestra política, dado que esta fue la primera ola de este tipo de trampas que encontramos (y con plena consideración de que todos los estudiantes de la Universidad de Virginia se comprometen a seguir un "código de honor" cuando se matriculan), fue iniciar una conversación con cada estudiante. Decidimos hacer que este momento trabajara hacia la meta de aprender.

Les preguntamos por qué se sintieron tentados a utilizar estos servicios en lugar de sus propios esfuerzos, que, para un ensayo de dos páginas, habrían sido mínimos. En cada caso, dijeron que estaban abrumados por las exigencias de otros cursos y la vida misma.Durante décadas, he estado buscando formas de hacer que los estudiantes profundicen en la naturaleza del lenguaje y la comunicación.

Les pedimos que consideraran si los resultados reflejaban bien su objetivo de convertirse en ciudadanos educados. Por supuesto que no lo hicieron.

También les preguntamos por qué pensaban que seríamos tan distraídos como para dejar pasar tales presentaciones. No tenían respuesta para eso. Pero espero que al menos hayamos provocado algo de reflexión y autoexamen. A veces eso es todo lo que podemos esperar como maestros.

El curso que dicto se llama Democracia en Peligro. Fue diseñado para que los estudiantes consideraran las raíces históricas de las amenazas a la democracia en todo el mundo. Por lo tanto, no era el foro adecuado para instar a los estudiantes a considerar cómo usamos las nuevas tecnologías sin pensar y qué sucede detrás de la pantalla con un sistema de aprendizaje automático. Pero esas son las preguntas más interesantes sobre la inteligencia artificial y los modelos de lenguaje extenso. No puedo esperar para recibir estas preguntas antes de mi próximo grupo de estudiantes.

Por eso estoy entusiasmado con la popularidad instantánea de los modelos de lenguaje grande en nuestras vidas. Mientras sigan siendo terribles en lo que pretenden hacer, son perfectos para estudiar. Revelan muchos de los problemas que, con demasiada frecuencia, dejamos acechar bajo nuestra frenética atención.

Durante décadas, he estado buscando formas de hacer que los estudiantes profundicen en la naturaleza del lenguaje y la comunicación. ¿Qué modelos de lenguaje utilizan las mentes humanas y las comunidades? ¿Qué modelos de lenguaje utilizan las computadoras? ¿En qué se diferencian? ¿Por qué querríamos que las computadoras imitaran a los humanos? ¿Cuáles son los costos y beneficios de tal imitación? ¿La inteligencia artificial es realmente inteligente? ¿Qué significa que estos sistemas parezcan estar produciendo conocimiento, cuando en realidad solo lo están fingiendo?

Ahora, gracias a algunos avances significativos recientes en el aprendizaje automático basado en lenguaje , los estudiantes están interesados ​​en estas preguntas. Mi comunidad de académicos en medios y comunicación, interacción humano-computadora, estudios de ciencia y tecnología y ciencia de datos ha estado siguiendo el desarrollo de estos y otros sistemas de aprendizaje automático integrados en varias áreas de la vida durante décadas. Finalmente, al público parece importarle.

Como ha argumentado mi colega de la Facultad de Ciencias de la Información de la Universidad de Virginia , Rafael Alvarado, estos sistemas funcionan generando prosa significativa basada en el vasto índice de lenguaje que hemos producido para la red mundial y que compañías como Google han escaneado de libros. Falsifican lo que parece ser conocimiento al producir cadenas de texto que estadísticamente tienen sentido.

No corresponden a la realidad de ninguna manera directa. Cuando aciertan en algo (y parece que lo hacen a menudo) es por coincidencia. Estos sistemas han consumido tanto texto humano que pueden predecir qué oración se ve bien después de otra, y qué combinación de oraciones y declaraciones parece apropiada para responder a una indicación o pregunta.

“Es realmente el trabajo de la biblioteca lo que estamos presenciando aquí”, dijo Alvarado. Es una biblioteca sin bibliotecarios, compuesta por contenido incorpóreo y descontextualizado, separado del trabajo significativo de los autores, presentado a lectores crédulos. Estos sistemas son, en palabras de Alvarado, “buenos en forma; malo en el contenido”.

La perspectiva de engañar a un profesor siempre es tentadora. Tengo la edad suficiente para recordar cuando los propios motores de búsqueda daban a los estudiantes una gran cantidad de contenido potencial para hacerlos pasar como propios. Hemos estado lidiando con métodos y tecnologías de trampa desde que les hemos estado pidiendo a los estudiantes que nos demuestren sus conocimientos. Cada vez que los estudiantes implementan un nuevo método, respondemos y lo corregimos. Y cada vez, mejoramos en el diseño de tareas que pueden ayudar a los estudiantes a aprender mejor. Escribir, después de todo, es aprender. También lo son hablar, argumentar y enseñar. También lo son diseñar juegos, escribir código, crear bases de datos y hacer arte.

Así que en el futuro exigiré algunas formas más antiguas de creación de conocimiento para desafiar a mis alumnos y ayudarlos a aprender. Necesitaré escritura en clase. Esto no solo los alejará de las pantallas, los motores de búsqueda y los modelos de lenguaje extenso. Exigirá que piensen con fluidez en el momento. Escribir en tiempo real exige claridad y concisión. También asignaré más presentaciones grupales e insistiré en que otros estudiantes hagan preguntas a los presentadores, generando una comprensión más profunda de un tema en tiempo real.

De manera crucial, también les pediré a los estudiantes que usen sistemas modelo de lenguaje grande en clase para generar texto y evaluar su valor y validez. Podría decirle a AI que "escriba un ensayo sobre AI en el aula escrito al estilo de Siva Vaidhyanathan". Luego, como clase, buscaríamos las fuentes de las afirmaciones, el texto y las citas y evaluaríamos los resultados generales de la generación del texto.

Una de las razones por las que tanta gente de repente se preocupa por la inteligencia artificial es que nos encanta entrar en pánico por las cosas que no entendemos. La incomprensión nos permite proyectar peligros espectaculares sobre el futuro. Muchas de las mismas personas responsables de desarrollar estos modelos (que se han enriquecido a sí mismos) nos advierten sobre los sistemas de inteligencia artificial que logran algún tipo de sensibilidad y toman el control de áreas importantes de la vida. Otros advierten sobre el desplazamiento masivo de empleos de estos sistemas. Todas estas predicciones asumen que el despliegue comercial de inteligencia artificial en realidad funcionaría según lo diseñado. Afortunadamente, la mayoría de las cosas no lo hacen.

Eso no significa que debamos ignorar los peligros presentes y graves de los sistemas mal diseñados e implementados. Durante años, los modelos predictivos han distorsionado el trabajo policial y los procedimientos de sentencia en la justicia penal estadounidense, vigilando y castigando a los negros de manera desproporcionada. Los sistemas de aprendizaje automático funcionan en seguros y atención médica, en su mayoría sin transparencia, rendición de cuentas, supervisión o regulación.

Estamos cometiendo dos graves errores al mismo tiempo. Nos estamos escondiendo y eludiendo la inteligencia artificial porque parece demasiado misteriosa y complicada, lo que hace que los usos actuales y dañinos de ella sean invisibles y no discutidos. Y nos preocupamos por los peores escenarios futuros que se parecen más a la película The Matrix que a cualquier mundo que realmente crearíamos para nosotros mismos. Ambos hábitos permiten que las empresas que irresponsablemente implementan estos sistemas nos exploten. Podemos hacerlo mejor. Haré mi parte enseñando mejor en el futuro, pero no ignorando estos sistemas y su presencia en nuestras vidas.

… hay una buena razón para NO apoyar a The Guardian.

No todo el mundo puede permitirse el lujo de pagar por las noticias en este momento. Por eso mantenemos nuestro periodismo abierto para que todos lo lean, incluso en Argentina. Si este es usted, continúe leyendo de forma gratuita.

Pero si puede hacerlo, entonces hay TRES buenas razones para apoyarnos hoy.

1. Nuestro periodismo de investigación de calidad es una fuerza de escrutinio en un momento en que los ricos y poderosos se salen con la suya cada vez más.

2. Somos independientes y no tenemos un propietario multimillonario que maneje los hilos, por lo que su dinero impulsa directamente nuestros informes.

3. No cuesta mucho y toma menos tiempo del que tomó leer este mensaje

https://www.theguardian.com/technology/2023/may/18/ai-cheating-teaching-chatgpt-students-college-university