Mis estudiantes están usando IA para hacer trampa. He aquí por qué es un momento de enseñanza
Ignorar ChatGPT y sus primos no nos llevará a ninguna parte. De hecho, estos sistemas revelan problemas que a menudo pasamos por alto.
En mi curso de conferencias de primavera de 120 estudiantes, mis asistentes de enseñanza captaron cuatro ejemplos de estudiantes que usaban programas de lenguaje impulsados por inteligencia artificial como ChatGPT para completar ensayos cortos. En cada caso, los estudiantes confesaron haber usado dichos sistemas y accedieron a reescribir las tareas ellos mismos.
Con todo el pánico sobre cómo los estudiantes podrían usar estos sistemas para evitar la carga de aprender, a menudo olvidamos que a partir de 2023, los sistemas no funcionarán bien. Fue fácil detectar estos ensayos fraudulentos. Contenían errores espectaculares. Usaron texto que no respondía a la indicación que habíamos enviado a los estudiantes. O simplemente sonaban diferentes a lo que escribiría un humano.
Nuestra política, dado que esta fue la primera ola de este tipo de trampas que encontramos (y con plena consideración de que todos los estudiantes de la Universidad de Virginia se comprometen a seguir un "código de honor" cuando se matriculan), fue iniciar una conversación con cada estudiante. Decidimos hacer que este momento trabajara hacia la meta de aprender.
Les preguntamos por qué se sintieron tentados a utilizar estos servicios en lugar de sus propios esfuerzos, que, para un ensayo de dos páginas, habrían sido mínimos. En cada caso, dijeron que estaban abrumados por las exigencias de otros cursos y la vida misma.Durante décadas, he estado buscando formas de hacer que los estudiantes profundicen en la naturaleza del lenguaje y la comunicación.
Les pedimos que consideraran si los resultados reflejaban bien su objetivo de convertirse en ciudadanos educados. Por supuesto que no lo hicieron.
También les preguntamos por qué pensaban que seríamos tan distraídos como para dejar pasar tales presentaciones. No tenían respuesta para eso. Pero espero que al menos hayamos provocado algo de reflexión y autoexamen. A veces eso es todo lo que podemos esperar como maestros.
El curso que dicto se llama Democracia en Peligro. Fue diseñado para que los estudiantes consideraran las raíces históricas de las amenazas a la democracia en todo el mundo. Por lo tanto, no era el foro adecuado para instar a los estudiantes a considerar cómo usamos las nuevas tecnologías sin pensar y qué sucede detrás de la pantalla con un sistema de aprendizaje automático. Pero esas son las preguntas más interesantes sobre la inteligencia artificial y los modelos de lenguaje extenso. No puedo esperar para recibir estas preguntas antes de mi próximo grupo de estudiantes.
Por eso estoy entusiasmado con la popularidad instantánea de los modelos de lenguaje grande en nuestras vidas. Mientras sigan siendo terribles en lo que pretenden hacer, son perfectos para estudiar. Revelan muchos de los problemas que, con demasiada frecuencia, dejamos acechar bajo nuestra frenética atención.
Durante décadas, he estado buscando formas de hacer que los estudiantes profundicen en la naturaleza del lenguaje y la comunicación. ¿Qué modelos de lenguaje utilizan las mentes humanas y las comunidades? ¿Qué modelos de lenguaje utilizan las computadoras? ¿En qué se diferencian? ¿Por qué querríamos que las computadoras imitaran a los humanos? ¿Cuáles son los costos y beneficios de tal imitación? ¿La inteligencia artificial es realmente inteligente? ¿Qué significa que estos sistemas parezcan estar produciendo conocimiento, cuando en realidad solo lo están fingiendo?
Ahora, gracias a algunos avances significativos recientes en el aprendizaje automático basado en lenguaje , los estudiantes están interesados en estas preguntas. Mi comunidad de académicos en medios y comunicación, interacción humano-computadora, estudios de ciencia y tecnología y ciencia de datos ha estado siguiendo el desarrollo de estos y otros sistemas de aprendizaje automático integrados en varias áreas de la vida durante décadas. Finalmente, al público parece importarle.
Como ha argumentado mi colega de la Facultad de Ciencias de la Información de la Universidad de Virginia , Rafael Alvarado, estos sistemas funcionan generando prosa significativa basada en el vasto índice de lenguaje que hemos producido para la red mundial y que compañías como Google han escaneado de libros. Falsifican lo que parece ser conocimiento al producir cadenas de texto que estadísticamente tienen sentido.
No corresponden a la realidad de ninguna manera directa. Cuando aciertan en algo (y parece que lo hacen a menudo) es por coincidencia. Estos sistemas han consumido tanto texto humano que pueden predecir qué oración se ve bien después de otra, y qué combinación de oraciones y declaraciones parece apropiada para responder a una indicación o pregunta.
“Es realmente el trabajo de la biblioteca lo que estamos presenciando aquí”, dijo Alvarado. Es una biblioteca sin bibliotecarios, compuesta por contenido incorpóreo y descontextualizado, separado del trabajo significativo de los autores, presentado a lectores crédulos. Estos sistemas son, en palabras de Alvarado, “buenos en forma; malo en el contenido”.