Más allá de ChatGPT: Hacia la regulación de la inteligencia artificial
Con el fin de alinear esfuerzos internacionales alrededor del desarrollo de la inteligencia artificial, en 2021 la UNESCO publicó su primera “Recomendación sobre la ética de la inteligencia artificial”.
En medio del controversial debate sobre el rol que tendrá la inteligencia artificial (IA) en el mañana, —entre voces que sugieren que su desarrollo no sea interrumpido a favor de la innovación, y otras que proponen una pausa a su desarrollo para habilitar a instituciones responsables de su regulación — la inteligencia artificial se materializa y posiciona dentro de nuestro futuro de una manera incierta.
Aunque el detonante popular de este debate es la popular IA generativa, ChatGPT, la Junta de Jefes Ejecutivos (Chief Executives Board) de la Organización de las Naciones Unidas (ONU) ha señalado en su reporte de la sesión 34 la necesidad de “atender retos que emanan del desarrollo de tecnologías de “frontera” – inteligencia artificial, ciberespacio, biotecnología y nuevo armamento” (UN, 2017; p. 1). Con un enfoque de reducción de riesgo de desastres (DRR por sus siglas en inglés) y contemplando el futuro del trabajo, se reconoce que el desarrollo de estas tecnologías es desarrollada e introducida primordialmente por actores diferentes a los Estados, los cuales no han demostrado claramente su capacidad para regular o proteger a los ciudadanos de los impactos negativos de dichas tecnologías. Resultado de la ausencia regulatoria del punto anterior, así como de previsiones éticas por parte de las empresas que las desarrollan, han derivado en un surgimiento de casos que emplean tácticas de ingeniería social con herramientas de IA, como imitación de voz— hasta escenarios más graves, como la generación de videos realistas que jamás sucedieron (deep fakes), los cuales siguen proliferando como una amenaza para la seguridad social y global.
Con el fin de alinear esfuerzos internacionales alrededor del desarrollo de la inteligencia artificial, en noviembre de 2021 la UNESCO publicó su primera “Recomendación sobre la ética de la inteligencia artificial”, la cual fue adoptada por sus 193 países miembros. Con ella, se busca facilitar la acción de los tomadores de decisiones públicas, brindando herramientas para evaluar la capacidad para implementarla en la política pública (Readiness Assessment Methodology), así como para identificar y pronosticar los impactos que un sistema de inteligencia artificial pueda tener (Ethical Impact Assessment).
Sin entrar en detalle en la organización de la recomendación, una sección de nuestro interés es el área de política pública número 8: Educación e Investigación, la cual sugiere mecanismos para fomentar el involucramiento de diferentes actores para alcanzar once metas, entre las cuales pueden se encuentran algunas como:
- Brindar una educación adecuada para alfabetizar en inteligencia artificial al público en general.
- Promover la adquisición de habilidades pre-requisito para una educación en inteligencia artificial.
- Promoción de programas de concientización sobre desarrollos en inteligencia artificial.
- Promover iniciativas de investigación en el uso responsable y ético de la inteligencia artificial en la enseñanza, entrenamiento de profesores, y enseñanza en línea, así como mitigar retos y riesgos involucrados en el área.
De lo anterior, encontramos que estos lineamientos direccionan hacia los ideales que se pretenden alcanzar, mas no así establecen una guía más profunda de los siguientes pasos a seguir dentro de los sistemas e instituciones educativas.
¿Qué hay de la educación?
El perfil de los riesgos que puede promover la inteligencia artificial dentro de la educación aún no ha sido atendido en detalle. En principio, la llegada de herramientas como ChatGPT desencadenó una reacción de rechazo en instituciones de educación superior debido a su potencial para generar textos que podrían reemplazar la labor de los estudiantes para hacer reportes o ensayos, así como facilitar el plagio. En este sentido, Gift y Norman (2023) plantean que el enfoque de las autoridades académicas debe centrarse, no en la penalización o prohibición de estas herramientas, y en cambio, revaluar aquello que nos hace humanos —como el sentido de dignidad, virtud, respeto al trabajo propio, de profesores y compañeros.
No obstante, esta aproximación sigue distante de una visión de reducción de riesgo de desastres propuesta inicialmente por la ONU, visualizando únicamente los daños potenciales en un caso de desempeño académico, y desconociendo otros más relevantes —como las múltiples implicaciones de una generación de niños y adolescentes que crece de la mano con la inteligencia artificial. En este escenario, como señalaría Rumsfeld (2002), nos enfrentamos a un panorama de “unknown unknowns”, riesgos que no sabemos que desconocemos, donde la valoración de riesgos y la prospectiva nos pueden ayudar a comenzar a identificar ante lo nuevo que nos enfrentamos, con el fin último de identificar factores de amenaza, vulnerabilidad, exposición, y riesgo.
Tabla 1. Matrix de Rumsfeld para ejemplificar las implicaciones de una generación que puede crecer con inteligencia artificial.
Riesgos | … qué sabemos | … qué no sabemos |
Sabemos | Conocimiento y hechos Aquellos conocimientos que conscientemente reconocemos o sabemos acceder a ellos. Ej. Publicaciones sobre la capacidad de algoritmos de IA para reforzar y orientar opiniones políticas. |
Horizonte de conocimiento Aquellos conocimientos que reconocemos de manera consciente, no tenemos respuesta. Ej. Efectos a largo plazo del uso de inteligencia artificial contemporánea |
Qué no sabemos | Intuición e inconsciencia Sesgos inconscientes que podemos reconocer con reflexión o apoyo. Ej. Inclinación a reforzamiento en hábitos impulsados por IA (ej. binge watching). |
Creencias erróneas, ignoranciaConceptos que asumimos como verdad, sin duda o capacidad para comprobarlo. Ej. ‘Escribir’ el futuro de la inteligencia artificial, desarrollarla sin asumir escenarios de mal uso. |
En este sentido, centrémonos en un sólo ejemplo: la salud mental. Una nota de Bloomberg (2023) relata cómo ChatGPT —aunque no diseñado específicamente para tal propósito— ha sido utilizado con fines de proveer atención mental. Aunque el número de usuarios que podrían estar buscando adquirir apoyo mental por parte de la IA es desconocido, el número de consultas en la red social de Reddit ha incrementado considerablemente, con usuarios solicitando —dada una falta de recursos o acceso a persona de la salud— recomendaciones de prompts para una tener una mejor interacción con la IA, hasta valorando su experiencia con la IA como “mejor” que con terapeutas reales (2), entre otros casos. Como señala la obra Artificial Intelligence for Mental Health: A Review of AI Solutions and their Future, esta situación coincide con hallazgos que corresponden a una falta de accesibilidad —tanto geográfica como financiera— de profesionales de la salud capacitados alrededor del mundo. Como ejemplo del punto anterior, se ha cuantificado que en países como Argentina y Estados Unidos existen cerca de 222 y 29 psicólogos por cada 100,000 habitantes, en contraste con otros como México, donde apenas se alcanzan 3 de estos profesionales por cada 100,000 habitantes (Castañeda-Garza, Ceballos, Mejía Almada; 2023).
Si bien el uso de la inteligencia artificial dirigida a la educación —como Duolingo o Khan Academy— pueden preservar un espacio adecuado a su misión, es relevante que recordar que su uso es menor a comparación de otras plataformas y aplicaciones de redes sociales, y sin una guía para adultos, así como una falta de educación adecuada para profesores y familias, el aprovechamiento de estas herramientas de IA tendrá menores efectos que sus alternativas de entretenimiento.
Iniciativas de regulación en IA
El fin de elaborar una regulación alrededor de la inteligencia artificial facilita el entendimiento entre el Estado y la sociedad, y buscan fijar hacer valer derechos inherentes a las personas, así como definir las obligaciones a las cuales se adhieren los facilitadores de las IAs. Para ello, es valioso realizar un recuento de algunos sucesos recientes:
22 de marzo, 2023: Luego del acelerado crecimiento de herramientas de inteligencia artificial, diversos expertos e investigadores en inteligencia artificial —como Elon Musk (CEO de SpaceX, Tesla) y Steve Wozniak (Co-fundador de Apple)— publicaron una carta abierta con el fin de pausar su desarrollo, con el fin asegurar el diseño de protocolos de seguridad adecuados, y una vez se tenga la confianza en que sus efectos serán positivos y los riesgos serán gestionables.
27 de marzo, 2023: El diputado Ignacio Loyola Vera impulsa una iniciativa en la Cámara de Diputados de México para expedir la “Ley de Regulación Ética de la Inteligencia Artificial y la Robótica”, argumentando que es necesario regularla ahora; de esperar a que su utilización sea generalizada “será demasiado tarde”.
11 de mayo, 2023: El parlamento de la Unión Europea publica el Acta de Inteligencia Artificial, adoptando un primer borrador, buscando una perspectiva centrada en el ser humano, y rigiéndose por adherirse a la transparencia y gestión de la IA contemplando sus riesgos.
16 de mayo, 2023: Sam Altman, Director de OpenAI declara en el Capitolio ante el senado estadounidense que su peor miedo es que la inteligencia artificial no tenga alguna regulación próximamente, y algo salga mal, enfatizando “y si sale mal, puede salir muy mal”.
23 de mayo, 2023: La Casa Blanca de Estados Unidos publica un comunicado anunciando una serie de esfuerzos para avanzar en la investigación, desarrollo y despliegue de inteligencia artificial de manera responsable. En este esfuerzo, se incluye la creación de documentos como: 1) la Acta de Derechos sobre Inteligencia Artificial, 2) el Marco para la Gestión de Riesgos de Inteligencia Artificial, 3) un mapa de ruta para un Recurso de Investigación para la Investigación de la Inteligencia Artificial (NAIRR), 4) el Plan Estratégico Nacional de Desarrollo e Investigación en Inteligencia Artificial, 5) una petición para información (RFI) en asuntos críticos asociados a inteligencia artificial, y finalmente 6) un reporte de la Oficina de Tecnología Educativa del Departamento de Educación de Estados Unidos sobre los riesgos y oportunidades de la IA entorno a la educación.
Será finalmente, alrededor de estas regulaciones que en nuestra próxima nota seguiremos hablando sobre sus particularidades y observaciones al respecto del área educativa.
Gerardo Castañeda Garza es Licenciado en Psicología y Doctor en Innovación Educativa por el Tecnológico de Monterrey. Actualmente, funge como Coordinador en Adquisición de Datos en el Living Lab & Data Hub del Instituto para el Futuro de la Educación del Tecnológico de Monterrey. Ha colaborado en una variedad de proyectos interdisciplinarios a nivel internacional, entre los que destaca su participación en el Laboratorio Binacional para la Gestión Inteligente de la Sustentabilidad Energética y Formación Tecnológica (CONACYT-SENER) con investigaciones de alfabetización energética, así como en proyectos de reducción de riesgos de desastres con la Universidad de Tohoku y la Universidad de Hosei en Japón.
Actualmente, forma parte de la red internacional de investigadores TRANSFORM con sede en la Universidad de Waterloo, la cual promueve la transición y el desarrollo de modelos de negocios resilientes en pequeñas y medianas empresas (PyMES) así como del Grupo de Investigación en Innovación Educativa (GIIE) del Tecnológico de Monterrey.
Su línea de investigación gira entorno a la interdisciplinariedad en temas de educación y sostenibilidad, disfrutando un perfil de generalista que aborda y combina múltiples áreas del conocimiento, con el deseo de incrementar la resiliencia en la sociedad. En su vida diaria, disfruta del té verde y de entrenar continuamente.