Skip to main content

La estupidez de la IA

La inteligencia artificial en su forma actual se basa en la apropiación total de la cultura existente, y la noción de que en realidad es inteligente podría ser activamente peligrosa.

 
En enero de 2021, el laboratorio de investigación de inteligencia artificial OpenAI lanzó una versión limitada de un software llamado Dall-E . El software permitía a los usuarios ingresar una descripción simple de una imagen que tenían en mente y, después de una breve pausa, el software producía una interpretación casi asombrosamente buena de su sugerencia, digna de un ilustrador o diseñador experto en Adobe, pero mucho más. más rápido y gratis. Escribir, por ejemplo, "un cerdo con alas volando sobre la luna, ilustrado por Antoine de Saint-Exupéry" resultó, después de un minuto o dos de procesamiento, en algo que recuerda a los pinceles irregulares pero reconocibles de acuarela del creador de The Little Príncipe.

Aproximadamente un año después, cuando el software obtuvo un lanzamiento más amplio, Internet se volvió loco. Las redes sociales se inundaron con todo tipo de creaciones extrañas y maravillosas, una mezcolanza exuberante de fantasías y estilos artísticos. Y unos meses después volvió a pasar, esta vez con el lenguaje y un producto llamado ChatGPT, también producido por OpenAI. Pídale a ChatGPT que produzca un resumen del Libro de Job al estilo del poeta Allen Ginsberg y obtendrá un intento razonable en unos pocos segundos. Pídale que reproduzca el poema Howl de Ginsberg en forma de presentación de diapositivas de un consultor de gestión y lo hará también. La capacidad de estos programas para conjurar mundos nuevos y extraños tanto en palabras como en imágenes cautivó al público, y el deseo de intentarlo produjo una literatura cada vez mayor sobre los pormenores de hacer el mejor uso de estas herramientas y, en particular, cómo estructurar las entradas para obtener los resultados más interesantes.

 La última habilidad se conoce como "ingeniería rápida": la técnica de enmarcar las instrucciones en los términos más claramente entendidos por el sistema, por lo que arroja los resultados que más se acercan a las expectativas, o quizás las superan. Los comentaristas tecnológicos se apresuraron a predecir que la ingeniería rápida se convertiría en una descripción de trabajo codiciada y bien remunerada en un futuro "sin código", donde la forma más poderosa de interactuar con sistemas inteligentes sería a través del lenguaje humano. Ya no necesitaríamos saber dibujar, ni escribir código informático: simplemente susurraríamos nuestros deseos a la máquina y ella haría el resto. Los límites de las creaciones de AI serían los límites de nuestra propia imaginación.

Imitadores y avances de Dall-E siguieron rápidamente. Dall-E mini (más tarde rebautizado como Craiyon) les dio a aquellos que no fueron invitados a los servicios privados de OpenAI la oportunidad de jugar con una herramienta similar, menos poderosa, pero aún así muy impresionante. Mientras tanto, el esfuerzo comercial independiente Midjourney y Stable Diffusion de código abierto utilizaron un enfoque diferente para clasificar y generar imágenes, con los mismos fines. En unos pocos meses, el campo había avanzado rápidamente a la generación de videos cortos y modelos 3D, con nuevas herramientas que aparecían diariamente de departamentos académicos y programadores aficionados, así como de los gigantes establecidos de las redes sociales y ahora AI: Facebook (también conocido como Meta) , Google, Microsoft y otros. Se había abierto un nuevo campo de investigación, software y contestación.

El nombre Dall-E combina al robot protagonista de Wall-E de Disney con el artista surrealista español Salvador Dalí. Por un lado, tienes la figura de una pequeña máquina valiente, autónoma y adorable que barre los escombros de una civilización humana colapsada, y por el otro, un hombre cuyas bon mots más repetidas incluyen: “Aquellos que no quieren imitar nada . , producir nada”, y “Lo importante es sembrar la confusión, no eliminarla”. Ambos son homónimos admirables para la amplia gama de herramientas que se conocen como generadores de imágenes de IA.

El año pasado, esta nueva ola de inteligencia artificial para el consumidor, que incluye tanto la generación de imágenes como herramientas como ChatGPT, capturó la imaginación popular. También ha proporcionado un impulso a las fortunas de las principales empresas de tecnología que, a pesar de muchos esfuerzos, no han logrado convencernos a la mayoría de nosotros de que la cadena de bloques o la realidad virtual ("el metaverso ") son el futuro que cualquiera de nosotros desea. Al menos este se siente divertido, durante cinco minutos más o menos; y "AI" todavía tiene esa cualidad brillante de ciencia ficción, con olor a robots gigantes y cerebros sobrehumanos, que proporciona ese pequeño contacto con lo genuinamente novedoso. Lo que sucede debajo del capó, por supuesto, está lejos de ser nuevo.


Los conceptos fundamentales de la inteligencia artificial académica no han cambiado en las últimas dos décadas. La tecnología subyacente de las redes neuronales, un método de aprendizaje automático basado en la forma en que funcionan los cerebros físicos, se teorizó e incluso se puso en práctica en la década de 1990. Entonces también podías usarlos para generar imágenes, pero en su mayoría eran abstracciones sin forma, manchas de color con poca resonancia emocional o estética. Los primeros chatbots de IA convincentes se remontan aún más atrás. En 1964, Joseph Weizenbaum, científico informático del Instituto Tecnológico de Massachusetts, desarrolló un chatbot llamado Eliza. Eliza se inspiró en un psicoterapeuta "centrado en la persona": cualquier cosa que dijeras, te lo reflejaría. Si decías “Me siento triste”, Eliza respondería con “¿Por qué te sientes triste?”, y así sucesivamente.

Las primeras IA no sabían mucho sobre el mundo y los departamentos académicos carecían de la potencia informática para explotarlas a escala. La diferencia hoy no es la inteligencia, sino los datos y el poder. Las grandes empresas de tecnología han pasado 20 años recolectando grandes cantidades de datos de la cultura y la vida cotidiana, y construyendo grandes centros de datos hambrientos de energía llenos de computadoras cada vez más poderosas para procesarlos. Lo que alguna vez fueron redes neuronales viejas y chirriantes se han vuelto superpoderosas, y el resultado es el chorro de IA que estamos viendo.

La generación de imágenes de IA se basa en el ensamblaje y análisis de millones y millones de imágenes etiquetadas; es decir, imágenes que vienen con algún tipo de descripción de su contenido ya adjunta. Estas imágenes y descripciones luego se procesan a través de redes neuronales que aprenden a asociar cualidades particulares y profundamente matizadas de la imagen (formas, colores, composiciones) con ciertas palabras y frases. Luego, estas cualidades se superponen para producir nuevos arreglos de forma, color y composición, basados ​​en los miles de millones de asociaciones de diferente peso producidas por un simple mensaje. Pero, ¿de dónde vienen todas esas imágenes originales?

Los conjuntos de datos publicados por LAION, una organización alemana sin fines de lucro, son un buen ejemplo del tipo de colecciones de imágenes y texto utilizadas para entrenar grandes modelos de IA (proporcionaron la base tanto para Stable Diffusion como para Imagen de Google, entre otros). Durante más de una década, otra organización web sin fines de lucro, Common Crawl, ha estado indexando y almacenando la mayor parte de la red mundial pública a la que puede acceder, archivando hasta 3 mil millones de páginas cada mes. Los investigadores de LAION tomaron una parte de los datos de Common Crawl y extrajeron cada imagen con una etiqueta "alt", una línea de texto más o menos destinada a describir imágenes en páginas web. Después de algunos recortes, los enlaces a las imágenes originales y el texto que las describe se publican en vastas colecciones: LAION-5B, lanzado en marzo de 2022, contiene

 

En septiembre de 2022, un artista digital con sede en San Francisco llamado Lapine estaba usando una herramienta llamada Have I Been Trained, que permite a los artistas ver si su trabajo se está utilizando para entrenar modelos de generación de imágenes de IA. Have I Been Trained fue creado por los artistas Mat Dryhurst y Holly Herndon, cuyo propio trabajo los llevó a explorar las formas en que la IA coopta el trabajo de los artistas. Cuando Lapine lo usó para escanear la base de datos LAION, encontró una imagende su propio rostro. Pudo rastrear esta imagen hasta las fotografías tomadas por un médico cuando estaba en tratamiento por una condición genética rara. Las fotografías fueron tomadas como parte de su documentación clínica y firmó documentos que restringían su uso únicamente a su expediente médico. El médico involucrado murió en 2018. De alguna manera, estas imágenes médicas privadas terminaron en línea, luego en el archivo de Common Crawl y en el conjunto de datos de LAION, y finalmente se incorporaron a las redes neuronales a medida que aprendieron sobre el significado de las imágenes y cómo crear otras nuevas. Por lo que sabemos, la textura rosa moteada de nuestro cerdito estilo Saint-Exupéry podría haberse mezclado, aunque sea sutilmente, con la carne cruda de un paciente con cáncer.

“Es el equivalente digital de recibir propiedad robada. Alguien robó la imagen de los archivos de mi médico fallecido y terminó en algún lugar en línea, y luego se raspó en este conjunto de datos”, dijo Lapine al sitio web Ars Technica. “Ya es bastante malo que se filtre una foto, pero ahora es parte de un producto. Y esto se aplica a las fotos de cualquier persona, historial médico o no. Y el potencial de abuso futuro es realmente alto”. (Según su cuenta de Twitter, Lapine continúa usando herramientas como Dall-E para hacer su propio arte).

La totalidad de este tipo de IA disponible públicamente, ya sea que funcione con imágenes o palabras, así como muchas aplicaciones similares basadas en datos, se basa en esta apropiación total de la cultura existente, cuyo alcance apenas podemos comprender. Público o privado, legal o de otro tipo, la mayoría del texto y las imágenes recopiladas por estos sistemas existen en el nebuloso dominio del "uso justo" (permitido en los EE. UU., pero cuestionable, si no totalmente ilegal, en la UE). Como la mayoría de lo que sucede dentro de las redes neuronales avanzadas, es realmente imposible entender cómo funcionan desde el exterior, dejando de lado encuentros raros como el de Lapine. Pero podemos estar seguros de esto: lejos de ser creaciones mágicas y novedosas de máquinas brillantes, los resultados de este tipo de IA dependen completamente del trabajo no acreditado y no remunerado de generaciones de artistas humanos.

La generación de imágenes y texto con IA es pura acumulación primitiva: expropiación del trabajo de muchos para el enriquecimiento y el avance de unas pocas empresas de tecnología de Silicon Valley y sus propietarios multimillonarios. Estas empresas hicieron su dinero insertándose en todos los aspectos de la vida cotidiana, incluidas las áreas más personales y creativas de nuestras vidas: nuestras pasiones secretas, nuestras conversaciones privadas, nuestras semejanzas y nuestros sueños. Encerraron nuestra imaginación de la misma manera que los terratenientes y los barones ladrones encerraron tierras que alguna vez fueron comunes. Prometieron que al hacerlo abrirían nuevos reinos de experiencia humana, nos darían acceso a todo el conocimiento humano y crearían nuevos tipos de conexión humana. En su lugar, nos están vendiendo nuestros sueños reempaquetados como productos de máquinas,

La rareza de la generación de imágenes de IA existe tanto en la salida como en la entrada. Un usuario intentó escribir frases sin sentido y estaba confundido y algo incómodo al descubrir que Dall-E mini parecía tener una muy buena idea de lo que era un "Crungus": una frase desconocida que constantemente producía imágenes de un ogro gruñendo y desnudo. -como figura. Crungus estaba lo suficientemente claro en la imaginación del programa como para que pudiera ser manipulado fácilmente: otros usuarios ofrecieron rápidamente imágenes de antiguos tapices de Crungus, mosaicos de Crungus de estilo romano, pinturas al óleo de Crungus, fotos de Crungus abrazando a varias celebridades y, siendo Internet , "sexy" Crungus.

Entonces, ¿quién o qué es Crungus? Los usuarios de Twitter se apresuraron a describirlo como “el primer críptido de la IA”, una criatura como Bigfoot que existe, en este caso, dentro del terreno poco explorado de la imaginación de la IA. Y esta es la respuesta más clara que podemos obtener en este momento, debido a nuestra comprensión limitada de cómo funciona el sistema. No podemos mirar dentro de sus procesos de toma de decisiones porque la forma en que estas redes neuronales "piensan" es intrínsecamente inhumana. Es el producto de un increíblemente complejo ordenamiento matemático del mundo, en oposición a la forma histórica y emocional en la que los humanos ordenan su pensamiento. El Crungus es un sueño que surge del modelo del mundo de la IA, compuesto de miles de millones de referencias que escaparon de sus orígenes y se fusionaron en una figura mitológica desvinculada de la experiencia humana. Lo cual está bien, incluso sorprendente, pero hace que uno se pregunte, ¿de quién son los sueños que se están utilizando aquí? ¿Qué compuesto de cultura humana, qué perspectiva sobre ella, produjo esta pesadilla?

Otro artista digital experimentó una experiencia similar con indicaciones negativas, una técnica para generar lo que el sistema considera el polo opuesto de lo que se describe. Cuando el artista ingresó "Brando::-1", el sistema devolvió algo que se parecía un poco al logotipo de una compañía de videojuegos llamada DIGITA PNTICS. Que esto pueda, a través de las múltiples dimensiones de la visión del mundo del sistema, ser lo opuesto a Marlon Brando parece bastante razonable. Pero cuando revisaron para ver si era al revés, al escribir " DIGITA PNTICS skyline logo::-1”, sucedió algo mucho más extraño: todas las imágenes mostraban a una mujer de aspecto espeluznante con ojos hundidos y mejillas enrojecidas, a quien el artista bautizó como Loab. Una vez descubierto, Loab parecía inusual e inquietantemente persistente. La introducción de la imagen en el programa, combinada con mensajes de texto cada vez más divergentes, hizo que Loab volviera a aparecer, en formas cada vez más espeluznantes, en las que predominaban la sangre, el gore y la violencia.

Aquí hay una explicación para Loab, y posiblemente para Crungus: aunque es muy, muy difícil imaginar la forma en que funciona la imaginación de la máquina, es posible imaginar que tenga una forma. Esta forma nunca será suave o bien redondeada: más bien, tendrá depresiones y picos, montañas y valles, áreas llenas de información y áreas que carecen de muchas características. Esas áreas de alta información corresponden a redes de asociaciones de las que el sistema “sabe” mucho. Uno puede imaginar que las regiones relacionadas con rostros humanos, automóviles y gatos, por ejemplo, sean bastante densas, dada la distribución de imágenes que se encuentra en una encuesta de todo Internet.

Son estas regiones en las que un generador de imágenes de IA se basará más al crear sus imágenes. Pero hay otros lugares, menos visitados, que entran en juego cuando se despliegan indicaciones negativas o, de hecho, frases sin sentido. Para satisfacer tales interrogantes, la máquina debe recurrir a conexiones más esotéricas, menos seguras, y tal vez incluso inferir de la totalidad de lo que sabe cuál puede ser su opuesto. Aquí, en el interior, se encuentran Loab y Crungus.

Esa es una teoría satisfactoria, pero plantea ciertas preguntas incómodas sobre por quéCrungus y Loab parecen estarlo; por qué se inclinan hacia el horror y la violencia, por qué insinúan pesadillas. Los generadores de imágenes de IA, en su intento de comprender y replicar la totalidad de la cultura visual humana, parecen haber recreado también nuestros miedos más oscuros. Quizás esto sea solo una señal de que estos sistemas son muy buenos para imitar la conciencia humana, hasta el horror que acecha en las profundidades de la existencia: nuestros miedos a la suciedad, la muerte y la corrupción. Y si es así, debemos reconocer que estos serán componentes persistentes de las máquinas que construimos a nuestra propia imagen. No se puede escapar de tales obsesiones y peligros, no se puede moderar o eliminar la realidad de la condición humana. La suciedad y el asco de vivir y morir permanecerán con nosotros y será necesario abordarlos, al igual que la esperanza, el amor, la alegría y el descubrimiento.

Esto es importante, porque los generadores de imágenes de IA harán lo que han hecho todas las tecnologías anteriores, pero también irán más allá. Reproducirán los sesgos y prejuicios de quienes los crean, como las cámaras web que solo reconocen caras blancas o los sistemas policiales predictivos que asedian los barrios de bajos ingresos. Y también mejorarán el juego: el punto de referencia del rendimiento de la IA está cambiando del estrecho dominio de los acertijos y desafíos (jugar al ajedrez o Go, o obedecer las leyes de tránsito) al territorio mucho más amplio de la imaginación y la creatividad.

Si bien las afirmaciones sobre la "creatividad" de la IA pueden ser exageradas, no hay una verdadera originalidad en la generación de imágenes, solo una imitación y un pastiche muy hábiles, eso no significa que no sea capaz de hacerse cargo de muchas tareas "artísticas" comunes consideradas reservadas durante mucho tiempo. de trabajadores calificados, desde ilustradores y diseñadores gráficos hasta músicos, videógrafos y, de hecho, escritores. Este es un gran cambio. La IA ahora se involucra con la experiencia subyacente de sentimiento, emoción y estado de ánimo, y esto le permitirá moldear e influir en el mundo a niveles cada vez más profundos y persuasivos.

ChatGPT fue presentado en noviembre de 2022 por OpenAI y cambió aún más nuestra comprensión de cómo la IA y la creatividad humana podrían interactuar. Estructurado como un chatbot, un programa que imita la conversación humana, ChatGPT es capaz de mucho más que una conversación. Cuando se le solicita adecuadamente, es capaz de escribir código de computadora que funcione, resolver problemas matemáticos e imitar tareas comunes de escritura, desde reseñas de libros hasta trabajos académicos, discursos de boda y contratos legales.

Inmediatamente fue obvio cómo el programa podría ser una bendición para aquellos que encuentran difícil, por ejemplo, escribir correos electrónicos o ensayos, pero también cómo, al igual que con los generadores de imágenes, podría usarse para reemplazar a aquellos que se ganan la vida con esas tareas. Muchas escuelas y universidades ya han implementado políticas que prohíben el uso de ChatGPT en medio de temores de que los estudiantes lo usen para escribir sus ensayos, mientras que la revista académica Nature ha tenido que publicar políticas que explican por qué el programa no puede figurar como autor de trabajos de investigación ( no puede dar su consentimiento y no se le puede hacer responsable). Pero las propias instituciones no son inmunes a los usos inapropiados de la herramienta: en febrero, la Facultad de Educación y Desarrollo Humano de Peabody, parte de la Universidad de Vanderbilt en Tennessee, sorprendió a los estudiantes cuando envió uncarta de condolencias y consejos tras un tiroteo en una escuela de Michigan. Si bien la carta hablaba del valor de la comunidad, el respeto mutuo y la unión, una nota en la parte inferior decía que fue escrita por ChatGPT, lo que a muchos les pareció moralmente incorrecto y, de alguna manera, falso o extraño. Parece que hay muchas áreas de la vida donde la intercesión de las máquinas requiere un pensamiento más profundo.

Si no fuera apropiado reemplazar nuestras comunicaciones al por mayor con ChatGPT, entonces una tendencia clara es que se convierta en una especie de asistente inteligente, que nos guíe a través del pantano del conocimiento disponible hacia la información que buscamos. Microsoft ha sido uno de los primeros en moverse en esta dirección, reconfigurando su motor de búsqueda Bing, a menudo menospreciado, como un chatbot impulsado por ChatGPT y aumentando enormemente su popularidad al hacerlo. Pero a pesar de la prisa en línea (y periodística) por consultar ChatGPT sobre casi todos los problemas imaginables, su relación con el conocimiento en sí es algo inestable.

Preguntas y respuestas

AI explicó: ¿por qué los chatbots cometen errores?

Espectáculo

Una interacción personal reciente con ChatGPT fue así. Le pedí que sugiriera algunos libros para leer basados ​​en una nueva área de interés: la democracia de múltiples especies, la idea de incluir criaturas no humanas en los procesos de toma de decisiones políticas. Es prácticamente la aplicación más útil de la herramienta: "Oye, aquí hay algo en lo que estoy pensando, ¿puedes decirme algo más?" Y ChatGPT obligado. Me dio una lista de varios libros que exploraban esta nueva área de interés en profundidad y describía en un lenguaje humano persuasivo por qué debería leerlos. ¡Esto fue brillante! Excepto que resultó que solo uno de los cuatro libros enumerados realmente existía, y varios de los conceptos que ChatGPT pensó que debería explorar más a fondo se sacaron al por mayor de la propaganda derechista: explicaba, por ejemplo, que el movimiento de "uso racional" promovía los derechos de los animales. 

Ahora, esto no sucedió porque ChatGPT es inherentemente de derecha. Es porque es inherentemente estúpido . Ha leído la mayor parte de Internet y sabe cómo se supone que debe sonar el lenguaje humano, pero no tiene relación alguna con la realidad. Son oraciones de ensueño que suenan bien, y escucharlas hablar es francamente tan interesante como escuchar los sueños de alguien. Es muy bueno para producir lo que suena como sentido y, lo mejor de todo, para producir clichés y banalidades, lo que ha compuesto la mayor parte de su dieta, pero sigue siendo incapaz de relacionarse significativamente con el mundo tal como es en realidad. Desconfíen de cualquiera que pretenda que esto es un eco, incluso una aproximación, de la conciencia. (Cuando esta pieza iba a ser publicada, OpenAI lanzó una nueva versióndel sistema que impulsa a ChatGPT, y dijo que era "menos probable que invente hechos".)

La creencia en este tipo de IA como realmente informada o significativa es activamente peligrosa. Corre el riesgo de envenenar el pozo del pensamiento colectivo y de nuestra capacidad de pensar. Si, como proponen las empresas de tecnología, los resultados de las consultas de ChatGPT se proporcionarán como respuestas a aquellos que buscan conocimiento en línea, y si, como han propuesto algunos comentaristas, ChatGPT se utiliza en el aula como ayuda para la enseñanza, entonces su las alucinaciones entrarán en el registro permanente, interponiéndose efectivamente entre nosotros y fuentes de información más legítimas y verificables, hasta que la línea entre los dos sea tan borrosa que sea invisible. Además, nunca ha habido un momento en que nuestra capacidad como individuos para investigar y evaluar críticamente el conocimiento en nuestro propio nombre haya sido más necesaria. sobre todo por el daño que las empresas de tecnología ya han causado a las formas en que se difunde la información. Poner toda nuestra confianza en los sueños de máquinas mal programadas sería abandonar por completo ese pensamiento crítico.

Las tecnologías de IA también son malas para el planeta . Entrenar un solo modelo de IA, según una investigación publicada en 2019, podría emitir el equivalente a más de 284 toneladas de dióxido de carbono, que es casi cinco veces más que la vida útil total del automóvil estadounidense promedio, incluida su fabricación. Se espera que estas emisiones aumenten casi un 50 % en los próximos cinco años, todo mientras el planeta continúa calentándose, acidificando los océanos, provocando incendios forestales, provocando supertormentas y llevando a las especies a la extinción. Es difícil pensar en algo más absolutamente estúpido que la inteligencia artificial, tal como se practica en la era actual.


Demos un paso atrás. Si estas encarnaciones actuales de "inteligencia" "artificial" son tan aburridas, ¿cuáles son las alternativas? ¿Podemos imaginar poderosas tecnologías de clasificación y comunicación de información que no nos exploten, abusen, engañen y suplanten? Sí, podemos, una vez que salgamos de las redes de poder corporativo que han llegado a definir la ola actual de IA.

De hecho, ya hay ejemplos de IA que se utilizan para beneficiar a comunidades específicas al eludir el poder arraigado de las corporaciones. Las lenguas indígenas están amenazadas en todo el mundo. La ONU estima que uno desaparece cada dos semanas, y con esa desaparición van generaciones de conocimiento y experiencia. Este problema, resultado del colonialismo y las políticas de asimilación racistas durante siglos, se ve agravado por el creciente dominio de los modelos de lenguaje de aprendizaje automático, que aseguran que los lenguajes populares aumenten su poder , mientras que los menos conocidos pierden exposición y experiencia.

En Aotearoa, Nueva Zelanda, una pequeña estación de radio sin fines de lucro llamada Te Hiku Media, que transmite en idioma maorí, decidió abordar esta disparidad entre la representación de diferentes idiomas en la tecnología. Su archivo masivo de más de 20 años de transmisiones, que representan una amplia gama de modismos, coloquialismos y frases únicas, muchas de las cuales ya no las habla nadie vivo, se estaba digitalizando, pero era necesario transcribirlas para que fueran de utilidad para los investigadores de idiomas y la comunidad maorí. En respuesta, la estación de radio decidió entrenar su propio modelo de reconocimiento de voz, para poder “escuchar” su archivo y producir transcripciones.

Durante los siguientes años, Te Hiku Media, utilizando tecnologías de código abierto y sistemas que desarrolló internamente, logró lo casi imposible: un sistema de reconocimiento de voz de alta precisión para el idioma maorí, que fue construido y propiedad de su propia comunidad lingüística. . Esto fue más que un esfuerzo de software. La estación se puso en contacto con todos los grupos de la comunidad maorí que pudo y les pidió que se grabaran hablando declaraciones preescritas para proporcionar un corpus de discurso anotado, un requisito previo para entrenar su modelo.

Hubo un premio en efectivo para quien envió la mayor cantidad de oraciones (un activista, Te Mihinga Komene, registró 4000 frases por sí solo), pero los organizadores descubrieron que la mayor motivación para los contribuyentes era la visión compartida de revitalizar el idioma y mantenerlo en manos de la comunidad. En unas pocas semanas, creó un modelo que reconocía el habla grabada con un 86 % de precisión, más que suficiente para comenzar a transcribir su archivo completo.

El logro de Te Hiku Media abrió un camino para que lo siguieran otros grupos indígenas, con proyectos similares que ahora están siendo emprendidos por los pueblos Mohawk en el sureste de Canadá y los nativos hawaianos. También estableció el principio de soberanía de los datos en torno a las lenguas indígenas y, por extensión, otras formas de conocimiento indígena. Cuando las empresas internacionales con fines de lucro comenzaron a acercarse a los hablantes de maorí para ayudar a construir sus propios modelos, Te Hiku Media hizo campaña en contra de estos esfuerzos, argumentando: “Suprimieron nuestros idiomas y golpearon físicamente a nuestros abuelos, y ahora quieren vender nuestro idioma de nuevo. para nosotros como un servicio”.

“Los datos son la última frontera de la colonización”, escribió Keoni Mahelona, ​​nativo de Hawái y uno de los cofundadores de Te Hiku Media. Todo el trabajo de Te Hiku se publica bajo lo que denominó la Licencia Kaitiakitanga , una garantía legal de tutela y custodia que asegura que todos los datos que entraron en el modelo de lenguaje y otros proyectos siguen siendo propiedad de la comunidad que los creó, en este caso. , los hablantes de maorí que ofrecieron su ayuda, y es de ellos para licenciar, o no, según lo consideren apropiado de acuerdo con su tikanga (costumbres y protocolos maoríes). De esta manera, la lengua maorí se revitaliza, mientras resiste y altera los sistemas de colonialismo digital que continúan repitiendo siglos de opresión.

Creo que la lección de la ola actual de "inteligencia" "artificial" es que la inteligencia es algo pobre cuando la imaginan las corporaciones. Si su visión del mundo es una en la que la maximización de las ganancias es el rey de las virtudes, y todas las cosas se llevarán a cabo según el estándar del valor de los accionistas, entonces, por supuesto, sus expresiones artísticas, imaginativas, estéticas y emocionales se verán lamentablemente empobrecidas. Merecemos algo mejor de las herramientas que usamos, los medios que consumimos y las comunidades en las que vivimos, y solo obtendremos lo que merecemos cuando seamos capaces de participar plenamente en ellos. Y tampoco te dejes intimidar por ellos, en realidad no son tan complicados. Como escribió la leyenda de la ciencia ficción Ursula K Le Guin: “La tecnología es lo que podemos aprender a hacer”.

Este artículo se modificó el 17 de marzo de 2023 para aclarar la opinión del autor de que, si bien la IA actual se basa en muchas ideas que se teorizaron hace décadas, eso no significa que los avances tecnológicos más recientes no fueran necesarios para el desarrollo de programas como ChatGPT.

Este artículo fue adaptado de la nueva edición de New Dark Age: Technology and the End of the Future , publicado por Verso

… a medida que 2023 se acelera y te unes a nosotros desde Argentina, tenemos un pequeño favor que pedirte. Un nuevo año significa nuevas oportunidades, y esperamos que este año dé lugar a la estabilidad y el progreso que tanto se necesitan. Pase lo que pase, The Guardian estará allí, brindando claridad e informes independientes y audaces de todo el mundo, las 24 horas del día, los 7 días de la semana. 

Los tiempos son difíciles y sabemos que no todo el mundo está en condiciones de pagar por las noticias. Pero como estamos financiados por lectores, confiamos en la generosidad continua de aquellos que pueden permitírselo. Este apoyo vital significa que millones pueden continuar leyendo informes confiables sobre los eventos que dan forma a nuestro mundo. ¿Invertirás en The Guardian este año?

A diferencia de muchos otros, no tenemos un propietario multimillonario, lo que significa que podemos perseguir la verdad sin miedo y reportarla con integridad. 2023 no será diferente; trabajaremos con la determinación y la pasión de marca registrada para brindarle un periodismo que siempre esté libre de interferencias comerciales o políticas. Nadie edita nuestro editor ni desvía nuestra atención de lo más importante. 

Con su apoyo, continuaremos manteniendo el periodismo de The Guardian abierto y gratuito para que todos lo lean. Cuando el acceso a la información es igualitario, un mayor número de personas puede comprender los eventos globales y su impacto en las personas y las comunidades. Juntos, podemos exigir algo mejor a los poderosos y luchar por la democracia

https://www.theguardian.com/technology/2023/mar/16/the-stupidity-of-ai-artificial-intelligence-dall-e-chatgpt?utm_term=64158baa409796676caa18e7522ef154&utm_campaign=TheLongRead&utm_source=esp&utm_medium=Email&CMP=longread_ema