Skip to main content

Los clips de papel de Frankenstein:

Los expertos en tecnología no creen que la inteligencia artificial se salga de control, pero existen otras preocupaciones éticas.

La idea de máquinas que se vuelven contra sus creadores no es nueva, se remonta al “Frankenstein” de Mary Shelley (1818) y antes; ni el concepto de una IA experimentando una "explosión de inteligencia" a través de la superación personal repetida, que se sugirió por primera vez en 1965. Pero el progreso reciente en la IA ha causado una renovada preocupación, y el Sr. Bostrom se ha convertido en el defensor más conocido de los peligros de la IA. IA avanzada o, como él prefiere llamarlo, "superinteligencia", el título de su libro más vendido.

Su interés en la IA surgió de su análisis de las amenazas existenciales para la humanidad. A diferencia de una enfermedad pandémica, el impacto de un asteroide o un supervolcán, el surgimiento de la superinteligencia es algo sobre lo que la humanidad tiene cierto control. El libro de Bostrom llevó a Elon Musk a declarar que la IA es “potencialmente más peligrosa que las armas nucleares”. Las preocupaciones sobre su seguridad también han sido expresadas por Stephen Hawking, físico, y Lord Rees, exjefe de la Royal Society, el principal organismo científico de Gran Bretaña. Los tres, y muchos otros en la comunidad de IA, firmaron una carta abierta pidiendo investigación para garantizar que los sistemas de IA sean "robustos y beneficiosos", es decir, que no se vuelvan malvados. Pocos estarían en desacuerdo con que la IA debe desarrollarse de manera que beneficie a la humanidad, pero es más difícil llegar a un acuerdo sobre cómo hacerlo.

Musk cree que la apertura es la clave. Fue uno de los cofundadores en diciembre de 2015 de OpenAI, un nuevo instituto de investigación con más de $ 1 mil millones en fondos que llevará a cabo investigaciones de IA y hará públicos todos sus resultados. “Creemos que la IA tendrá un efecto masivo en el futuro de la civilización, y estamos tratando de tomar el conjunto de acciones que conducirán eso hacia un buen futuro”, dice. En su opinión, la IA debería distribuirse lo más ampliamente posible. Las IA rebeldes en la ciencia ficción, como HAL 9000 en “2001: A Space Odyssey” y SKYNET en las películas “Terminator”, son máquinas grandes y centralizadas, que es lo que las hace tan peligrosas cuando se vuelven malvadas. Un enfoque más distribuido garantizará que los beneficios de la IA estén disponibles para todos y que las consecuencias sean menos graves si una IA falla, argumenta Musk.

Los temores de que las IA se vuelvan deshonestas no son ampliamente compartidos por las personas a la vanguardia de la investigación de la IA. “Gran parte del alarmismo proviene de personas que no trabajan directamente en la superficie del carbón, por lo que piensan mucho en escenarios de ciencia ficción”, dice Demis Hassabis de DeepMind. “No creo que sea útil cuando usas términos muy emotivos, porque crea histeria”. Hassabis considera que el escenario del clip es "poco realista", pero cree que Bostrom tiene razón al resaltar la cuestión de la motivación de la IA. Cómo especificar los objetivos y valores correctos para las IA, y garantizar que se mantengan estables en el tiempo, son preguntas de investigación interesantes, dice. (DeepMind acaba de publicar un artículo con el Future of Humanity Institute del Sr. Bostrom sobre la adición de "interruptores de apagado" a los sistemas de IA). Una reunión de expertos en IA celebrada en 2009 en Asilomar, California, también concluyó que la seguridad de la IA era un tema de investigación, pero no una preocupación inmediata. El lugar de la reunión fue significativo, porque los biólogos se reunieron allí en 1975 para redactar pautas voluntarias para garantizar la seguridad de la tecnología del ADN recombinante.

https://www.economist.com/special-report/2016/06/23/frankensteins-paperclips