Inteligencia Artificial: historias “entre la distopía y la utopía” para entender a fondo las IA y su impacto en nuestras vidas
En “Invisible”, el ingeniero argentino Fredi Vivas explora los límites y riesgos de esta tecnología. ¿Puede llevar a la extinción de la humanidad o, por el contrario, impulsar mejoras significativas?
Por René Salomé
La Inteligencia Artificial es uno de los temas más discutidos de la actualidad. Desde sus ventajas y desventajas hasta sus implicancias éticas, pasando por los peligros que podría afrontar en un futuro para la humanidad, los sistemas de IA han generado un amplio debate alrededor del mundo.
Aunque es un tema común hoy en día, hace ya más de quince años que el ingeniero argentino Fredi Vivas viene investigando y estudiando la Inteligencia Artificial. Interesado desde chico en la ciencia ficción, en 2021 publicó su exitoso primer libro ¿Cómo piensan las máquinas?, un ensayo fascinante sobre los límites y riesgos de las IA, así como sobre las mejores formas de aprovecharla y de fomentar un uso responsable de las mismas.
Pero esta vez, para su segundo libro, Vivas se adentró en terrenos desconocidos. Invisible, editado por Sudamericana, mezcla siete cuentos de ficción científica con diez principios para entender a fondo la Inteligencia Artificial y su impacto en nuestras vidas. Es así que en Invisible, por ejemplo, hay un robot a punto de convertirse en chatarra y un nieto que intenta salvarlo, una persona cuya identidad fue borrada de todo registro digital, un país gobernado por máquinas, científicos que descubren un mecanismo para viajar al pasado, un chico harto del bullying entrena a un robot para que lo ayude en la escuela.
¿La inteligencia artificial puede llevar a la extinción de la humanidad o, por el contrario, impulsar mejoras significativas? ¿Los seres humanos tendremos la capacidad de controlar la IA o presenciaremos un cambio de roles? En forma de ficciones atrapantes, cargadas de humor y llenas de guiños nostálgicos a un pasado analógico, sin tono apocalíptico ni optimismo excesivo, los cuentos, conceptos y principios de Invisible postulan un equilibrio muy interesante entre lo distópico y lo utópico.
“Invisible” (fragmento)
Leyes asimovianas: literatura, tecnología y ética
Se conoce como leyes de Asimov a un conjunto de principios éticos formulados por el escritor ruso-americano de ciencia ficción Isaac Asimov en 1942.
Estas leyes se presentaron por primera vez en su relato “Runaround”, traducido al español como “Círculo vicioso”. Sin embargo, lo que resulta más interesante es que este ordenamiento jurídico básico ha trascendido la literatura para inspirar debates sobre la regulación de la robótica y, especialmente, la inteligencia artificial en el mundo de la no ficción, y cobró una influencia significativa en estas discusiones.
Pero, para entenderlas, primero tenemos que explorar el contexto en el que surgieron. Asimov y otros escritores de ciencia ficción, como Arthur C. Clarke o Ray Bradbury, buscaban establecer ciertas ideas o nociones éticas y científicas mediante sus relatos literarios. Hacia la década de 1940, en plena Segunda Guerra Mundial y teniendo en cuenta las consecuencias de la Gran Guerra, existía un cierto resquemor por los efectos de los avances tecnológicos y científicos. El gas, los submarinos, los vehículos y los aviones habían sido usados tanto para el bien como para las masacres más oscuras y crueles en el contexto bélico. Y por eso comenzaron a surgir pensadores, científicos e intelectuales que propusieron una regulación ética de la tecnología.
Como profesor de Bioquímica, Asimov era consciente del daño que el avance científico podría causar en la sociedad, y probablemente ese fenómeno lo inspiró a pensar sus famosas leyes de la robótica, que se enuncian de la siguiente manera:
1. Primera ley: un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Segunda ley: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
3. Tercera ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Desde su introducción, las leyes de Asimov han generado debates y reflexiones en la comunidad científica, filosófica y tecnológica. ¿Cómo se puede garantizar que las máquinas actúen éticamente? ¿Quién es responsable si un robot causa daño a pesar de las leyes? ¿Cómo se equilibra la necesidad de control con el desarrollo de la autonomía en los robots?
Estas son solo algunas de las preguntas que comenzaron a surgir en las décadas posteriores a la popularización de las leyes de Asimov. Ahora bien, dentro de esos debates, también existen posturas que entienden que estas leyes quedan obsoletas frente a los nuevos desafíos que implica el auge de la inteligencia artificial, especialmente después de la primera década del siglo XXI. Las leyes, por ejemplo, no abordan el tema de la conciencia y las emociones en las máquinas.
¿Qué sucede si se crea un robot con capacidades cognitivas y emocionales avanzadas? ¿Cómo afectaría esto a la interpretación y el cumplimiento de las leyes? Por otro lado, esto también nos puede llevar a preguntarnos si los gobiernos e instituciones públicas deberían establecer regulaciones basadas en principios éticos similares a las leyes asimovianas para la inteligencia artificial.
Hoy, cuando la IA y la robótica están cada vez más presentes en nuestra vida cotidiana, y a medida que se integran profundamente en campos como la atención médica, el transporte, la comunicación o la defensa, surgen nuevos debates en relación con la seguridad y la responsabilidad de las acciones de las máquinas, o la relación entre la robótica y el empleo. Existen posturas que argumentan que si la incorporación de la inteligencia al mundo del trabajo generará una ola masiva de despidos y desempleo, quizás eso podría ser leído como un daño que producen los robots a la humanidad y, en consecuencia, infringiría estos principios éticos.
Otras posturas sostienen que el paradigma legal asimoviano está mucho más relacionado con la robótica de mediados del siglo XX, principalmente en el abordaje del mundo de lo físico, repetitivo, y la fuerza. Ese marco jurídico puede resultar interesante para pensar la robótica industrial clásica, pero quizás quedaría obsoleto para analizar modelos de inteligencia artificial que trabajen sobre aspectos creativos, por ejemplo.
Leyes de Clarke
Arthur C. Clarke, además de un recurso para las conferencias de Facundo Beltrán, fue uno de los escritores de ciencia ficción y uno de los científicos más relevantes de su época. Culturalmente, nos legó 2001: odisea del espacio, y Cita con Rama, uno de los mayores exponentes de lo que se conoce como ciencia ficción dura, un subgénero de la ciencia ficción en el que abundan los datos técnicos y científicos.
Cuenta la leyenda que, en la década de 1960, su editor y traductor al francés enumeró algunas de sus afirmaciones y las compiló en máximas o adagios. Es decir, afirmaciones cortas y contundentes sobre un tema determinado. Estos conceptos fueron volcándose en distintos escritos y novelas, y podrían resumirse en tres axiomas:
1. Cuando un científico distinguido, pero de edad avanzada, afirma que algo es posible, es casi seguro que tiene razón. Cuando afirma que algo es imposible, es muy probable que esté equivocado.
2. La única forma de descubrir los límites de lo posible es aventurarse un poco más allá de ellos hacia lo imposible.
3. Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia.
En cuanto al primer axioma, en una lectura inicial podría significar una especie de oda a la juventud. Pero nada más alejado de eso. Lo que busca plasmar Clarke es una especie de recordatorio de la naturaleza cambiante del conocimiento científico y tecnológico.
A lo largo de la historia, hemos sido testigos de numerosos avances que en su momento fueron considerados utópicos o incluso fantasiosos. Desde la idea de volar como pájaros hasta el alunizaje, la humanidad ha desafiado constantemente lo que una vez se consideró imposible. El primer axioma de Clarke resalta entonces la importancia de mantener una mente abierta, receptiva a nuevas ideas y descubrimientos.
A esta primera ley, en un crossover más que interesante, Isaac Asimov le agregó un corolario: Sin embargo, cuando el público lego se manifiesta en torno a una idea, que es denunciada por científicos distinguidos pero ancianos, y apoya esa idea con gran fervor y emoción, los científicos distinguidos pero ancianos están, después de todo, probablemente en lo correcto.
La segunda de ellas deja este concepto mucho más claro. Para los escritores de ciencia ficción y divulgadores científicos como Clarke, la idea de “lo imposible” es algo con lo que tienen que combatir permanentemente. Porque sus conceptos, escenarios, narrativas y fundamentos se encuentran en un mundo que hoy no conocemos. Y en general, lo desconocido es, de alguna forma, rechazado por la mente humana. Tendemos a creer, casi por un sesgo de supervivencia, que el mundo va a ser siempre tal y como lo conocemos. Y que es imposible que se transforme. Esta idea cabe tanto para quienes se pusieron el objetivo de llegar a la luna, como de construir vehículos voladores o implementar sistemas de inteligencia artificial en una pyme. La capacidad de empujar los límites de lo posible es una habilidad clave para los liderazgos del futuro, según la lógica de Clarke.
Por último, quizás la más famosa de las leyes, citada por Beltrán en su conferencia, está muy vinculada con el punto anterior, aunque no lo parezca a simple vista. Podemos estar convencidos de que algo es imposible hasta que lo vemos ante nuestros propios ojos. Una vez que eso sucede, corremos el riesgo de creer que lo que acabamos de ver no es otra cosa que fruto de la magia. Dicho de otra forma, seguimos creyendo que es imposible desde parámetros humanos.