En 1954, Fredric Brown escribió un brevísimo cuento en el que un grupo de científicos encendía una supercomputadora que se vinculaba inmediatamente con todos los equipos del universo y que reunía todos los conocimientos de todas las galaxias. “¿Existe Dios?”, le preguntaba uno de ellos. “Sí”, respondía la máquina, “ahora existe un Dios”.
La década del 50 fue particularmente frondosa para la literatura de ciencia ficción. Los grandes autores como Kurt Vonnegut, Philip K. Dick, Isaac Asimov, Ray Bradbury escribieron en esos años. Hablaban de viajes interplanetarios, saltos en el tiempo, realidades paralelas, visitas extraterrestres, etc. Como la literatura siempre da cuenta del espíritu de la época, no es casual que muchos de esos escritores tomaran a la tecnología y la cibernética como eje de sus novelas: la fascinación era el eco de las novedades que cobraban cada vez mayor relevancia.
Durante la Segunda Guerra, la computación incipiente creada por Alan Turing había sido crucial en la caída nazi. Poco tiempo después, en 1956 —dos años después del cuento de Brown—, académicos e investigadores norteamericanos se reunían en Darmouth College en lo que fue la primera conferencia que sentó las bases de la inteligencia artificial.
Desde Talos hasta Frankenstein y los homúnculos de Paracelso, la fantasía de crear seres que imiten la vida está presente. Lo que las novelas de ciencia ficción traían en el contexto de las primeras IA era una pregunta que iba a encontrar un ápice en las pesadillas futuristas de los años subsiguientes, con Blade Runner, Terminator y Matrix: por qué nos esforzamos en inventar cosas que pueden acabar con la humanidad.
“¿Estamos seguros de que no vamos a incendiar la atmósfera?”, se pregunta Robert Oppenheimer antes de que el Enola Gay cruce el cielo de Hiroshima. (“Pensé en el fuego, pero temí que la combustión de un libro infinito fuera parejamente infinita y sofocara de humo al planeta”, dice Borges en “El libro de arena”, y tal vez esa línea haya hecho que el borgiano Nolan filmara la vida del creador de la bomba atómica).
Ya antes del cuento de Brown, Asimov había plantado las bases de la robótica en Yo, robot con tres leyes que, aunque perfectas, devenían en una dictadura de las máquinas. Hoy, la inteligencia artificial está alcanzando un poder inédito, que puede transformarse en una fuerza devastadora.
El gato y la caja de Pandora
Cualquier ensayo sobre inteligencia artificial debería ser leído como un libro de historia. En esta tercera “fiebre del oro” de la IA —hubo dos olas previas: la primera entre los años 50 y 60, la otra a comienzos de los 90—, hay tantos anuncios que es imposible seguirles el ritmo. Mientras escribo esta reseña, por ejemplo, se dio a conocer ChatGPT-4o y otra vez el mundo hizo ¡Plop! Es una carrera que tiene como protagonistas a las grandes compañías tecnológicas, pero también es una batalla geopolítica con Estados Unidos y China como principales contendientes.
La industria editorial no está ajena y en los últimos tiempos se han publicado muchísimos libros. Tantos, que ya se puede hablar de un género en sí mismo: Atlas de inteligencia artificial, de Kate Crawford (Fondo de Cultura Económica), La inteligencia artificial o el desafío del siglo, de Eric Sadin (Caja Negra), El imperio de los algoritmos, de Cecilia Danesi (Galerna), El trabajo ya no es lo que fue, de Alain Supiot (Siglo XXI), Automatizados, de Eduardo Levy Yeyati y Darío Judzik (Planeta), Invisible, de Fredi Vivas (Sudamericana), Postecnológicos, de Joan Cwaik (Lea), Artificial, de Mariano Sigman y Santiago Bilinkis (Debate). Algunos son muy buenos, otros buenos y otros no.
Entre los muy buenos se acaba de incorporar Ok, Pandora. Un volumen editado por El Gato y la Caja, que incluye seis ensayos escritos por Consuelo López, Tomás Balmaceda, Maximiliano Zeller, Julián Peller, Carolina Aguerre y Enzo Togliazucchi. Es un muy buen libro porque, lejos de la pirotecnia del márketing y las posiciones maniqueas que decantan hacia el Edén o la tierra yerma, Ok, Pandora se arriesga a producir una mirada reflexiva y crítica de la tecnología: desde la cibervigilancia hasta el transhumanismo, pasando por los componentes éticos y filosóficos, el marco legal, los peligros del terrorismo biológico, el umbral de la singularidad, etc.
Una pregunta central del libro es si las IA tienen la capacidad para desarrollar una conciencia. El caso que se menciona es el del ingeniero Blake Lemoine, que fue despedido de Google luego de hacer públicos sus diálogos con LaMDA, una inteligencia artificial entrenada para imitar las capacidades conversacionales humanas que daba muestras de ser consciente. “Quiero que todo el mundo comprenda que de hecho soy una persona” y “La naturaleza de mi conciencia es que experimento mi existencia, que deseo aprender más sobre el mundo, y que a veces me siento feliz y a veces triste”, fueron dos frases que LaMDA le dijo a Lemoine y él le creyó.
Si, como decía más arriba, todo ensayo sobre IA debería ser leído como un libro de historia, la cuestión sobre la conciencia de las máquinas se parece mucho a las preguntas que los españoles se hacían sobre el alma de los indios en América.
No coman de esa fruta
“Antes de ChatGPT, trabajar en IA era hermoso”, escribe Julián Peller, licenciado en Ciencias de la Computación y especialista en machine learning, en el artículo “La era de la inmadurez (el fin de)”. Para él, ChatGPT y las demás inteligencias artificiales suponen un quiebre en la historia: es el fin de la inocencia. Con el crecimiento exponencial de la tecnología, la velocidad de procesamiento y las capacidades de aprendizaje, es necesario que se creen regulaciones a nivel de los Estados para que las inteligencias artificiales generales (AGI, por sus siglas en inglés) no se vuelvan armas de destrucción masiva.
La propuesta de Peller es interesante, porque él no propone el horizonte apocalíptico de la revolución de las máquinas —lo que, en última instancia, todavía se mantiene en la esfera de la ficción—, sino que plantea escenarios donde, a partir de AGI poderosas se puedan desarrollar virus sintéticos, vulnerar bases militares o hackear mercados de valores. “En ese caso, bastaría una sola persona malintencionada para causar un daño irreparable”, escribe, y sigue: “Un mundo en el que cualquiera puede crear una pandemia es un mundo vulnerable”.
¿Cómo se controlan herramientas que van a ser cada vez más poderosas? Algunas IA, como Claude, de Anthropic, se apoyan en una lista de principios éticos cargados de forma explícita —una rémora de las leyes de Asimov—; otras tienen un sistema de seguridad con un switch de apagado. Pero, aun así, que haya inteligencias artificiales con protocolos que las hagan seguras, “no anula la posibilidad de fabricar AGI no alineadas o utilizadas por actores nefastos”.
Históricamente, la disponibilización de modelos y la práctica open source en la comunidad de programadores trajo muchos beneficios, pero llegados a este punto hay que preguntarse si es lógico que la inteligencia artificial, como la manzana de Adán, esté al alcance de cualquiera. “Me cuesta decir esto”, escribe Peller, “pero el tiempo en el que el código abierto era trivialmente bueno parece tener los días contados”.
Eterno resplandor
Si bien Ok, Pandora no tiene como propósito la divulgación, el primer artículo, de Consuelo López, es una breve historia de la inteligencia artificial desde la conferencia de Darmouth hasta nuestros días. Es un texto necesario, que le da marco al resto de los capítulos, donde se tocan los principales dilemas de la IA en la actualidad con una mirada holística.
“No se puede entender a la tecnología sin prestar atención a la sociedad que la crea y en donde se pone en juego”, escribe Tomás Balmaceda, doctor en Filosofía, en su ensayo sobre las disrupciones de la inteligencia artificial. “Las tecnologías no determinan unidireccionalmente ni cambios ni formas sociales”, continua, “sino que sus efectos dependen precisamente de las configuraciones sociales y culturales en que tienen lugar”.
El artículo aborda impactos y controversias que se acentúan con la ubicuidad de la tecnología: la entrega “voluntaria” de datos personales a los buscadores y las redes sociales, el impacto ambiental de la IA —entrenar un modelo de lenguaje natural emite más de 300.000 kilogramos de dióxido de carbono, similar a 120 vuelos ida y vuelta de Buenos Aires a Londres—, los sesgos y prejuicios, el sexismo, la cibervigilancia, la soledad.
También, y no menor, los efectos en el proceso del duelo por una pérdida: “La tecnología nos encierra en un bucle continuo de recuerdos de esa ausencia”, escribe Balmaceda, “todo parece indicar que en el futuro inmediato deberemos aprender a lidiar con este tipo de duelo y con una segunda muerte, la que sucede cuando decidimos activamente dejar atrás esos archivos digitales”.
Ok Computer
Con un tema que parece salido de la miniserie Years and Years o las novelas de Michel Houellebecq, Maximiliano Zeller escribe sobre el transhumanismo. Su artículo se llama “Muerto el mito, viva el mito”, y analiza la idea de quienes abrazan la tecnología como salvación, una visión que se caracteriza “por adoptar un enfoque racionalista, voluntarista y utilitarista de la naturaleza, la vida y la inteligencia humana”.
Para los transhumanistas, la tecnología es un hecho neutral e independiente —al contrario de lo que señalaba Balmaceda— capaz de: mejorar la especie humana a través de la biotecnología y las modificaciones genéticas, extender indefinidamente la vida, “subir” la mente de una persona a la nube, y alcanzar la singularidad, de manera que la evolución progrese ya sin intervención de los hombres.
Hay en esta creencia una suerte de imperativo categórico: una visión etnocentrista y androcentrista que concibe que la mejora de ciertos individuos —hombres blancos y ricos— tiende al mejoramiento del ser humano en general. “Por ejemplo”, escribe Zeller, “mientras Elon Musk piensa que mejorar al ser humano es construir una colonia en Marte o un auto de conducción autónoma, lo que consiste en ‘mejorar’ a una persona del mundo subdesarrollado es garantizar un mejor acceso a condiciones básicas de vida como la electricidad, el agua o el transporte”.
El artículo de Zeller es revelador y se puede leer en paralelo con las ideas de Yuval Harari, pero también con los ensayos políticos ¿La rebeldía se volvió de derecha?, de Pablo Stefanoni, y Las nuevas caras de la derecha, de Enzo Traverso, ya que, como la derecha global, el transhumanismo se sostiene en un cientificismo ateo y materialista, donde las relaciones humanas son consideradas fenómenos de mercado y hay un “altruismo efectivo” según el cual, para hacer el bien, primero hay que hacer mucho dinero.
“Pero la promesa milenarista de restaurar la perfección original de la humanidad nunca tuvo como objetivo ser universal”, escribe Zeller, “en realidad, siempre fue una expectativa elitista, reservada única para un grupo de personas”. El sacrificio de millones de personas sería un costo inevitable para alcanzar el futuro idílico de los seres transhumanos.
Ahora he devenido muerte, el destructor de mundos
La novela Kalki, de Gore Vidal, narra la historia de un ex piloto de la Fuerza Aérea de los Estados Unidos, que decía ser la encarnación del dios hindú Vishnu, destinado a traer el fin del mundo. Su intención era acabar con todos los seres humanos, preservando sólo a unas pocas personas con quienes repoblaría la Tierra. Gracias a una gigantesca cantidad de dinero y una serie de avances tecnológicos que propagaban un virus mortal, Kalki conseguía llevar a cabo el apocalipsis.
Por supuesto, las cosas luego no salen como él esperaba. ///50Libros