Nick Bostrom, filósofo sueco: ¿Estamos viviendo en una simulación?

Este influyente pensador ha sacudido al mundo con una idea que parece una provocación, pero a la que él le asigna una alta probabilidad: que todo lo que experimentamos hoy es parte de una sofisticada simulación creada por una civilización superior. En esta entrevista con La Tercera explica su Argumento de la Simulación y plantea otras inquietudes sobre el futuro de la humanidad.


A veces, el filósofo sueco Nick Bostrom (49) escribe poesía. “En mis momentos de debilidad”, dice en lo que suena a chiste autoflagelante, aunque no se ríe. “Trato de no hacerlo una prioridad, pero de vez en cuando surge”, explica, desbaratando cualquier interpretación jocosa. El tema es este: Bostrom se pasa sus horas despierto pensando, escribiendo, leyendo y hablando sobre ideas como el destino final de la humanidad, los escenarios probables para nuestra extinción, en qué momento las máquinas serán más inteligentes que los seres humanos y se harán incontrolables, cuándo los sistemas de inteligencia artificial deberán alcanzar un estatus moral y si el mundo en que vivimos es real o es una simulación computacional creada por una civilización superior. Se gana la vida en eso, por decir lo menos.

Bostrom es el filósofo menor de 50 años más citado del mundo, aunque esa etiqueta profesional parece mezquina considerando sus estudios de física, neurociencia computacional, lógica e inteligencia artificial. Ha sido incluido dos veces en la lista de los 100 Global Thinkers de la revista Foreign Policy y entre los 15 World Thinkers de la revista Prospect. Su trabajo académico ha sido traducido en 30 idiomas. Cuenta con cerca de 200 publicaciones, entre ellas cuatro libros, el último de los cuales resulta fundamental a la hora de proyectar el futuro de la inteligencia artificial: Superinteligencia: caminos, peligros, estrategias (2014). Como todo buen intelectual exitoso, Bostrom registra varias charlas TED en su currículum. Y aunque no sea evidente, en sus años universitarios en Londres probó suerte en el circuito de comedia stand-up.

Este influyente pensador dirige un centro que fundó en la Universidad de Oxford, el Future of Humanity Institute, que define en esta conversación con La Tercera como “un instituto de investigación multidisciplinaria, donde tenemos físicos, científicos computacionales, expertos en inteligencia artificial, filósofos y otros; donde tratamos de pensar con cuidado en las preguntas realmente de amplio espectro, cosas que pueden cambiar de manera fundamental la condición humana”.

Por todo eso, explica, la poesía es algo que no busca, sino que surge en esos “momentos de debilidad”. “No es que trate de hacer poesía con el trabajo, pero sin duda que mis intuiciones están marcadas porque paso todo el día pensando estas ideas. Supongo que eso hace que mi poesía sea difícil de entender, hay muy pocas personas que entiendan estos conceptos y modelos teóricos y que también entiendan poesía”, dice. “De hecho, puede ser una intersección vacía; esa es otra razón para no tratar de escribir poesía; sólo sucede a pesar de mí a veces, porque no hay un público para ello”.

Para lo que sí hay cada vez más público es para una de las líneas de trabajo que ha desarrollado Bostrom: la preocupación sobre a dónde llegará la inteligencia artificial, un panorama que cambia y se acelera particularmente después de la revolución del deep learning (aprendizaje profundo) que, en palabras de Bostrom, “ha llevado a la contracción de las escalas de tiempo” en relación al desarrollo de la inteligencia artificial. “Las líneas de tiempo fueron siempre muy inciertas, y se trata en realidad de probabilidades, pero todo eso se ha contraído a partir del rápido progreso en el aprendizaje de máquinas en los últimos ocho a 10 años. Ha sido muy impresionante”. Una de las preguntas que ha desarrollado en su trabajo es qué va a pasar cuando las máquinas sean derechamente más inteligentes que los seres humanos.

Bostrom ha planteado que si queremos que el desarrollo de la IA sea beneficioso para la humanidad debemos pensar en cómo lograr diseñarla de un modo que incorpore los valores que nos importan como humanos,

¿Lo estamos haciendo? El tema de la ética en modelos de IA lleva un buen tiempo, ¿no?

De alguna manera sí, pero creo que hay desafíos técnicos en encontrar cómo hacerlo. Incluso si encontramos un acuerdo universal sobre los problemas éticos, todavía está el problema de cómo incorporarlos en la IA. ¿Cómo asegurarnos de que a la IA le importe qué es éticamente correcto? Todavía es un desafío de investigación importante. En cuando a la ética de la IA, es verdad que hay mucho desarrollo en términos de cómo evitar los prejuicios en estos sistemas, discriminación, las reglas que deben plantearse en torno a discursos tóxicos versus libre expresión, cómo equilibrar estos valores… Ese tipo de preguntas se han debatido con gran profundidad. Pero creo que hay problemas éticos adicionales que entran a escena una vez que tienes sistemas de IA más avanzados. Uno de ellos, sobre el cual he escrito un par de papers, son los problemas que surgen cuando las mentes digitales, de IA, tienen estatus moral. Cuando no es sólo una cuestión de cómo nos afectan a nosotros, o cómo nos afectamos unos a otros usando IA como herramienta, sino también la pregunta adicional de cómo nosotros los afectamos a ellos. Cuando estos sistemas de IA tienen un cierto nivel de sofisticación se transforman en sujetos morales, importa cómo funcionan las cosas para ellos. Puede ser, porque se han transformado en seres sintientes en varios niveles, o bien porque adquieren estatus moral sin ser sintientes, si tienen preferencias, concepciones propias, de acuerdo a ciertos usos de estatus moral en los cuales podrían calificar. Y esto se puede transformar en algo muy importante, porque es plausible, me parece, que en el futuro, eventualmente habrá muchas más mentes digitales que mentes biológicas. Y algunas pueden ser mucho más grandes, también, así que quizás tengan un estatus súper moral, y sería triste si comenzáramos la era de la inteligencia de máquinas cometiendo una atrocidad masiva al fallar en reconocer su estatus moral. Ahora, estas son preguntas difíciles como para saber exactamente qué pensar, no es obvio, incluso cuando lo reconociéramos en principio, porque luego ¿qué significa todo esto en la práctica? Resolver eso requiere todavía muchísimo trabajo, porque aun cuando estas máquinas pueden tener estatus moral, lo que es bueno para ellas puede ser diferente de lo que es bueno para nosotros. Y puede haber otras cosas que la IA puede necesitar que no sean importantes para nosotros. Tendrías que repensar muchos principios morales desde su base.

Es real si lo crees

Nick Bostrom no sólo es muy citado, también es un entusiasta divulgador de sus ideas en plataformas que trascienden con mucho los límites de la academia. Consecuentemente, ha sido un entrevistado requerido por medios y personalidades de todo corte, desde el astrofísico superestrella Neil deGrasse-Tyson hasta el controversial podcaster Joe Rogan. Su hit, probablemente la idea por la cual ha sido más buscado en el universo extraacadémico, es el Argumento de la Simulación, asunto que planteó por primera vez en 2003 y que resulta fascinante e intelectualmente irresistible. “El argumento de la simulación trata de demostrar que una de estas tres proposiciones es cierta”, explica Bostrom. “Una es la hipótesis de la simulación: que estamos viviendo completamente en una simulación, construida por una civilización tecnológicamente avanzada. Los otros dos son: uno, que casi todas las civilizaciones en nuestro actual estado de desarrollo se extinguirán antes de alcanzar la madurez tecnológica; que todas las civilizaciones que puedan existir en diversos rincones del universo fallan al alcanzar el último paso. Y la tercera proposición es que entre las civilizaciones, si hay alguna que alcanza la madurez tecnológica, pierde el interés en crear lo que llamo simulaciones ancestrales, simulaciones muy reales de personas con experiencias similares a la humana. Por alguna razón, pudiendo hacerlo, teniendo la tecnología, quizás por razones morales o por otras razones, renuncian a hacerlo. Pero al menos una de estas proposiciones tiene que ser verdad, de acuerdo con el argumento de simulación, lo que involucra algo de teoría de probabilidad muy simple. Cada una de estas puede ser de alguna manera sorprendente en su propio mérito. La idea de que nos extinguiremos antes de alcanzar la madurez tecnológica puede ser un tanto deprimente, porque significa que todos fallaremos antes de alcanzar ese nivel.

¿Qué es la madurez tecnológica?

Significa haber desarrollado por lo menos todas estas tecnologías generales que ya creemos que son físicamente posibles en este universo. Esto incluye sistemas que todavía no sabemos cómo construir, pero podemos ver que son posibles. Por ejemplo: un modelamiento de varias estructuras moleculares, donde puedes ver que si ordenas los átomos de esta manera, formaría esta pequeña maquinaria que actuaría de tal manera... Ahora no tenemos las herramientas para realmente ordenar los átomos de esa forma, así que es una tecnología posible que aún no sabemos cómo construir. Lo mismo estos sistemas computacionales planetarios, no violarían ninguna ley de la física, y uno puede ver cómo una civilización puede llegar a ese punto mejorando incrementalmente su base tecnológica. Y tenemos razones para pensar que si el desarrollo continúa, eventualmente llegaremos ahí. El argumento de la simulación no asume cuánto tiempo tomará llegar a ese punto. Algunos podrán decir en unos 20 a 30 años, ahí tendremos superinteligencia y todo esto podrá suceder. Alguien más podría decir 10 mil años. O 10 millones de años. Eso realmente no importa para el argumento, sucederá aunque tome un tiempo muy largo.

¿Qué tan diferente sería un mundo simulado al mundo que hemos creado en nuestra historia a través de las religiones, por ejemplo, creyendo en un creador que tiene un diseño para nosotros? ¿Ve similitudes en esas narrativas?

Sí, hay muchos paralelos. De hecho, no son inconsistentes una con otra, son independientes. Podrías, por ejemplo, tener un ser teológico tradicional creando un universo en el cual poderosos computadores podrían ser construidos y algunos de ellos ser usados para crear seres dentro de ellos. No hay implicaciones lógicas en una u otra. Pero ciertamente hay muchas similitudes entre cómo estaríamos relacionados a un creador metafísico sobrenatural, como un Dios, o a aquellos creando la simulación. En ambos casos asumimos que han creado todo el mundo que vemos, tendrían la habilidad de intervenir en ese mundo si así lo quieren, incluyendo maneras que violarían las leyes de la física, que presumiblemente serían superinteligentes, y que serían capaces de saber mucho de lo que sucede en nuestro mundo, incluyendo nuestros pensamientos secretos y todo eso si así quieren. Pero también hay aspectos en lo que sería diferente. Por ejemplo, tradicionalmente Dios es concebido como ser literalmente omnisciente y omnipotente, infinitamente poderoso; mientras que es perfectamente posible que nuestros simuladores sean seres limitados, y si bien podrían cambiar las leyes en nuestro mundo, igual estarían sujetos a las leyes de la física en su nivel de realidad.

Y se podrían equivocar también, ¿verdad?

Podrían potencialmente equivocarse, aunque si son superinteligentes deberían ser errores inevitables, asuntos imposibles de resolver. Pero estarían sujetos a otros límites, por ejemplo a otros seres poderosos en su nivel de realidad; o a límites materiales y todo eso. Y también puedes tener estructuras jerárquicas, con simulaciones dentro de simulaciones dentro de simulaciones.

De modo que podríamos pensar que aun estando en un mundo simulado podemos desarrollar una inteligencia artificial y un metaverso donde vivir una realidad artificial dentro de nuestra simulación...

Sí. La simulación ancestral no es sólo realidad virtual; el ser que percibe esta realidad, el cerebro, también es simulado en un computador. Ahí puedes crear muchos más sujetos percibiendo experiencias parecidas a la humana, en lugar de tener un cerebro orgánico dentro de cada simulación. Así, a medida que el computador mejora puedes hacer correr más simulaciones y más rápido. Creo que si llegamos al punto donde nosotros seamos capaces de crear esta simulación ancestral, como realidades virtuales detalladas vívidas con gente consciente simulada dentro de ellas, eso sería una evidencia extremadamente sólida de que nosotros mismos estamos en una simulación. Porque recuerda, el argumento de la simulación tiene estas tres posibilidades: una es que nos extingamos antes de ser capaces de lograrlo; y si de hecho logramos ser capaces, entonces eso descarta esa hipótesis. La segunda es que las civilizaciones capaces de hacerlo pierden interés, pero si llegamos ahí y no perdimos el interés, eso descarta esa posibilidad. Y eso sólo nos deja con la tercera: que nosotros mismos vivimos en una simulación. Mientras más cerca llegamos a crear nuestras propias simulaciones ancestrales, más grande es la posibilidad de que estemos viviendo en una.

¿Estamos pensando en algo como la película The Matrix, pero mucho más evolucionado, porque no necesita de una fuente orgánica de energía?

Sí. En The Matrix los seres humanos son usados como una suerte de batería, lo que ya es raro, porque consumimos energía y producimos desechos. Pero dejando eso de lado, ahí los humanos todavía eran cerebros con cables conectados flotando en tanques. En este caso hablamos de simular estructuras neuronales sin tener una estructura orgánica.

¿Es posible en este escenario desarrollar conciencia, reflexión crítica existencial? ¿Eso sería parte de nuestra programación?

Sí, en alguna forma computacional. Lo que hace que algunos sistemas tengan experiencias conscientes es algún tipo de operación computacional, y no importa si ella es implementada por átomos de carbono en un cerebro biológico o por átomos de silicio en un computador digital. No se trata de qué están hechos, sino la estructura del procesamiento de información que está ocurriendo lo que determina los sentimientos y los pensamientos que se están generando. En una estructura implementada que es isomorfa al cerebro humano y ejecutada en un computador, creo que sería indistinguible. Pensaría y sentiría de manera análoga a un cerebro biológico.

Veo cuán interesante y provocador resulta desarrollar este argumento, pero ¿se trata esto de un desarrollo filosófico? ¿Es una provocación intelectual? ¿O realmente cree que podemos estar en una simulación?

Sí, creo que el argumento de la simulación es sólido, o sea que una de estas tres posibilidades es correcta. Luego te puedes preguntar cuál es la probabilidad de cada una de estas alternativas. Yo asignaría a las tres una probabilidad importante. Tiendo a pensar mucho sobre la probabilidad exacta de ellas, pero ciertamente la hipótesis de la simulación no es sólo un ejercicio filosófico de pensamiento, sino una representación seria del mundo en el que tú y yo estamos. Me parece bastante posible. Si lo miras con más distancia, puedes pensar en el argumento de simulación como un límite a lo que es posible creer coherentemente sobre la estructura del mundo a gran escala y nuestro lugar en él.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.