PERIODISMO PURO
entrevista a NICK BOSTROM - Video

Leer este reportaje es fundamental para ver el mundo de nuestras próximas generaciones

El filósofo sueco transhumanista y teórico de la inteligencia artificial, fundador del Instituto del Futuro de la Humanidad de la Universidad de Oxford, hoy extinto, plantea los desafíos en el desarrollo de los sistemas de inteligencia artificial para alinearlos con valores humanos. Habla de un futuro distópico en el que la vida estaría “resuelta” por una superinteligencia y podríamos vivir cientos de años, con una economía floreciente que crezca al ritmo de la evolución tecnológica y sin la necesidad del trabajo humano, donde podrían experimentarse diferentes intensidades de alegría y felicidad.

15_12_2024_nick_bostrom_jorge_fontevecchia_pablocuarterolo_g
Del apocalipsis a la utopía. “El futuro al que debemos aspirar es uno que sea muy inclusivo y abarcador, en el que todos los diferentes tipos de seres puedan existir en algún tipo de relación armoniosa”. | pablo cuarterolo

—En su libro “Superinteligencia, caminos, peligros, estrategias”, publicado en 2014, usted advertía sobre los riesgos de la IA, ¿cómo la civilización podría destruirse a sí misma?

—Surgirán varios riesgos a medida que aumenten las capacidades de la inteligencia artificial. Algún subconjunto de esos riesgos serían los riesgos que yo llamo riesgos existenciales. Podrían ser riesgos de extinción humana u otras formas en las que podríamos destruir permanentemente el futuro de una manera drástica. Se clasifican en varias categorías. Una es que los propios sistemas de IA no estén alineados con los valores humanos, por lo que podrían perseguir otro objetivo al azar, se vuelvan muy poderosos y superinteligentes, y el futuro esté determinado por los objetivos de estas IA. Una fuente diferente de riesgo existencial es que los humanos hagamos un mal uso de estos sistemas y los usemos para oprimirnos unos a otros, para librar una guerra, para desarrollar nuevas armas de destrucción masiva, etc. Y eso podría resultar en algún tipo de catástrofe. 

“El indigente del futuro podría ser un equivalente al multimillonario de la actualidad.”

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

—¿Qué cambió dentro del mundo de la IA, desde aquel momento de 2014 con “Superinteligencia...”, cuando personalidades como Elon Musk y Bill Gates se hacían eco de su advertencia sobre la IA, y hoy, diez años después, cuando se propone un mundo utópico donde la IA ha resuelto los grandes problemas de la humanidad?

—Hubo un enorme cambio en la percepción. En aquel entonces, antes de escribir este libro, la gente no pensaba realmente en lo que pasaría si algún día la IA tuviera éxito. Era en gran medida algo que pensaban los autores de ciencia ficción. Ahora realmente se ha convertido en algo central. Y desde hace varios años, el gobierno en el más alto nivel presta atención a esto, ha habido una serie de declaraciones de la Casa Blanca. Todos los laboratorios de frontera de IA ahora tienen grupos de investigación específicos que intentan desarrollar métodos escalables para la alineación de la IA. Por lo tanto, la conversación ha cambiado radicalmente en los últimos diez años. Creo que principalmente es una consecuencia de los avances en las capacidades de la IA que hemos visto. Inicialmente con ChatGPT3, que realmente comenzó a captar la imaginación del público y luego el rápido progreso continuo desde entonces, hace que sea más fácil tomar en serio la idea de que la IA podría, en algún momento, llegar a ser superinteligente. 

—¿Cómo imagina una sociedad transhumanista, donde los humanos y los robots o humanoides sean indistinguibles, tengan el mismo estatus y convivan, creando un nuevo tipo de sociedad?

—Es posible imaginar un futuro en el que los seres humanos coexistan con diversas formas de IA, mentes digitales y animales. Y tal vez haya humanos que se carguen en las computadoras. El futuro al que debemos aspirar es uno que sea muy inclusivo y abarcador, en el que todos estos diferentes tipos de seres puedan existir en algún tipo de relación armoniosa. Pero será un gran cambio y hoy es difícil hacerse una idea muy detallada de ello. Este tipo de mundo es algo que el futuro tendrá que construir por sí mismo. Lo único que podemos hacer es tratar de apuntar en la dirección correcta y dar los primeros pasos en un viaje que, en última instancia, requerirá que todos contribuyan para descubrir cómo implementar una sociedad que tenga una tecnología tan avanzada. 

—Hasta abril de este año usted fue el director del Future of Humanity Institute, que dependía de la Universidad de Oxford, ¿qué pasó que se disolvió el Instituto que lo tuvo como director desde 2005?

—En 2005, el Instituto del Futuro de la Humanidad era un lugar único en el mundo. Era casi el único lugar en el que había algunas de las mentes más brillantes del mundo pensando a tiempo completo en estas grandes cuestiones. En estos años, la situación ha cambiado. Ahora hay un ecosistema mucho más rico a nivel mundial de muchas organizaciones, organizaciones sin fines de lucro y universidades. Todos los laboratorios de frontera de la IA tienen grupos de investigación que trabajan en la alineación de la IA. Por lo tanto, la necesidad de algo como el IFH se redujo porque existen todos estos lugares alternativos. Al mismo tiempo nos enfrentábamos a problemas administrativos. Por razones históricas, estuvimos ubicados dentro de la Facultad de Filosofía. Cuando empezamos, éramos como tres o cuatro personas, principalmente filósofos, y con el tiempo, crecimos y nos convertimos en matemáticos, economistas, informáticos e ingenieros. Y se convirtió en ese tipo de relación organizacional cada vez más deficiente con la Facultad de Filosofía, no tenían el ancho de banda administrativo para operar de manera sensata. 

“También hay escenarios en los que habría un crecimiento económico extremadamente rápido.”

—¿Qué imagina que pasaría si la IA diera un salto evolutivo inesperado para el cual la humanidad aún no está preparada? ¿Podría ocurrir que la IA se entrene a sí misma?

—Sí, ya se utilizan herramientas de la IA en la investigación de la IA, en parte como asistencia a la programación, como inteligencias artificiales que pueden ayudar a escribir código y analizar datos. Además, en términos de generación de datos, ya que estamos empezando a agotar los datos de texto existentes. Cada vez se recurre más a los datos sintéticos en los que un sistema de IA produce datos que luego se utilizan para entrenar a otro sistema. Y creo que esto continuará, que la IA en sí misma será una parte cada vez más central de la investigación de la IA, donde tienes un sistema que supervisa y entrena a otro sistema de IA, desempeñando un papel cada vez más importante en el trabajo intelectual destinado a desarrollar la próxima generación de sistemas de IA. 

—Háblenos del concepto de “singularidad”, ¿cómo los avances acelerados tecnológicos podrían generar cambios drásticos en las principales áreas de la vida humana, incluso cambios biológicos?

—La singularidad es una palabra un poco ambigua, pero el significado central es la hipótesis de que habrá algún período de cambios extremadamente rápidos en los asuntos humanos. Tal vez asociado con el desarrollo de una inteligencia artificial superior a la humana, que una vez que tengas eso, la investigación y el desarrollo serán hechos por estas mentes digitales que operan a escalas temporales digitales. Y entonces podrías tener una explosión de inteligencia en la que pasas de algo ligeramente sobrehumano en un período de tiempo relativamente corto a algo radicalmente superinteligente. Y eso significa no solo que tienes un período de rápido avance en la inteligencia artificial, sino que todas las demás áreas de la actividad intelectual, incluidas otras formas de ciencia y tecnología, también experimentarán un período de avances extremadamente rápidos a medida que estas superinteligencias digitales estén investigando. Por lo tanto, lo que podríamos tener con el desarrollo de la superinteligencia es una especie de telescopio del futuro. Si piensas en todas esas tecnologías físicamente posibles que tal vez la especie humana desarrollaría en 20 mil años, si siguiéramos trabajando en ellas, tendríamos quizás colonias espaciales y una realidad virtual perfecta y curas para el envejecimiento y todo este tipo de tecnologías de ciencia ficción. Con la superinteligencia, ese largo futuro podría comprimirse y podríamos alcanzarlo muy rápidamente en unos pocos años, por ejemplo. 

—Usted está a favor de la inmortalidad, en un momento era miembro de Alcor, no sé si lo sigue siendo, pero está dispuesto a que lo congelen para tener la posibilidad de revivirlo, ¿qué tan real es la criogenización?, ¿qué pasaría con el planeta si los seres humanos vivimos eternamente?

—Ha habido una especie de especulación en los medios de comunicación. Tiendo a tener la política de no hacer comentarios sobre los arreglos de mi funeral. Pero sí, existe esta idea que ha estado rondando desde hace décadas, y es que una vez que alguien muere, en lugar de cremarlo o enterrarlo, podrían congelar su cerebro o, literalmente, vitrificarlo, que es un procedimiento ligeramente diferente para evitar que se formen cristales de hielo. Y la idea es que, una vez hecho esto, no haya más cambios. Se podrían almacenar estos cerebros congelados durante cientos de años o miles de años. Y luego, con la esperanza de que, en algún momento en el futuro, sea la tecnología lo suficientemente avanzada como para reparar los daños por congelación y revertir la causa original de muerte. Realmente no importa cuánto tiempo lleve porque una vez que el cerebro se congela, puede esperar allí hasta que llegue esta hipotética tecnología. Esa es una opción que existe hoy en día. Y creo que es bastante plausible que la superinteligencia pueda realizar este tipo de procedimiento de reanimación, toda la información podría estar aún en el cerebro, aunque esté desordenada. Pero mientras se conserve el patrón informativo, en principio, existe la posibilidad de recomponerlo. Inmortalidad es una gran palabra, significa no solo prolongar la vida, sino no morir nunca. Hay una gran diferencia entre vivir para siempre y tener la opción de vivir mucho más tiempo. Creo que me reservaría el juicio sobre si la inmortalidad literal sería deseable, pero creo que no hay ninguna razón en particular para pensar que 70 u 80 años sean el tiempo óptimo para un ser humano definido cósmicamente. Ahora mismo sí, porque tendemos a enfermarnos cada vez más a medida que envejecemos, pero si te imaginas que realmente podrías vivir sano y seguir creciendo y desarrollándote, entonces tal vez vivir 200 o 400 años podría abrir más oportunidades para el crecimiento y el florecimiento humanos. 

“Con las mentes digitales se podría tener un crecimiento muy rápido de la población.”

—Usted fue parte del grupo de debate Extropía. ¿Cuánto hay de libertarismo en el mundo de la IA y qué piensa usted de la ideología libertaria?

—No suelo ser muy ideológico. Soy un poco escéptico acerca de estos grandes paquetes de ideas que se supone que debes aceptar o rechazar al por mayor. Tiendo a preferir diferentes partes con las que estoy de acuerdo y no aceptar todo un paquete en términos de ideas. A principios de internet en los 80 y 90, había una fuerte tendencia libertaria en la cultura de internet, que creo que se ha ido diluyendo a medida que más y más personas y más partes del mundo se han conectado a internet. Con la IA en particular, sigue ahí, pero ahora también está más dominada por las grandes tecnológicas, las grandes empresas de internet como Google y Facebook. Y en los últimos años, los gobiernos también se están interesando cada vez más por esto. Sospecho que en los próximos años veremos más de eso. En particular, creo que el tipo de carrera tecnológica entre EE.UU. y China empezará a centrarse en la tecnología de IA como punto central de competencia. Ya lo hemos visto, en cierta medida, con los chips en las que Estados Unidos intenta restringir la exportación de semiconductores a China. Y creo que eso implicará centrarse cada vez más en la IA como un área de competencia geopolítica. 

Nick Bostrom, en la entrevista de Periodismo Puro con Jorge Fontevecchia.
Los celulares se acabarán en veinte años, pasarán a integrarse en el cuerpo.

—Volviendo a la criogenización y la idea de que algunas personas puedan vivir 200 o 400 años, ¿cree que los millonarios de Silicon Valley como Elon Musk intentarán hacerlo ahora?

—No hay mucho que puedas hacer. Puedes comer verduras, tratar de hacer ejercicio… 

—Me refería particularmente a congelar alguna parte del cuerpo para el futuro. 

—Lo principal sería tratar de no morir antes de que se produzca la transición a la superinteligencia y, al menos, tendrías la oportunidad, si todo va bien, de beneficiarte de ello. Otra cosa que podrías hacer si estuvieras desesperado serían estas cuestiones criogénicas de las que hablamos antes, como una especie de opción de back up.

—Pero creo que sería algo muy caro al principio, solo gente muy rica podría hacerlo. 

—La verdad es que no lo sabemos. Lo que pasa con los mismos escenarios en los que ocurre esta explosión de inteligencia, también hay escenarios en los que habría un crecimiento económico extremadamente rápido. No solo tendríamos unas cuantas piezas de tecnología avanzada, sino toda la economía. Imagínese si se automatizara todo el trabajo humano, los nuevos avances tecnológicos que sigan a eso serían la posibilidad de que, por ejemplo, la economía comenzara a duplicarse cada pocos meses o como una especie de partes empinadas de la singularidad. Acabaríamos con un mundo muy diferente en el que el indigente del futuro podría ser como un equivalente al multimillonario en la actualidad, además de tener acceso a una tecnología mucho más avanzada. Habría escenarios, siempre y cuando los beneficios se distribuyan ampliamente, donde todos los seres humanos en el futuro podrían tener la oportunidad de aprovechar este tipo de tecnologías de extensión de la vida. 

“Podría parecer bastante desconcertante que no tuviéramos que trabajar para ganarnos la vida.”

—Hoy el planeta tiene más de ocho mil millones de habitantes, ¿imaginas que todo el mundo llegará a la criogenia en el futuro y que en cincuenta años todos puedan extender su vida?

—Espero que no necesitemos la criogenia después de poder disponer de tecnologías médicas más avanzadas para evitar que las personas se enfermen en primer lugar. Si imaginas un futuro en el que tengamos la tecnología para prevenir la muerte involuntaria, entonces tendríamos una población en crecimiento. Ahora bien, serían recursos mucho mayores, eventualmente tendríamos colonización espacial etc. Sin embargo, a muy largo plazo, si sigues teniendo hijos a un ritmo más rápido del que puedes expandirte en el espacio, eventualmente, la población que podría crecer exponencialmente empezaría a superar el crecimiento económico. A muy largo plazo, necesitaríamos acelerar el ritmo al que se introducirían nuevas personas en la existencia. Esto quizás sea menos relevante para los seres humanos biológicos a corto y mediano plazo, porque pasa cierto tiempo antes de que un niño nacido pueda tener más hijos. Pero con las mentes digitales se podría tener un crecimiento muy rápido de la población. Básicamente es como hacer una copia de un software, que puede suceder en cuestión de minutos. Es posible que necesitemos regular el ritmo al que se copien estas mentes digitales, y, a largo plazo, encontrar un equilibrio entre el ritmo al que hacemos crecer la economía y el ritmo al que se introducen nuevas personas en el mundo. Creo que sería un problema que podríamos tener. 

—¿Y quién imaginas que podría decidir esto?, ¿quién tendría el poder de decidir cuántos habitantes, en qué momento, cuáles estarían disponibles para volver a la vida? 

—Quiero hacer una distinción entre el mundo actual, en el que creo que definitivamente se debe dejar que las personas y las familias decidan por sí mismas si quieren tener hijos o no, o cuántos. Y este hipotético contexto futuro en el que, por ejemplo, si tienes personas digitales con las que puedes hacer un millón de copias en el transcurso de media hora, en ese momento, tendría sentido tener una limitación. Tal vez primero usted tendría que demostrar que tiene los recursos disponibles para sostener todas estas copias que desea crear. Porque en el límite, habría una tensión entre, por un lado, tener algún tipo de sistema de bienestar en el que cada niño tenga al menos una cantidad mínima de recursos y, por otro lado, el principio que tenemos de la libertad reproductiva. A muy largo plazo, el límite y la libertad entrarían en conflicto y tendrías que lograr cierta reconciliación entre ambos. Quizás algo como una limitación de la tasa en el que las personas pueden introducir nuevas personas en el mundo, a menos que sean capaces de demostrar que en realidad podrían permitirse el lujo de mantenerlos. 

“Vivir 200 o 400 años podría abrir más oportunidades para el crecimiento y el florecimiento humanos.”

—Usted afirma que si se puede lograr la IA, sería un acontecimiento de consecuencias sin precedentes, tal vez incluso “una ruptura en el tejido de la historia” y dice que deberíamos tener un poco de previsión a largo plazo como una obligación moral con nuestra propia especie. ¿De qué manera se está realizando la tarea de prevenirnos de nosotros mismos?

—No estoy seguro de entender completamente la pregunta, pero hay un montón de desafíos realmente difíciles en el camino desde donde estamos ahora, hasta esta era de superinteligencia. Y aún no tenemos todas las respuestas. Uno de ellos es el desafío técnico de desarrollar métodos escalables de alineación para la IA. Los laboratorios de frontera de IA, Google, DeepMind, Anthropic y OpenAI tienen grupos de investigación que intentan desarrollar esto y logran algunos avances. Pero la clave es encontrar la solución a tiempo antes de que descubramos cómo desarrollar la superinteligencia artificial. Pero incluso si resolvemos ese problema técnico, existe este problema más amplio de cómo gestionar los problemas políticos lo suficientemente bien como para no utilizar esta tecnología para librar una guerra, o para oprimirnos unos a otros y, en general, para lograr un futuro razonablemente equitativo en el que todos tengan al menos una parte de las ventajas. Porque si cualquier empresa o país lanza esta superinteligencia, todo el planeta estará expuesto a cualquier riesgo que pueda derivarse de ella. Incluso si eres un granjero de Nigeria que nunca ha oído hablar de la IA, algunos de los riesgos que esto conlleva te afectarían. Por lo tanto, parece justo que, si las cosas van bien, también deberías tener parte de las ganancias. Ese sería un criterio mínimo de equidad. E idealmente, también debería haber algún proceso mediante el cual muchas voces y perspectivas pudieran contribuir a la construcción de esta tecnología avanzada. Por supuesto, actualmente no vivimos en un mundo que sea globalmente representativo y existen grandes diferencias de poder. Creo que lo que ocurrirá en realidad es que veamos cómo se irán desarrollando tendencias continuas que utilizan y alimentan este dominio de la IA. Y lo que uno puede intentar hacer como individuo es impulsar las cosas de una manera que sea un poco más ética e inclusiva. Pero aquí se trata de una especie de fuerzas históricas fuertes. No es solo un tipo de problema interesante para algunos científicos de la universidad. Ni siquiera es solo una cuestión comercial, sino que se convertirá cada vez más en una cuestión geopolítica en la que las superpotencias y los gobiernos considerarán que esto es cada vez más clave para seguir siendo competitivos desde el punto de vista económico y geoestratégico. 

Nick Bostrom, en la entrevista de Periodismo Puro con Jorge Fontevecchia.
DESAFÍOS DE LA IA. “Existe un problema más amplio de cómo gestionar los problemas políticos lo suficientemente bien como para no utilizar la tecnología para librar una guerra, o para oprimirnos unos a otros. Surgirán varios riesgos a medida que aumenten las capacidades de la inteligencia artificial”. (FOTO PABLO CUARTEROLO)

—Usted desarrolla el concepto de “riesgo existencial” y propone que “la reducción de riesgo existencial es estrictamente más importante que cualquier otro bien público global”. ¿Cómo define el riesgo existencial y por qué es importante hacer esfuerzos para reducirlo?

—Un riesgo existencial es aquel que amenaza con la extinción de la vida inteligente originaria de la Tierra, o que amenaza con destruir de manera drástica y permanente su potencial futuro. Por ejemplo, imagina un mundo donde tuvieras un despotismo global que nunca podría ser derrocado, tal vez tendría tecnología de vigilancia y censura muy avanzada que, en términos generales, podría ser tan mala como la extinción en un entorno realmente distópico. Esos serían riesgos existenciales que están separados de todos los demás riesgos y de todas las demás cosas que han ido mal a lo largo de la historia de la humanidad, de las que hemos sido capaces de recuperarnos. Ha habido guerras mundiales, la peste negra, erupciones volcánicas, todo tipo de cosas horribles, pero no han destruido permanentemente el futuro. Una catástrofe existencial sería permanente y nunca tendríamos una segunda oportunidad. Nunca tendríamos la oportunidad de aprender de la experiencia de una catástrofe existencial. Esto lo coloca en una categoría diferente. He argumentado que hay ciertas teorías éticas y, en particular, varias formas de utilitarismo sumado a un consecuencialismo, lo que parece implicar que la reducción del riesgo existencial es una especie de preocupación primordial más importante que cualquier otro modo en que se pueda dar forma al mundo, solo por la magnitud de los valores en juego. Todos los seres humanos que podrían vivir en el futuro si no nos extinguimos son una enorme cantidad de personas que podrían vivir vidas más felices. Lo que realmente pienso, porque no soy utilitarista ni consecuencialista estricto, yo mismo tendría una visión moral más pluralista, en la que la reducción del riesgo existencial sin duda sería muy importante. Pero también habría otras cosas que creo que son importantes. 

“La IA en sí misma será una parte cada vez más central de la investigación de la IA.”

—Usted habla de la creatividad humana como una metáfora en la que los humanos sacamos de una urna bolas blancas y negras, las blancas representan inventos que no suponen riesgos para la humanidad, y las bolas negras representan algún tipo de invento o tecnología que destruiría la civilización que la inventa. Y dice que el hecho de que, hasta ahora, no hayamos sacado ninguna bola negra es una cuestión de suerte. ¿La invención de la bomba atómica por los científicos del proyecto Manhattan no lo considera una bola negra que la humanidad ha sabido manejar?

—Yo diría que las armas nucleares, y en particular la bomba de hidrógeno, es más bien una bola gris. No es del todo negra. Podríamos imaginar una ligera variación si rehacemos la historia. Supongamos que hubiera resultado posible desatar el poder destructivo de la bomba de hidrógeno, pero no de una manera complicada. Si ahora mismo quisieras fabricar una bomba atómica, necesitas uranio o plutonio altamente enriquecidos, y son muy difíciles de conseguir, necesitas instalaciones grandes con ultracentrifugadoras. En realidad, solo los Estados pueden hacerlo y ni siquiera todos los Estados. Por lo tanto, esto ha puesto un límite a la proliferación de armas nucleares. Imagínese si, en cambio, hubiera resultado que había una forma muy fácil de crear una explosión atómica, por ejemplo, horneando un poco de arena en el horno microondas. Si eso hubiera sido físicamente posible, si se pudiera destruir una ciudad entera a través de estos sencillos medios cotidianos a los que todos pudieran tener acceso, podría haber sido el fin de la civilización humana. Porque en cualquier población de varios millones de personas, como en una gran ciudad, siempre habrá unas pocas personas que, por la razón que sea, querrían destruir la ciudad, ya sea que tengan una enfermedad mental o tengan alguna ideología fundamentalista, o que quieran intentar extorsionar algún pago o algo así. Si alguna vez se democratizara la destrucción masiva lo suficiente como para que todo el mundo pudiera causar fácilmente millones de muertes, creo que sería el fin de la civilización. Tuvimos suerte que haya resultado bastante difícil fabricar armas nucleares. Pero antes de que la ciencia nuclear fuera relevante, ¿cómo podríamos haber estado seguros de ello? Ahora estamos en una etapa de avance de la biología sintética, en la que debemos preocuparnos de que podamos descubrir una forma demasiado fácil de crear destrucción masiva. Estamos desarrollando mejores herramientas para manipular virus, etc. Y creo que debemos tener cuidado de no descubrir y luego publicar alguna forma realmente fácil de democratizar las armas biológicas avanzadas. 

—Usted sugiere el fenómeno “la maldición unilateralista” y para enfrentar este fenónemo propone el “principio de conformidad”. ¿Podría darnos un ejemplo de una situación unilateral y cómo funciona el principio de conformidad?

—Una forma de obtener malos resultados es, obviamente, que hay personas con malas motivaciones que se proponen hacer algo malo. Pero supongamos que tenemos una situación en la que todos los actores relevantes tienen buenas intenciones, quieren hacer lo que es mejor para el mundo, pero cada uno toma su decisión de forma independiente. Podría darse una situación en la que cada persona evalúe si perseguir un determinado proyecto sería beneficioso o no, y el proyecto se llevará a cabo si al menos uno de estos diferentes actores sobreestima los beneficios lo suficiente. Por ejemplo, aprovechemos la investigación funcional, que es algo que tal vez podría ser beneficioso, tal vez podría ser perjudicial. Ahora supongamos que hay como cien grupos de investigación diferentes en todo el mundo, cada uno tratando de hacer su propia evaluación de si esto beneficiaría al mundo. Entonces puede estar casi seguro de que al menos algunos de ellos pensarán que es beneficioso en general, entonces sucederá. En este tipo de configuración en la que cualquier persona puede hacer que algo suceda, tendrás un nivel de probabilidad ineficientemente alto de que suceda. Solo hace falta que uno de ellos sobreestime suficientemente los beneficios, y esa sería la maldición unilateralista cuando se puede lanzar unilateralmente alguna iniciativa. Y parece que tienes algo así como lo opuesto en el otro extremo. Si una persona puede evitar que algo suceda, tendrías una especie de efecto spoiler. Y para reducir eso, sugiero este principio de conformidad uniforme, según el cual si uno es realmente un actor bien motivado, no solo debe confiar en su propio juicio para determinar si los beneficios superarían el costo, sino que también debe tener en cuenta lo que piensan otras personas en tu toma de decisiones sobre cómo beneficiar al mundo para evitar esta maldición unilateralista. 

Nick Bostrom, en la entrevista de Periodismo Puro con Jorge Fontevecchia.
CONCEPTOS BOSTROM. “Un riesgo existencial es una amenaza de extinción de la vida inteligente originaria de la Tierra, 
o que amenaza con destruir de manera drástica y permanente su potencial futuro”.

—Usted también habla de “la filosofía de la predicción tecnológica”, le pido una síntesis de esta práctica filosófica y cuál considera usted que es el rol de los filósofos en la era de la IA.

—Por mi parte, nunca he hecho una separación muy clara entre la filosofía, por un lado, y las diversas áreas de la ciencia, por el otro. Las veo como partes superpuestas del mismo espectro. Hay todo tipo de cosas interesantes que puedes hacer en filosofía. Y creo que también hay una oportunidad para algunos filósofos que están interesados en esto para aprender algo de ciencia relevante, y luego realizar un trabajo conceptual que combine algunas de las habilidades y herramientas de la filosofía con algunas de las habilidades, herramientas y conocimientos de campos científicos particulares. Particularmente, en el campo de la inteligencia artificial, creo que hay varias áreas en las que los filósofos podrían hacer una contribución. Una de ellas es el área del potencial estatus moral de las mentes digitales. Por lo tanto, si estamos creando estos intelectos cada vez más sofisticados, en algún momento, y tal vez muy pronto o ya, no son solo herramientas o dispositivos, sino que pueden ser los mismos que los que tiene un investigador médico que quiere hacer un experimento con ratones. Si quieres operarlos, tienes que anestesiar a los ratones antes de hacer la cirugía porque crees que pueden sufrir dolor y, de hecho, son seres más relevantes. Del mismo modo con los sistemas de IA, también podrían convertirse en pacientes morales, y tenemos que empezar a pensar en cómo tratar éticamente a la IA. No solo cómo asegurarnos de que no nos hagan daño, sino también cómo podemos evitar hacerles daño. Eso plantea una serie de cuestiones filosóficas a las que los filósofos podrían contribuir si no se quedaran completamente aislados en el sillón y se lo inventaran desde cero, sino que se involucrasen con la ciencia actual de la IA y los sistemas actuales de la IA. Y luego, incorporar las tradiciones filosóficas a esa conversación. También hay muchas otras áreas en las que algunas de las herramientas para aclarar conceptos, hacer distinciones, articular argumentos con cuidado, cosas en las que los filósofos suelen estar entrenados, podría ser una contribución útil a algunas de las conversaciones que están teniendo lugar. 

—Usted habla de la creación de la IA y el anfitrión cósmico, y postula que bien podría existir una estructura normativa, basada en preferencias o concordatos de un anfitrión cósmico. ¿Podría explicarnos esta idea y darnos un ejemplo de un anfitrión cósmico?

—Supongo que en nuestro pensamiento moral cotidiano ordinario, podría ser natural distinguir diferentes niveles. En el nivel más pequeño, tienes a tu propia familia y amigos cercanos y tienes obligaciones especiales con ellos. Entonces, tal vez nuestra comunidad local debería hacer una contribución para su nación y también, de alguna manera, para la humanidad en su conjunto. Si hay algo que puedas hacer, estaría bien. Y estoy sugiriendo que hay un nivel adicional, al menos un nivel adicional además de eso, que podría ser el tipo de normas morales que existen entre lo que yo llamo el anfitrión cósmico, que sería el conjunto de entidades, incluida, por ejemplo, la superinteligencia que podría existir en el futuro, tal vez civilizaciones alienígenas avanzadas que podrían existir en algún lugar del universo. Si vivimos en una simulación por computadora, los simuladores de nuestro mundo serían miembros de este anfitrión cósmico y también las deidades tradicionales podrían, si existen, ser miembros de este anfitrión cósmico. Así como tenemos estas normas morales en otros niveles, también podrían existir este tipo de normas éticas de cooperación en este nivel cósmico. Y eso podría ser muy relevante para la forma en que debemos actuar, particularmente en relación con la forma en que pensamos sobre la creación de superinteligencia. Sugiere, por ejemplo, que además de asegurarnos de que cualquier IA que construyamos no provoque la extinción humana ni nos perjudique, tal vez también deberíamos pensar en intentar crear una superinteligencia que sea una buena ciudadana cósmica, que funcione bien con estas otras entidades superinteligentes existentes, cooperando y contribuyendo a un bien común. No está claro qué cosas concretas y específicas implica, pero creo que añade otra perspectiva, una en la que quizás deberíamos abordar esto con una actitud de humildad, de que somos pequeños en un mundo grande. Tal vez hay superseres que han existido durante mucho tiempo y que podrían ser muy poderosos. Y no deberíamos pensar en esto como: ¡Ey!, vamos a imponer nuestra voluntad en todo el asunto. Sino más bien, cómo podemos hacer una contribución aquí que sea respetuosa con el sistema de normas existente, aunque actualmente no lo entendamos muy bien. 

“La singularidad es la hipótesis de que habrá cambios extremadamente rápidos en los asuntos humanos.”

—Su último libro publicado, en marzo de este año, se titula “Utopía profunda, vida y sentido en un mundo resuelto”. Si la evolución del ser humano está basada en resolver cosas, cuestiones de la vida cotidiana, ¿cuál sería el significado de la vida si tenemos todo resuelto y vivimos en una abundancia infinita?

—El libro se centra en lo que sucede si las cosas van bien, imagina ese futuro. Yo lo llamo un mundo resuelto. Pero imagina que tienes estas superinteligencias y pueden hacer todos los trabajos humanos mucho mejor que nosotros. También desarrollan estas herramientas tan poderosas que podemos usar para moldearnos a nosotros mismos, a nuestras propias motivaciones, a nuestra propia psicología y a nuestros propios cuerpos. Nos da este control sin precedentes para moldear el mundo de acuerdo con nuestros valores y deseos. Pero luego está la pregunta de cómo es realmente una buena vida para un ser humano en un mundo tan resuelto. Porque, al menos a primera vista, podría parecer bastante desconcertante que no tuviéramos que trabajar para ganarnos la vida, ¿qué haríamos todo el día? ¿Cómo encontraríamos dignidad y sentido a nuestras vidas? El libro realmente trata de sumergirse en esta cuestión. Y es una pregunta complicada. En última instancia, soy optimista en cuanto a lo que es posible, pero creo que sería necesario abandonar algunas de las suposiciones que tenemos actualmente sobre qué tipo de cosas dotan a la vida humana de un propósito. Y tenemos que repensar las cosas desde cero, analizando nuestros valores humanos básicos y luego pensando en este contexto tan diferente de un mundo resuelto, ¿qué tendría sentido realmente? ¿Cómo se puede iniciar y permitir niveles sin precedentes de florecimiento humano cuando muchas de las cosas que actualmente llenan nuestras vidas ya no tendrían sentido? 

—¿Es posible imaginar un único sentido de la vida para todo el mundo?, ¿cómo se determina cuál es el sentido de la vida si lo que hace cada persona es desarrollar el propio?

—Podríamos hacernos la misma pregunta sobre el mundo de hoy. Hay que desentrañar este concepto de significado y puede que sea ligeramente diferente del propósito. Tenemos varios propósitos en nuestras vidas. Hay cosas que debemos hacer para lograr nuestros objetivos, y puedes pensar en cómo funcionaría eso en este contexto de un mundo resuelto. Luego, el concepto de significado podría ser un poco más que tener un objetivo general. Es posible que la gente piense que el significado es un objetivo que no solo se inventa subjetivamente, sino que tiene algún tipo de justificación externa. Tal vez sea cuestionable si podrías tener eso en un mundo resuelto, pero quizás también pienses que es cuestionable cuánto de eso tenemos hoy en día. Diría que en la época actual, a pesar de todos sus defectos, si quieres un propósito en tu vida, quizás esta sea la edad de oro. Hay tantos problemas en el mundo, tanto sufrimiento, tanto trabajo por hacer que si quieres tener algún propósito en la vida, hazlo ahora, cuando el esfuerzo humano es realmente necesario, donde realmente puedes marcar la diferencia. Quizás en algún momento en el futuro, estemos todos jubilados y las máquinas se encargarán de todo, así que déjate llevar mientras aún te necesitan mucho en el mundo. 

—En “Deep Utopia”, usted sostiene que más allá del mundo posescasez se encuentra un mundo “posinstrumental”, ¿cómo sería un mundo posinstrumental?, ¿podría darnos un ejemplo?

—Lo veo como una cebolla con diferentes capas, puedes tener primero una capa superficial, que a menudo es donde la conversación ha terminado antes, es decir, si tuvieras algunos avances en la IA, significa que hay algunos trabajos que ya no son necesarios. Entonces, ¿cómo afrontas el desempleo? Tal vez sea necesario reeducar a las personas para que realicen diferentes trabajos y brindar algún tipo de apoyo por desempleo para esa transición. Es como la capa más externa de la cebolla: si piensas un poco más profundamente, lo que implica que la IA tenga éxito veremos que no serán solo algunos trabajos, sino casi todos los trabajos humanos los que se vuelvan innecesarios. Entonces tendríamos un mundo postrabajo en el que los humanos ya no necesitarían trabajar por ningún motivo económico. Pero más allá de eso hay una condición posinstrumental, en la que no es solo el esfuerzo económico lo que se vuelve innecesario, sino también una gran cantidad de otros esfuerzos que actualmente llenan el tiempo incluso de las personas que no trabajan. Ahora mismo, incluso si eres multimillonario, no necesitas trabajar o estás retirado, si quieres estar en forma, todavía tienes que ir al gimnasio de vez en cuando y hacer un esfuerzo. Esa es la única forma en la que realmente puedes ponerte en forma. Pero en un mundo posinstrumental, podrías simplemente tomar una pastilla que tuviera los mismos efectos fisiológicos que un entrenamiento y no tendrías que esforzarte. Del mismo modo, si ahora quieres tener tu casa decorada de la manera perfecta, tal vez necesites ponerle un poco de atención para seleccionar los muebles exactos que realmente te atraigan más. Pero en un mundo posinstrumental, tendrías un sistema de IA que sería capaz de aprender lo suficiente sobre tus preferencias como para poder decirle al sistema que decore tu casa de la manera que más te guste. Y, de nuevo, no tendrías que dedicarle tiempo y esfuerzo tú mismo. Por lo tanto, parece que todas las cosas que hacemos actualmente, en las que hacemos X para obtener algún otro resultado Y, todas esas actividades pierden su sentido en esta condición de posinstrumentalidad en este viejo mundo. Y eso plantea un propósito mucho más profundo, ¿qué harías? Por ejemplo, ¿por qué te esforzarías en estas condiciones? Y esa es más o menos la pregunta central de este libro, Deep Utopia. 

“Hay que desentrañar el concepto de significado de la vida, y puede que sea diferente del propósito.”

—El transhumanismo plantea que es técnicamente factible un mundo sin dolor, sin embargo, esto se enfrenta a nuestro concepto arcaico de la salud mental, en el que la tristeza, la ansiedad, el de-sasosiego nos equilibran, nos endurecen, ponen a tono nuestra estructura emocional. El placer, sin el contrapeso del dolor, ¿sigue siendo placer? ¿En dónde queda el derecho a la tristeza?

—No veo ninguna razón por la que no se pueda tener una vida solo de afecto positivo o de al menos 99,9. Porque ya podemos ver hoy en día que hay personas que casi siempre están tristes, con depresión crónica, personas que nacen con un temperamento muy deprimente. Y así como podrías tener una vida que sea casi exclusivamente una vida de sufrimiento, creo que, por otro lado, podrías tener una vida que sea exclusivamente de varios grados y formas de alegría y felicidad. Y creo que eso es lo que elegiríamos si tuviéramos la opción ahora mismo en el mundo actual. Las emociones negativas suelen ser funcionales y necesarias por diferentes razones. Por ejemplo, es útil desde el punto de vista funcional sentir dolor si pones la mano sobre la estufa caliente porque te obliga a retirarla y te enseña a no volver a hacerlo. Sin embargo, en la madurez tecnológica, creo que podríamos lograr algunos de los mismos resultados funcionales sin tener que tener la experiencia subjetiva del sufrimiento. Entonces podríamos reconfigurar nuestras vidas para que se basen más en intensidades de felicidad y afecto positivo. Y ahora mismo, la resiliencia psicológica es realmente necesaria porque, lo quieras o no, si vives tu vida, vas a sufrir diversas formas de infortunio. Te van a pasar cosas malas a ti y a las personas que amas. Y ahora necesitamos tener suficiente fortaleza mental para hacer frente a eso. En un mundo ideal, tal vez estas tragedias no ocurrirían tanto y entonces podríamos darnos el lujo de ser un poco más inocentes y no sentirnos ofendidos y maltratados, sino ser un poco más vulnerables porque el mundo podría no hacernos tanto daño y podríamos abrirnos más. La pregunta exacta es cómo cambiar nuestra receptividad emocional. Creo que estas son preguntas bastante profundas y difíciles y, si las haces mal, podrías destruir mucho de lo que realmente es valioso y precioso de los humanos. Así que recomendaría ir un poco más despacio. Sí, inicialmente tal vez mitigar las peores y más horribles formas de sufrimiento porque necesitan ser solucionadas urgentemente. Pero después de eso, tomarse un tiempo e intentar obtener un poco más de sabiduría antes de dedicarnos a diseñar un conjunto particular de capacidades emocionales. Tal vez empezar por mejorar nuestras habilidades cognitivas y nuestra capacidad de deliberar juntos, y una vez que hayamos adquirido un poco más de sabiduría y perspicacia, ocuparnos de la parte emocional.

—¿Usted cree que quizá nosotros seamos ya los últimos ejemplares de esa especie anticuada, melancólica y enfermiza, que de aquí en adelante se irá emancipando de sus tristezas, de Darwin y de la madre naturaleza?

—Supongo que hay dos maneras en las que podríamos ser los últimos de la especie. Una es si provocamos algún tipo de extinción de la especie humana o si simplemente nos morimos, el resto del ecosistema continuaría existiendo. Pero podríamos imaginar una tecnología lo suficientemente poderosa como para esterilizar la Tierra, esa sería una forma en la que podríamos ser los últimos en evolucionar. Otra podría ser si logramos una condición en la que seamos capaces de domar las fuerzas de la evolución, lo que podría requerir una coordinación global. Porque las fuerzas evolutivas podrían operar no sólo entre criaturas biológicas. Tenemos una especie de selección evolutiva entre, por ejemplo, las empresas más rentables se copian y crecen y las empresas que generan pérdidas mueren. Incluso tenemos algo vagamente análogo a nivel de naciones en las que, en cierto modo, históricamente hemos visto a las naciones más débiles ser conquistadas e invadidas por otros. De este modo, el tipo de principio abstracto de la selección evolutiva puede aplicarse incluso a formas de existencia tecnológicamente muy avanzadas. Pero la evolución no se dirige necesariamente hacia el valor. Y creo que no nos dirige hacia la felicidad, el florecimiento o el conocimiento. Fácilmente podría conducir a un resultado horrible. Por lo tanto, en algunos puntos podría ser necesario desarrollar una coordinación global suficiente para poder frenar realmente la selección evolutiva ciega y favorecer el desarrollo efectivo de formas que sean valiosas, humanas, amables y felices y que conduzcan al florecimiento. En el largo plazo, espero que podamos hacer que sea la última especie evolutiva o nuestros descendientes, solo porque, en ese momento, tal vez sería mejor si en el futuro fuéramos más un reflejo de nuestros valores y esperanzas en lugar de que gane quien esté más en forma.

 

Producción: Sol Bacigalupo.