El riesgo existencial de la inteligencia artificial
Por Mariano Barusso | 9 de abril, 2023
Existen probabilidades ciertas de que la inteligencia artificial se coma a la Humanidad a la hora de la cena. Debemos mantenernos atentos, informados y conscientes al respecto antes de tranquilizarnos por las apelaciones cliché sobre un balance en favor de sus beneficios o las respuestas tecnocráticas respecto de nuestra posibilidad de controlar todos sus riesgos.
Ante la perspectiva de una explosión de inteligencia, los humanos somos como niños pequeños jugando con una bomba. Tal es el desajuste entre el poder de nuestro juguete y la inmadurez de nuestra conducta.
– Nick Bostrom
Quienes me conocen saben que lo que me inquieta respecto de la expansión de la inteligencia artificial (IA) son principalmente, los “riesgos existenciales” que conlleva. Es lo que me motivó en 2022 a iniciar junto a colegas de Asertys y pensadores diversos de primer nivel el Foro “Inteligencia Artificial y Humanismo: Disyuntiva o complementación” (dejo el video al final de este artículo, para no dificultar su lectura).
Siempre me referí al tema desde el hecho histórico de que los seres humanos hemos concretado casi todas las novelas de ciencia ficción con absoluta naturalidad. Es el basamento que me permite seguir pensando que novelas distópicas como Terminator solo están esperando las condiciones de avance tecnológico y demanda social suficientes –y en esa labor estamos– para emerger como una realidad posible.
El riesgo que trataré aquí es el más existencial de todos: la posibilidad de que la IA fuerte –no la IA débil con la que jugamos hoy– tome el rol protagónico en la producción cultural y en la construcción de nuestra realidad. Un punto de inflexión probable que representaría un camino de no retorno para nuestra especie como la conocemos hasta hoy.
Como mi intención es trascender los lugares comunes y superficiales –algo fundamental respecto de esta revolución en curso– baso este artículo en la perspectiva tan bien fundamentada que Nick Bostrom –profesor de Oxford y Director del Future of Humanity Institute– nos presenta en su monumental y esclarecedora Superintelligence: Paths, Dangers, Strategies.
Para comenzar, considero muy positivo que nos comiencen a inquietar los problemas y riesgos derivados del avance de la IA como pueden ser el del acceso masivo a sus posibilidades, los cambios en la matriz laboral global e, inclusive, los conflictos éticos derivados de su aplicación por parte de empresas y gobiernos, pero tienen una solución a nuestro alcance. Tienen solución porque aún intervenimos nosotros en la programación de está IA (débil). Por un tiempo más, la caja seguirá siendo la misma y la posibilidad de control relativo estará de nuestro lado. Puede no ser así para el caso de uno o varios proyectos de IA fuerte que alcancen una ventaja estratégica decisiva (Bostrom) por sobre otros sistemas de IA.
Un emergente actual es el revuelo que presenciamos estás semanas respecto de la evolución de ChatGTP, la IA generativa de la empresa OpenAI. Voces como las Yuval Noah Harari, Elon Musk y el mismo Santiago Bilinkis a nivel local, comenzaron a expresar las alertas respecto de esta posibilidad. Es un revuelo con sentido, porque cuando deleguemos la producción cultural en la IA, habremos pasado un límite muy delicado.
El mayor de nuestros riesgos sería que la IA supere a los humanos en la producción de cultura y en la construcción de realidad.
¿Qué es un riesgo existencial derivado de la IA? Según Bostrom “un riesgo existencial es el que amenaza con causar la extinción de la vida inteligente de origen terrestre o con destruir de forma permanente y drástica sus posibilidades de desarrollarse en el futuro”.
Los riesgos existenciales no son considerados popularmente por la mayoría de nosotros por razones de desconocimiento de este campo, por la dificultad de visualizarlos y comprenderlos en sí mismos y, fundamentalmente, porque son fenómenos infraestructurales ligados al modelo de desarrollo económico global que no son visibles para el ciudadano no entrenado en su apreciación. La gran mayoría de nosotros nos enteramos de los estos fenómenos por sus efectos prácticos, productivos, culturales y… existenciales. Efectos que pueden ser beneficiosos o perjudiciales.
No nos olvidemos de que Google indexó al mundo entero sin pedir permiso y sin que nos diéramos cuenta. Esa empresa es ahora dueña y sinónimo de esa indexación… hagan lo que vayan a hacer con eso.
Justamente, mientras escribía esto, hice la prueba ácida de consultarle a Mr. Google sobre los «beneficios de la IA» y me arrojó 40,400,000 resultados en 0.52 segundos. ¿Qué me devolvió cuando le pregunté por los «riesgos de la IA»? 13,900,000 resultados en 0.54 segundos. Sugerente, se tomó más tiempo en encontrar el esperable desbalance.
A continuación, quiero compartir los puntos centrales de la tesis de Bostrom en la que especula y fundamenta la posibilidad de una catástrofe existencial como resultado predeterminado de una explosión de la inteligencia. Pero antes, me gustaría aclarar las características esenciales de la IA de que estoy hablando, basándome en lo que he comprendido hasta el momento:
Bostrom presenta un argumento plausible para temer que “la creación de una máquina superinteligente sea una catástrofe existencial”, basándose en esa idea de ventaja estratégica decisiva y otras dos tesis. Te invito a leer su argumento con atención dado que es la voz de un referente (los destacados son míos y me ayudo DeepL en la traducción).
“En primer lugar, hablamos [en un capítulo previo] cómo una superinteligencia pionera podría obtener una ventaja estratégica decisiva. Esta superinteligencia estaría en posición de formar una Unidad y dar forma al futuro de la vida inteligente de origen terrestre. Lo que suceda de ese momento en adelante dependerá de las motivaciones de la superinteligencia.
En segundo lugar, la tesis de ortogonalidad sugiere que no podemos asumir alegremente que una superinteligencia necesariamente comparta ninguno de los valores finales estereotipadamente asociados con la sabiduría y el desarrollo intelectual humano –la curiosidad científica, la preocupación benevolente para con los demás, la iluminación espiritual y contemplativa, la renuncia a la codicia material, el gusto por la cultura refinada o por los placeres simples de la vida, la humildad y la abnegación, etc. Consideraremos más adelante si no sería posible a través de un esfuerzo deliberado construir una superinteligencia que valorara esas cosas, o construir una que valorara el bienestar humano, la bondad moral, o cualquier otro propósito complejo al que sus diseñadores pudieran querer que sirviera. Pero no es menos posible –y de hecho técnicamente es mucho más fácil–construir una superinteligencia que no tuviera como valor final nada más que el cálculo de la expansión decimal de pi. Esto sugiere que a falta de algún esfuerzo específico- la primera superinteligencia podría tener como objetivo final algo azaroso o reduccionista.
En tercer lugar, la tesis de convergencia instrumental implica que no podemos asumir alegremente que una superinteligencia con el objetivo final de calcular los decimales de pi (o de construir clips, o de contar granos de arena) limitara sus actividades de tal manera que no perjudicara los intereses humanos. Un agente con ese objetivo final tendría una razón instrumental convergente que le llevaría, en muchas situaciones, a adquirir una cantidad ilimitada de recursos físicos y, si fuera posible, a eliminar las amenazas potenciales que hubiera sobre sí mismo y sobre su sistema de objetivos. Los seres humanos podrían constituir amenazas potenciales; pero de lo que no hay duda es que constituyen recursos físicos.
En conjunto, estos tres puntos indican, por tanto, que la primera superinteligencia podría dar forma al futuro de la vida de origen terrestre, podría fácilmente tener objetivos finales no antropomórficos, y, probablemente, tendría razones instrumentales para perseguir la adquisición indefinida de recursos. Si ahora reconocemos que los seres humanos constituyen recursos útiles (como átomos convenientemente ubicados) y que dependemos para nuestra supervivencia y nuestra realización de muchos más recursos locales, podemos ver que el resultado podría ser fácilmente uno en el que la humanidad fuera rápidamente extinguida”.
Inquietante, ¿no? Sobre todo por su plausibilidad. Nick insiste en que “no podemos esperar alegremente”. Millones de personas trabajan para que la tecnología avance en ese sentido y miles de millones de “consumidores” los estamos ayudando con nuestras demandas y dinero para que simplifiquen nuestras vidas… para seguir produciendo. Como ya sabemos, eso no implica que estemos tomando en cuenta que nuestra humanidad tiene riesgos ciertos de extinción, en una de las formas más dramáticas: la de la cesión de nuestra subjetividad. Harari, consistente con el planteo freudiano sobre el malestar en la cultura, nos recuerda que no debemos subestimar la estupidez humana.
Me propuse compartir una perspectiva fundamentada sobre el riesgo existencial que existe frente a la inevitable evolución de la IA. Espero haber cumplido este cometido, por lo menos de manera inicial. A la vez, me motiva sensibilizar sobre la relevancia crítica que conlleva el desarrollo de nuestras capacidades de atención, reflexión, comprensión y decisión consciente frente a esta revolución en la que estamos embarcados con la IA.
El asunto de fondo es si seguiremos siendo productores o productos de la misma. De hecho, es algo que está ocurriendo hoy cuando los adultos interactuamos con contenidos desarrollados por los algoritmos como si fueran reales o cuando un niño sentado en una plaza elige concentrar toda su atención en la tableta antes que en el verdadero espacio abierto que lo rodea.
El dilema existencial de fondo es seguiremos siendo productores o producto de la IA.
Hablando de niños, Bostrom aporta una síntesis brillante sobre este riesgo existencial: “Para un niño con una bomba a punto de detonar en sus manos, algo sensato sería dejarla con cuidado en el suelo, salir rápidamente de la habitación, y ponerse en contacto con el adulto más cercano. Sin embargo, lo que tenemos aquí no es un niño, sino muchos, cada uno con acceso a un gatillo de disparo independiente. Las posibilidades de que todos tengamos el juicio suficiente como para abandonar los artilugios peligrosos son casi insignificantes. Algún pequeño idiota inevitablemente pulsará el botón de encendido sólo para ver qué pasa.
Tampoco podemos encontrar un lugar seguro huyendo, pues la detonación de una explosión de inteligencia haría que el firmamento se derrumbara por completo. Tampoco hay ningún adulto a la vista.
En esta situación, cualquier sentimiento de euforia iluminada estaría fuera de lugar. La consternación y el miedo estarían más cerca de acertar; pero la actitud más adecuada podría ser una determinación implacable en ser tan competentes como podamos, tanto como si nos estuviéramos preparando para un examen difícil que, o bien nos llevaría a cumplir nuestros sueños, o los destruiría para siempre.
Nos enfrentamos también al desafío de aferrarnos a nuestra humanidad: de mantener nuestras raíces, sentido común y jovial decencia incluso en las fauces del problema más antinatural e inhumano. Tenemos que poner todo nuestro ingenio humano a trabajar en su solución.
Sin embargo, no debemos perder de vista qué es universalmente importante. Más allá de la niebla de trivialidades cotidianas, podemos percibir –aunque sea débilmente–la tarea esencial de nuestra época.”
Y concluye: “Que los mejores en naturaleza humana, por favor, se pongan de pie”. En eso estamos algunos, plenos de dudas, ambivalencia y preguntas, que nos devuelven esa exquisita sensación de humanidad.
Te invito también a ponerte de pie, a dejar el dispositivo inteligente, contemplar el mundo analógico que habitas y degustar esta perspectiva, conversándola con tu familia, con amigos y con colegas. Es la tarea esencial de nuestra época, ¿no?
Mariano Barusso | Es Director General de Asertys, Consultoría en efectividad y transformación organizacional.
Asertys, 2023 / © Todos los derechos reservados.