El artículo publicado ayer por Sam Altman, «La era de la inteligencia»afirmar que la superinteligencia estará a nuestro alcance en “unos miles de días” y anunciarla como la solución a todos los problemas de la humanidad, ha generado todo tipo de comentarios y críticas, y ha vuelto a poner de relieve la idea de que la inteligencia artificial podría evolucionar hasta el punto de ser capaz de alcanzar un nivel que supere al de los genios y las mentes humanas más dotadas.
Si hay algo que me irrita son las discusiones terminológicas, y la que se está estableciendo en torno al concepto de superinteligencia, por desgracia, es una de ellas. La idea de superinteligencia suele referirse a una inteligencia que supera las capacidades humanas en casi todos los ámbitos, incluida la creatividad, la resolución de problemas, la inteligencia social y otros. El concepto se suele discutir en el contexto de la inteligencia artificial, y representa una hipotética fase futura en la que los sistemas de inteligencia artificial podrían superar significativamente las capacidades cognitivas humanas.
La definición de Nick Bostrom, filósofo y teórico de la IA, se refiere a “un intelecto mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”, una inteligencia que no se limitaría a tareas específicas como la IA actual (capaz de sobresalir en áreas muy específicas como el ajedrez, el Go, los videojuegos o el reconocimiento de patrones), sino que sería general, adaptativa y capaz de automejorarse. Interesante, pero para mí, carente de lo que realmente diferencia a la inteligencia humana: motivación e intencionalidad.
El lanzamiento de ChatGPT o1, que la compañía ha anunciado como «capaz de razonamiento avanzado» y que muestra cómo funciona su proceso de pensamiento a medida que se desarrolla, también ha hecho mucho ruido. ChatGPT ciertamente ya ha superado a la gran mayoría de los humanos cuando se trata de expresar ideas complejas con un buen nivel de corrección gramatical, pero ahora también se sugiere que los supera cuando se trata de razonamiento que requiere documentación, procesamiento y relación de ideas, y donde la expresión es solo un paso final.
Obviamente, la idea de que este tipo de algoritmos fueran de algún modo “completadores de frases” más o menos sofisticados capaces de predecir de forma sencilla qué palabras vienen después de otras está completamente superada. Los algoritmos piensan, aunque no piensen como nosotros, y son capaces de aplicar estos procesos de pensamiento diferencial a prácticamente cualquier cosa, a un nivel que supera al de muchos humanos –y decididamente, mucho más rápido. Sólo la tarea de investigar a fondo una cuestión es algo que genera una tarea humana que lleva mucho tiempo, y eso a pesar de tener a disposición una herramienta como Internet –inimaginable si tuviéramos que, como antes, acudir a bibliotecas y expertos para recabar esa información relevante.
Así pues, si aceptamos a los humanos como “inteligentes”, y a algunos de ellos como “muy inteligentes”, me temo que, digan lo que digan las definiciones, la superinteligencia ha estado aquí durante mucho tiempo y no es humana. Los sistemas de inteligencia artificial actuales dependen en gran medida del progreso de la aprendizaje automáticoespecialmente de la aprendizaje profundoY estos modelos ya son razonablemente generales a la hora de responder a preguntas sobre diferentes temas. Por supuesto, razonan y expresan sus opiniones solo cuando alguien, un humano, se lo pide, y por tanto, podríamos decir que aún están lejos de alcanzar la inteligencia general porque, sobre todo, les falta motivación o intencionalidad. Pero por un lado, una inteligencia artificial capaz de mejorarse a sí misma recursivamente podría acelerar su propio desarrollo, y alcanzar la superinteligencia a una velocidad mucho más rápida de la que los humanos podríamos entender.
Sin embargo, crear un sistema que replique o supere todo el espectro de la inteligencia humana (razonamiento, emociones, juicio ético y creatividad) sigue siendo un desafío inmenso. La superinteligencia probablemente requeriría comprender no solo cómo funciona la inteligencia, sino también cómo emularla de maneras que aún no entendemos por completo.
¿Podría una superinteligencia resolver problemas complejos en campos como la medicina, la energía o la física, que hoy están fuera del alcance de las capacidades humanas, y contribuir a los avances científicos y tecnológicos? ¿Podría impulsar un nivel de crecimiento económico sin precedentes optimizando la gestión de los recursos, la creación de nuevas industrias y la productividad? ¿O podría tener aplicaciones humanitarias como la eliminación de la pobreza, la mejora de la educación y la resolución de las desigualdades globales optimizando los sistemas sociales y la distribución de los recursos? Seguramente sí, pero eso requeriría alcanzar un consenso internacional que permitiera su acción, lo que seguramente sería imposible de lograr.
En cambio, dada la naturaleza humana, lamentablemente es más probable que terminemos con escenarios negativos que resulten no de una hipotética pérdida de control sobre la inteligencia artificial, sino de su uso para provocar desplazamientos laborales, desajustes éticos y morales, para generar formas avanzadas de guerra más allá del entendimiento humano que intensifiquen las tensiones internacionales y generen riesgos de conflictos catastróficos, o para terminar siendo controlados por un pequeño número de entidades poderosas y exacerbar la desigualdad global.
La superinteligencia, por tanto, sigue siendo un concepto teórico con un inmenso potencial para redefinir el futuro de la humanidad, pero que la IA pueda realmente alcanzar un nivel que consideremos superinteligencia dependerá no sólo de avances científicos, sino también, y de manera crucial, de consideraciones éticas y de gobernanza que todavía no hemos resuelto del todo. De hecho, con el nivel actual de inteligencia de los algoritmos, ya se podría hacer mucho en términos de optimización de la civilización humana: me temo que ChatGPT y un puñado de otros algoritmos ya están muy por encima del nivel del político medio, y probablemente de muchos de los que votan por ellos. Si muchos políticos tomaran decisiones preguntando a estos algoritmos y aplicando sus respuestas, seguramente estaríamos mucho mejor.
La clave, por tanto, no será conseguir algoritmos cada vez más inteligentes, sino plantearse cómo gestionar los riesgos y aprovechar los beneficios de forma que se garantice un resultado positivo para la Humanidad. La clave, me temo, no está en que nuestros algoritmos de inteligencia artificial alcancen la superinteligencia, sino en que seamos capaces de elevar un poco la nuestra y cambiar la forma en que llevamos siglos organizándonos, con el resultado que todos conocemos.