viernes, 17 de enero de 2025

La era de la Inteligencia Artificial y nuestro futuro humano ("The age of AI - And our Human Future"), de Henry A. Kissinger, Eric Schmidt y Daniel Huttenlocher

Encontré la referencia a este ensayo en alguna de las lecturas recientes, pero no recuerdo en cual. Sobre el tema de la IA se escriben cantidades industriales de manifiestos, ensayos y panfletos, cada uno tratando ser más alarmista o más fantástico que el anterior, pero yo creo que estoy bien servido con cosas serias, como por ejemplo este que leí hace un tiempo: Predictions Machines y que vuelvo a recomendar.

No estaba especialmente interesado en ampliar mis horizontes sobre el tema, pero al ver los autores decidí echarle una leida. Kissinger se presenta solo, y Eric Schmidt casi también, pues fue consejero delegado de Google, y tiene el excelente How Google works.

Pero me temo que el libro no me ha aportado nada, con la excepción de las reflexiones sobre las consecuencias militares. Es el chau chau habitual, construido sobre los ejemplos habituales (lo del AlphaZero para el ajedrez aparece en todos los libros del tema: ¿en serio no hay a estas alturas ningún otro ejemplo?), con tonos mesiánicos especialmente en los últimos capítulos. 

Por ejemplo: "AI is also in the process of transforming machines— which, until now, have been our tools— into our partners." (subrayado mío). Otro: "The continued integration of AI into our lives will bring about a world in which seemingly impossible human goals are achieved...", o sea, como cualquier tecnología: el coche o el avión nos permiten metas humanas que parecían imposibles en el siglo XIX.

Hombre, por lo menos no advierte de que la "singularidad" está próxima y tiende a mantener la preponderancia del ser humano sobre las aplicaciones de AI. Así, se nos explican con bastante claridad los límites de la IA: "AI is constrained by its code in three ways. First, the code sets the parameters of the AI’s possible actions. These parameters might be quite broad, permitting a substantial range of autonomy and therefore risk. (...) Second, AI is constrained by its objective function, which defines and assigns what it is to optimize. (...)AI can only process inputs that it is designed to recognize and analyze."

Además: "Machine- learning- powered AI requires substantial training data. Training data, in turn, requires substantial computing infrastructure, making retraining AI prohibitively expensive, even if it is otherwise desirable to do so."

En esencia, el principal problema de las AIs es que hacen predicciones/llegan a conclusiones que pueden ser incomprensibles para los seres humanos, incluso a la vista de los mismos datos, y pese a todo ser correctas. AlphaZero aprendió a jugar al ajedrez contra sí mismo, y encontró enfoques que no se le habían ocurrido antes a nadie. Los motores de AI no buscan causalidades sino solo correlaciones, pero lo hacen con una capacidad inimaginable e inalcanzable. Los seres humanos, en cambio, buscamos la causalidad para entender las cosas. Es lógico que nos den miedo cacharros que hacen cosas correctamente aparentemente por casualidad, y que además lo hacen a toda velocidad. 

Pero no por ello son divinos. Me dan repulsa afirmaciones como "it is evident that we are in the presence of another experience of reality by another sophisticated entity." o "We may find ourselves one step closer to the concept of pure knowledge, less limited by the structure of our minds and the patterns of conventional human thought." A ver, los datos con que se alimentan las IAs son necesariamente datos que podemos percibir los seres humanos directa o indirectamente, con nuestras estructuras mentales. Mientras las IAs no sean capaces de capturar datos no accesibles al ser humano, no veo yo cómo van a poder superior nuestras estructuras mentales. ¿Y cómo se le va a ocurrir a una IA que necesita un dato no percibido por un ser humano, si solo aprende gracias a la información que nosotros le podemos dar? La IA no es genuinamente creativa, solo construye a partir de lo que se le ha dado. La IA Generativa genera nuevo material a partir del existente. 

En cuanto al problema de que tomen decisiones sobre nuestras vidas sin que las podamos entender, la cuestión es si esas decisiones de la IA mejorarán nuestra vida o no. Si las decisiones las toman empresas en un mercado libre, las que lo hagan mal serán expulsadas del mercado, y las que lo hagan bien no. Si parte de hacerlo bien consiste en entender cómo se toman las decisiones, las empresas no automatizarán las decisiones propuestas por la IA. 

El problema, como siempre, es si las decisiones asistidas por la IA las toma el Estado, que no tiene los mismos incentivos ni la disciplina para hacer bien su trabajo, Aquí sí que nos podríamos encontrar con situaciones kafkianas como denuncian los autores, pero solo aquí. Es evidente que el Estado debería siempre poder dar una justificación humana a su decisión, y se le debe requerir qne entienda las propuestas de las IAs antes de usarlas. Si no, estaremos aún más fastidiados.

El papel del Estado nos lleva al último punto que quiero tratar, que es el bélico, Ya sabemos que la guerra y el armamento son la principal prerrogativa de los Estados, por lo que no es de extrañar que el uso de la IA para estos fines nos deba dar miedo y respeto. Ya la jodieron con la energía nuclear, algo que deberíamos ver como una bendición, esta sí, cuasi divina, y sin embargo mucha gente ve con temor gracias a su uso bélico.

Las reflexiones de este capítulo son las que más información me han aportado. Aunque no me parecen revolucionarias, no habia leído lo suficiente sobre la aplicación bélica de la IA y quizá por eso me han resultado novedosas e interesantes.

Un primer punto a tener en cuenta, en general sobre las "cybercapabilities" es que su "utility derives largely from their opacity and deniability and, in some cases, their operation, at the ambiguous border of disinformation, intelligence collection, sabotage, and traditional conflict— creating strategies without acknowledged doctrines." Esto significa que a los rivales les resulta difícil estimar el potencial de cada uno, lo que hace que sea más difícil llegar a acuerdos. Con las armas convencionales, cada país tiene más fácil estimar sus posibilidades de victoria ante un conflicto, lo que no parece ocurrir con la "cyberwar".

Los autores lo comparan con la doctrina que afloró para las armas nucleares: la perspectiva de "mutual assured destruction" hizo que tan destructivas armas no se llegaran a usar e incluso se desmantelen. Si bien la IA parece tener una capacidad destructiva similar (según los autores), su opacidad dificulta enormemente una doctrina similar.

Otro problema es la confluencia entre los dominios civil y militar, algo que no ocurre en ninguna otra tecnología: "Three qualities have traditionally facilitated the separation of military and civilian domains: technological differentiation, concentrated control, and magnitude of effect. Technologies with either exclusively military or exclusively civilian applications are described as differentiated. Concentrated control refers to technologies that a government can easily manage as opposed to technologies that spread easily and thereby escape government control. Finally, the magnitude of effect refers to a technology’s destructive potential." Pues bien, hasta la IA ninguna tecnología había presentado las tres características: "dual- use, easily spread, and potentially substantially destructive."

Por último, recoge esta distinción en el ámbito militar que me parece muy interesante y paradgimática del principal problema de la IA a mí entender: "the United States has distinguished between AI‑enabled weapons, which make human- conducted war more precise, more lethal, and more efficient, and AI weapons, which make lethal decisions autonomously from human operators. The United States has declared its aim to restrict use to the first category. It aspires to a world in which no one, not even the United States itself, possesses the second." (negrita propia)

Este ensayo es interesante y está bien escrito. No aportará demasiado a quien tenga ya algunas lecturas sobre el tema. A mí me ha resultado muy esclarecedor el capitulo 5, pero no creo que nadie encuentre nada revolucionario si ya ha leído sobre ciberseguridad. Por contra, se me han hecho insoportables el capítulo 6 y el 7, donde se pajarea y se filosofea sobre la interacción de la IA y el ser humano. Supongo que habría muchos libros iguales cuando se empezó a desplegar el ferrocarril, y no creo que haya llegado ninguno hasta nuestros días. Pues eso mismo.




No hay comentarios: