jueves, 29 de abril de 2021

Human Compatible, de Stuart Russell

La verdad es que empecé leyendo este libro pensando que me iba a explicar cosas de cómo funciona el cerebro y, sobre todo, de los posibles límites para explicarlo. Pero me encontré con un libro sobre uno de los temas de moda, la Inteligencia Artificial (AI), y sus posibles límites. O sea, algo que ver, pero no mucho. Me terminé de despistar con el capítulo inicial, en que el autor da pinceladas sobre el funcionamiento de cerebro y sus bases evolutivas y químicas, y parece que va a ir del tema. Si tenía alguna expectativa al respecto, se quedan truncadas rápidamente cuando el autor afirma de forma contundente "In the area of consciousness, we really do know nothing, so I’m going to say nothing." aunque "No one in AI is working on making machines conscious, nor would anyone know where to start, and no behavior has consciousness as a prerequisite."

Con todo, el libro no está mal, sobre todo sus dos primeros capítulos y el penúltimo. Lo primero que nos da es una útil definición de Inteligencia, que es aquello que nos permite conseguir nuestros objetivos. Por analogía, la IA será aquello que permita a una máquina obtener los suyos. Y, de forma inmediata, aparece el principal problema de la IA, mejor dicho, de la super-IA: "We say that machines are intelligent to the extent that their actions can be expected to achieve their objectives, but we have no reliable way to make sure that their objectives are the same as our objectives."

Sobre la IA "normal", o sea, la  que se está implementando en estos momentos vía ML o Deep-Learning, esto no libro no aporta demasiado, aunque realiza un buen inventario del estado de arte. Lo que interesa, realmente, es dónde están los límites de la IA, o, desde otro punto de vista, qué nos falta para conseguir la que él llama super-IA, una IA general superior a la de los seres humanos.

Al respecto, el autor identifica con claridad los cuatro aspectos que enumero:

- Lenguaje y sentido común

- Aprendizaje acumulativo de conceptos y teorías (a nivel abstracto, claro)

- Descubrimiento y planificación de acciones a distintos plazos: "The main missing piece of the puzzle is a method for constructing the hierarchy of abstract actions in the first place."

- Gestionar la actividad mental.

Pero, una vez identificados, el autor da el salto mental de que, por supuesto, el ingenio humano será capaz de solventarlos tarde o temprano, y se lanza a lo que realmente les gusta a estos autores, que es imaginar cómo será el mundo con robots super-inteligentes, el montón de amenazas que nos esperan como no sepamos controlarlos y todos los beneficios que obtendremos de la citada super-inteligencia, en que los robots son capaces de asimilar en horas la sabiduría desarrollada por los humanos durante milenios. Son siempre ensayos que rozan o están en la ciencia ficción, y que me parecen aburridos, porque cuando leo ensayo, leo ensayo, no novela. Para novela, leería a Asimov, no a Stuart Russell.

Para mí hubiera sido mucho más interesante que se detuviera en esos aspectos que aún quedan por solventar, en dónde estamos en cada uno de ellos y por qué es realista que se terminen resolviendo. Pero, claro, eso es muchos menos resultón de cara a la galería.

Sin embargo, quien supere estos capítulos volverá a encontrarse con reflexiones de interés y cosas que aprender, pues se vuelve a plantear el problema principal que he descrito al principio, el de cómo conseguir que el objetivo de las máquinas sea el de los humanos. Para ello, lo primero es descartar como solución los problemas de maximización con certidumbre, que son los que aplica el ML.

Y aquí si cabe una discusión teórica provechosa, con independencia de que la superIA sea o no viable. Russell proponer el siguiente trío de principios para el comportamiento de la máquina, que, según él, reducirían el riesgo de una superIA destructiva:

"1. The machine’s only objective is to maximize the realization of human preferences.

2. The machine is initially uncertain about what those preferences are.

3. The ultimate source of information about human preferences is human behavior."

Para algunas de las argumentaciones, el autor utiliza la teoría de juegos, en este caso entre humano y robot, teorías que yo desconocía.

Y en el penúltimo capítulo entra de lleno sobre un tema que se acepta implícitamente en la solución anterior. Me refiero a la asunción de que se pueden observar las preferencias de los humanos, y en cómo conciliar las preferencias de los distintos individuos en sociedad, así como adaptarse a loa cambios en las mismas. Estos planteamientos son perfectamente compatibles con la visión del ser humano que tiene la escuela económica austriaca y, por tanto, podrían ser aplicables a los problemas que surgen de la teoría económica basada en idénticos supuestos. 

En cambio, no me ha gustado nada y me ha resultado preocupante la visión que tiene Russell sobre el origen de las normas de convivencia en sociedad: "Several thousand years of work by philosophers, economists, legal scholars, and political scientists have produced constitutions, laws, economic systems, and social norms that serve to help (or hinder, depending on who’s in charge) the process of reaching satisfactory solutions to the problem of trade-offs." O sea, la visión racionalista de la sociedad contra la que nos advierte Hayek en "The fatal conceit", muy propia de ingenieros y científicos naturales. Consecuentemente, no sería de extrañar que Russell piense que la superIA puede mejorar estos sistemas desde fuera, lo mismo que piensan los políticos y los gobiernos.

De hecho, él es exquisito a la hora de respetar las preferencias de todos los individuos, y es uno de los mayores problemas que tendrá que resolver la superIA, cómo priorizar entre ellas. 

Por ejemplo, cuando cita el teorema de la agregación social de Harsanyi: "an agent acting on behalf of a population of individuals must maximize a weighted linear combination of the utilities of the individuals." se da cuenta de que "The theorem requires one crucial additional (and unstated) assumption: each individual has the same prior factual beliefs about the world and how it will evolve." algo de lo que no se dan cuenta, por ejemplo, los economistas neoclásicos.

O es consciente de que una máquina inteligente podría intentar deliberadamente modificar las preferencias de los humanos: ¿Por qué? "The answer is quite simple: to make the preferences easier to satisfy." Alguien diría que así actúan los regímenes comunistas. Las malas noticias siempre son que no es tan fácil modificar las preferencias como la gente (o las máquinas) se creen, y aquello suele terminar en tragedia y con millones de muertos.

Pues bueno, con todo lo sutil que es su análisis y lo considerado que es con todos los valores y preferencias de las personas, al final, cuando uno cree que ya no va a hacerlo, le salé el ramalazo de planificador social y nos suelta "for any individual human, it may seem pointless to engage in years of arduous learning to acquire knowledge and skills that machines already have; but if everyone thinks that way, the human race will, collectively, lose its autonomy." Y, por supuesto, ante este problema la solución es cultural, no técnica: "We will need a cultural movement to reshape our ideals and preferences towards autonomy, agency, and ability and away from self-indulgence and dependency".

Vamos, que para que la IA sea "human compatible", los que tenemos que cambiar somos los humanos. E inmediatamente pido perdón por mi demagogia, pues es muy injusto para con el autor terminar con esto, además sacado de contexto. 

Sí diré una cosa, porque si no reviento: estos libros sobre la superIA se olvidan de que el ingenio humano sí tiene límites, los que nos imponen las leyes físicas y por ende las biológicas. Cuando uno se dedica a hablar de lo que pasaría en un mundo con superIA es como si a principios del XX con el despliegue de las vías de tren tuviéramos pensadores muy preocupados sobre lo que pasará cuando los trenes superen la velocidad de la luz, y que por supuesto que se conseguiría. Si alguien escribió sobre estas hipótesis, supongo que sus ensayos habrán quedado olvidados y bien olvidados. Me temo que pase lo mismo con estos pajareos sobre los robots más inteligentes que los seres humanos (en términos de  inteligencia humana, otra cosa es que robots especializados hagan mejor que los humanos una de las cosas que hacen estos).

No hay comentarios: