Después de un descanso veraniego, esta semana os traigo otro artículo especial, en el que, en lugar de repasar lo sucedido en la última quincena, comento un único tema. Pero no os asustéis, esta vez va a ser bastante más corto que aquel que hice a finales de mayo sobre los papiros de Herculano 😄.
La semana que viene volveremos a nuestra programación quincenal, con un número en el comentaremos algunas noticias del verano y la sorpresa de ayer: el nuevo modelo de OpenAI.
¡Gracias por leerme! Y un abrazo a los suscriptores recién llegados.
Últimamente el término AGI (Artificial General Intelligence, Inteligencia Artificial General) está en boca de casi todo el mundo. Podcasts, blogs, redes sociales, newsletters, todos hablan de si vamos a alcanzar la AGI en X años o no.
Antes de arriesgarme a hacer ninguna predicción quiero dedicarle un rato a hablar del propio término. ¿Tiene sentido hablar de AGI? ¿O se ha convertido en un término maldito, no recomendable, desde que gente como Altman y OpenAI no para de usarlo? ¿Te van a mirar mal si hablas de AGI?
Vamos a empezar con una anécdota de la semana pasada.
Hace años seguía por Twitter a Grady Booch. Fue una figura importante de la ingeniería del software de los años 80, en los que puso de moda metodologías de diseño orientadas a objetos muy interesantes. Todavía tengo un par de libros suyos de aquella época.
Cuando empezaron a hacerse públicos los primeros modelos generativos, Booch se puso también a hablar de IA. Al principio era interesante, resaltaba las limitaciones y los problemas de estos modelos y su voz era un buen contrapunto a apocalípticos exagerados como Sam Harris o Nick Bostrom. Sin embargo, su timeline se convirtió pronto en un sonsonete del estilo del de Gary Marcus, todo negativo, todo problemático. Un día, no recuerdo con qué post, me enfadé, me puse en modo Van Gaal y dejé de seguirle.
Pero hace poco el algoritmo de X me mostró la siguiente interacción de François Chollet con él:
Grady Booch:
AGI no sucederá en tu vida. Ni en la vida de tus hijos. Ni en la vida de los hijos de tus hijos.
El post de Booch era de hace de más de un año pero por alguna razón Chollet lo vio hace unos días. François es un chico majo (es verdad, mirad alguno de sus vídeos en YouTube) y, en lugar de hacer como yo y dejar de seguir a Booch, le contestó con buenas maneras:
En mi propia definición de AGI, sucederá definitivamente en mi vida, de hecho es probable que en los próximos 10-15 años. Pero mi definición personal es más tangible y más restrictiva que la mayoría, para mi no es "una mente humana artificial" ni "un dios artificial". AGI es solo una IA que posee un grado de generalidad (habilidad de enfrentarse a problemas nuevos y entenderlos) al menos tan alto que el de los humanos. Hasta el momento la generalidad ha sido el ingrediente que falta en la IA. Pronto podríamos conseguir desarrollarlo.
Booch le responde haciendo un chascarrillo con lo de la "generalidad":
En general :-) estoy de acuerdo contigo, excepto que, en general, hablando, esas medidas de generalidad son tan vagas que hacen que el listón para el éxito sea bastante bajo.
Está claro que Booch no conoce todo el trabajo que está haciendo Chollet con su Premio ARC (arcprice.org y X), precisamente para intentar medir de una forma objetiva algo de esta "generalidad" necesaria para la AGI. Ya hablamos de este premio en el post de la primera quincena de junio.
Chollet ya no le contestó. Lo que no sé es si, como yo, dejó de seguirle.
Lo anterior no es solo una anécdota. La falta de entendimiento sobre el término AGI se está haciendo cada vez más intensa. Y ahora se complica todo aún más con su uso cada vez más extendido fuera del ámbito científico. Directivos de startups, aspirantes a influencers en X o YouTube, muchos usan el término principalmente para llamar la atención y captar audiencia (o dinero).
Pero la popularidad del término también tiene sus cosas buenas. Programas generalistas están usándolo para explicar cosas interesantes haciendo buena divulgación científica. Por ejemplo, The Economist, en su siempre interesante podcast semanal Babbage, ha publicado un especial sobre AGI (AGI, part one: what is artificial general intelligence?). En el programa se intenta dar una visión bastante académica, entrevistando a distintos perfiles como ingenieros, científicos de la computación o neurocientíficos.
Melanie Mitchell, científica de IA muy puesta en IA tradicional pero también en LLMs (ver por ejemplo su artículo Large Language Models en The Open Encylopedia of Cognitive Science) comenta una definición relacionada con las capacidades humanas:
AGI se ha definido como una máquina que es capaz de hacer todo lo que un ser humano puede hacer. Y luego, recientemente, se ha debilitado un poco esta, definiéndose como una máquina que puede realizar todas las tareas cognitivas que un ser humano puede hacer, dejando de lado las formas físicas de inteligencia.
Aunque después resalta que no le gusta demasiado el término AGI:
Presentador: ¿Crees que el uso de la frase AGI es realmente útil para los científicos en inteligencia artificial como tú, o lo ves más como una distracción?
Mitchell: Creo que es un poco una distracción. La gente siente que puede tomar la inteligencia como algo que está separado de su manifestación en los humanos, en el cerebro y el cuerpo humano, y aislarla [...]. Y no estoy convencida de que eso sea realmente significativo o que nos dé una dirección clara a seguir.
Sin embargo, el científico de Google Blaise Aguera y Arcas, no se pierde en disquisiciones sobre el término y dice que el problema no es de hacer los modelos más generales, sino de hacerlos mejores en distintos aspectos:
Creo que se trata simplemente de mejorar en un montón de cosas que a todos nos importan, como la veracidad, el razonamiento, la memoria, la planificación, tener una perspectiva consistente durante largos periodos de tiempo, y así sucesivamente [...] Así que no creo que se trate de cuán lejos estamos de algo en particular, sino más bien de qué tan rápido están mejorando estas cosas, y cuándo se volverán confiables para hacer una variedad de cosas diferentes que, en este momento, diría que no son confiables para hacer de manera autónoma.
O sea, que no hay acuerdo ni siquiera entre los científicos que están más metidos en el tema. Unos dicen que AGI no es un término útil, otros que sí, porque precisamente lo que hace falta es eso, generalizar. Y otros dicen que casi ya estamos ahí, y que solo falta mejorar.
¿Cuál es mi opinión? ¿AGI o no AGI?
Para mi, como dice Chollet, la clave está en la "G" del término: “general”. Esta "G" simboliza un cambio significativo en la evolución de la inteligencia artificial y de las redes neuronales, pasando de modelos especializados, como los que dominaron en la década de 2010, hacia modelos más genéricos y polivalentes como los actuales LLMs, que son capaces de almacenar todo el conocimiento humano e interaccionar en lenguaje natural.
Y, como dice Aguera y Arcas, nos iremos acercando a esta “G” conforme se vayan desarrollando nuevos algoritmos que mejoren las carencias de los actuales LLMs dotándoles de nuevas capacidades que les permitan resolver problemas como el premio ARC de Chollet.
Yo, por mi parte, seguiré hablando de AGI, aunque cada vez que lo haga tenga que referenciar este artículo para que no me confundan con un AI Bro.
¡Hasta la próxima quincena, nos leemos! 👋👋