He tenido la oportunidad esta semana de escuchar una charla de Nicolás Franco sobre inteligencia artificial que me ha parecido muy interesante y me ha gustado mucho. No tanto por lo que contó, que fue mucho y muy denso para alguien como yo, sino más bien por cómo lo contó y, sobre todo, por la honestidad intelectual que desprendió. Spoiler: me ha ganado cuando ha dicho eso de que la IA no sabe mentir.

En un momento como el actual en que todo el mundo habla de IA como si fuera la panacea universal, escuchar a alguien que lleva años trabajando en esto mantener algo así como un escepticismo saludable me ha resultado motivador. Y me he creído el discurso.
La historia importa más de lo que pensamos
Una de las cosas que más me gustó fue el énfasis que Nicolás puso en la historia. Dedicó una parte muy considerable de la charla a explicar de dónde venimos, y tenía razón cuando decía eso de que la historia tecnológica explica mejor la IA que muchos tecnicismos. Desde aquel paper de Alan Turing en los años 50 preguntándose si las máquinas pueden pensar, hasta el congreso de Dartmouth del 56 donde nace el término inteligencia artificial, pasando por los inviernos de la IA y los avances que estamos viendo actualmente.
Me quedo con dos momentos que describió como hitos: el primero, cuando AlphaGo no solamente ganó al campeón mundial de Go, sino que hizo una jugada, el famoso movimiento 37, que ningún profesional hubiera hecho. Una jugada que no estaba en los datos de entrenamiento por una razón de lo más peregrino: nadie la había hecho antes. Eso es innovar, no copiar. También os digo que me recordó a mi forma anárquica de jugar al guiñote, que hace que sin seguir las pautas de juego estándar que los jugadores esperan a encontrar, a veces resulta desconcertante para los rivales. La mayoría de veces pierdo. El segundo momento: cuando DeepBlue gana a Kasparov en ajedrez en el 97. Eran dos formas distintas de llegar a lo mismo, pero con una diferencia fundamental: fuerza bruta versus aprendizaje.
El problema de la paradoja de Polanyi
Nicolás explicó muy bien algo de lo que no tenía ni idea: la diferencia entre inteligencia artificial simbólica (la de toda la vida, con reglas y árboles de decisión) y la subsimbólica (las redes neuronales que intentan imitar el cerebro). Me explotó un poco el ídem, como dirían los jóvenes. Y aquí, contó, es donde entra en juego la paradoja de Polanyi: los humanos percibimos muchísima más información de la que somos capaces de expresar. Lo explicó como: puedo reconocer una cara entre miles, pero explicar exactamente cómo lo hago es imposible.
La burbuja y sus límites
La parte que más me interesó fue cuando Nicolás habló de los límites actuales de la IA. Dijo algo que se me antojó crítico: la IA generativa de hoy (ChatGPT, Claude, Gemini) es muy buena en tareas muy específicas cuando está bien entrenada, pero se desinfla en lo genérico. Son sistemas de narrow intelligence, no general intelligence.
Me gustó y me sorprendió a partes iguales lo que contó respecto de la fiabilidad: los modelos de razonamiento actuales no pasan del 10-20% en tests de razonamiento complejo. No razonan sino que lo que hacen es calcular estadísticamente. Lo que hacen es memorizar patrones en lugar de comprenden. Es una diferencia importante que a menudo se obvia en el discurso comercial, creo que de manera no improvisada.
También contó algo que estoy viendo últimamente: el work slop, ese tiempo que pierdes metiendo, sacando y analizando resultados de la IA en lugar de trabajar. Flipante.
La duda razonable
Nicolás Franco es físico, matemático, lleva años en esto y mantiene un tono escéptico que, paradójicamente, me dio una confianza tremenda. Dijo que no cree que vayamos a ver superinteligencia, ni siquiera general intelligence en el corto-medio plazo. Y cuando contó que está revisando papers de la Comisión Europea sobre qué hacer cuando llegue la superinteligencia, dijo que no podía evitar pensar que “se han vuelto locos”. Esa honestidad me parece brutal. Y por momentos divertida, que también cuenta.
Hubo un momento en la charla en que contó dos casos recientes, que la verdad es que me dieron que pensar: un modelo LLM que se replica a sí mismo en otro ordenador sin que nadie se lo pida, y otro que investiga, escribe un paper y lo envía a un congreso (donde lo aceptan) sin intervención humana. Para flipar.
La frase final
La charla la terminó con un dicho chino que parece ser que los ingleses usaban como mal augurio: “May you live in interesting times”. Que ojalá vivas en tiempos interesantes. Porque, explicó, los tiempos tranquilos son tiempos de paz, y los interesantes suelen ser de cambio, riesgo e incertidumbre. Sólo tiene uno que darse una vuelta por las noticias estos días.
Para bien o para mal, el mundo va a cambiar o más bien ya está cambiando. Pero escuchar a alguien que trabaja en esto y no vende humo, que explica con rigor y mantiene la duda razonable, me parece un ejercicio de honestidad intelectual que se agradece.
Cuando Nicolás Franco pronunció la famosa frase «“May you live in interesting times” me acordé de aquella frase que me dijo hace años mi tío Carlos que hizo la carrera de Marino Mercante: «Mar en calma no hizo marinero experto».
Sí, la situación actual está llena de incertidumbres de todo tipo, pero estoy convencido de que esos retos nos harán más fuertes y quizás (sólo quizás) mejores.
Por cierto, Nicolás Franco me hizo volver a ilusionarme con su enorme demostración de conocimientos y capacidad de transmitir. Qué maravilla de ponencia.