Diez años después de la partida que convirtió a AlphaGo en un fenómeno global, Google DeepMind ha querido reivindicar aquel momento como mucho más que una victoria en un tablero de go. En un balance publicado esta semana, Demis Hassabis sostiene que el triunfo de 2016 frente a Lee Sedol no solo adelantó una década los pronósticos de muchos expertos, sino que marcó el arranque de la actual etapa de la Inteligencia Artificial. La idea central de ese repaso es clara: AlphaGo no fue solo una demostración técnica, sino el punto en el que DeepMind entendió que sus métodos podían salir del terreno de los juegos y empezar a atacar problemas científicos del mundo real.
La imagen que sigue simbolizando aquel salto es la célebre “jugada 37” de la segunda partida disputada en Seúl. Google recuerda que más de 200 millones de personas siguieron aquel enfrentamiento y que los comentaristas profesionales interpretaron inicialmente ese movimiento como un error. Después se convirtió en todo lo contrario: una señal de que el sistema no se limitaba a copiar estrategias humanas, sino que podía encontrar caminos nuevos dentro de un espacio de búsqueda descomunal. El go, con unas 10^170 posiciones posibles, llevaba años considerándose uno de los grandes retos de la Inteligencia Artificial, y AlphaGo lo abordó combinando redes neuronales profundas, búsqueda avanzada y aprendizaje por refuerzo.
Del tablero al laboratorio
Aquel enfoque no se quedó ahí. Tras AlphaGo llegaron AlphaGo Zero y después AlphaZero, sistemas capaces de aprender desde cero a dominar juegos como el go, el ajedrez y el shogi únicamente a partir de sus reglas. Para DeepMind, esa evolución fue la prueba de que la búsqueda, la planificación y el aprendizaje por refuerzo podían generalizarse más allá de un único dominio. Y, con el paso de los años, esa intuición acabó trasladándose a la ciencia computacional, donde la empresa empezó a aplicar principios similares a problemas mucho más abiertos y valiosos.
El caso más conocido es AlphaFold 2, presentado en 2020 para resolver el histórico problema del plegamiento de proteínas. DeepMind recuerda que después puso a disposición de la comunidad científica una base de datos abierta con más de 200 millones de estructuras de proteínas, y que esa infraestructura ha sido utilizada por más de 3 millones de investigadores en más de 190 países. El impacto fue tan amplio que en 2024 Demis Hassabis y John Jumper recibieron el Premio Nobel de Química por este trabajo, compartiendo el galardón con David Baker. Más allá del reconocimiento simbólico, AlphaFold fue la prueba más visible de que las técnicas nacidas en sistemas como AlphaGo podían acabar acelerando la biología estructural y el descubrimiento científico.
DeepMind también vincula ese legado a otros avances recientes. En 2024, AlphaProof y AlphaGeometry 2 alcanzaron un rendimiento equivalente a medalla de plata en la Olimpiada Internacional de Matemáticas al resolver cuatro de los seis problemas del certamen y sumar 28 puntos. Un año más tarde, una versión avanzada de Gemini con Deep Think logró un rendimiento de nivel de medalla de oro en la IMO 2025, según la propia compañía. En paralelo, DeepMind ha presentado AlphaEvolve, un agente de programación que explora el espacio del código para descubrir algoritmos más eficientes, y ha impulsado AI co-scientist, un sistema multiagente pensado para generar hipótesis científicas y colaborar con investigadores en áreas biomédicas.
La tesis de DeepMind: AlphaGo fue el prólogo de la IAG
El artículo de Hassabis tiene, sin embargo, una segunda lectura mucho más ambiciosa. No se limita a celebrar una efeméride, sino que presenta una línea directa entre AlphaGo y la búsqueda de la Inteligencia Artificial General. DeepMind sostiene que las técnicas de búsqueda y planificación que hicieron posible aquella victoria siguen vivas hoy en modelos como Gemini, en sus sistemas científicos y en herramientas más especializadas como AlphaFold. Según esa visión, el futuro pasará por combinar modelos multimodales del mundo, mecanismos de razonamiento inspirados en AlphaGo y herramientas especializadas que el sistema pueda invocar cuando necesite conocimiento concreto.
Ese planteamiento encaja con la evolución reciente de Google DeepMind. La empresa ha mostrado en los últimos meses proyectos de predicción meteorológica como GenCast y WeatherNext 2, un agente de programación científico como AlphaEvolve y un “co-científico” basado en Gemini 2.0 para trabajar con literatura biomédica e hipótesis de investigación. Son iniciativas muy diferentes entre sí, pero todas comparten la misma narrativa: la IA útil ya no se mide solo por conversación o generación de texto, sino por su capacidad para explorar espacios complejos, proponer soluciones nuevas y acelerar el trabajo humano en campos donde el volumen de información es inmanejable.
Aun así, conviene separar la conmemoración del marketing. Que AlphaGo fuera un hito indiscutible no significa que, por sí solo, explicara toda la actual ola de Inteligencia Artificial. Tampoco implica que el camino hacia la IAG esté despejado. Lo que sí demostró fue algo más concreto y probablemente más importante: que ciertos métodos de búsqueda, planificación y aprendizaje podían producir comportamientos inesperadamente creativos y, sobre todo, reutilizables en otros dominios. Esa es la verdadera herencia de la jugada 37. No solo sorprendió a los mejores jugadores del mundo; también convenció a DeepMind de que la misma lógica podía servir para descifrar proteínas, resolver problemas matemáticos o diseñar nuevos algoritmos.
Diez años después, AlphaGo ya no se recuerda solo como la máquina que venció a Lee Sedol. Se recuerda como el momento en que la Inteligencia Artificial dejó de parecer una promesa limitada a juegos, chatbots o demostraciones espectaculares y empezó a presentarse, con más fundamento, como una herramienta científica de propósito mucho más amplio. Google DeepMind quiere que esa sea la lección del aniversario. Y, viendo la trayectoria de AlphaFold, AlphaProof o Gemini, no parece una interpretación exagerada.
Preguntas frecuentes
¿Qué fue la jugada 37 de AlphaGo y por qué sigue siendo tan famosa?
Fue un movimiento realizado por AlphaGo en la segunda partida contra Lee Sedol en 2016. Se hizo célebre porque los expertos lo vieron inicialmente como un error, pero acabó siendo decisivo y se interpretó como una muestra de creatividad estratégica no convencional por parte del sistema.
¿Qué relación hay entre AlphaGo y AlphaFold?
Google DeepMind sostiene que las técnicas de búsqueda, aprendizaje por refuerzo y planificación que ayudaron a AlphaGo a dominar el go sirvieron después como base conceptual para abordar problemas científicos, entre ellos el plegamiento de proteínas resuelto por AlphaFold 2.
¿Cuántas proteínas contiene la base de datos de AlphaFold?
La AlphaFold Protein Structure Database ofrece acceso abierto a más de 200 millones de predicciones de estructuras de proteínas. DeepMind afirma además que ha sido utilizada por más de 3 millones de investigadores.
¿Qué otros proyectos de DeepMind se presentan como herederos de AlphaGo?
En su repaso del décimo aniversario, DeepMind cita especialmente AlphaProof, AlphaGeometry 2, Gemini Deep Think, AlphaEvolve y AI co-scientist como ejemplos de sistemas que reutilizan principios de búsqueda, razonamiento y planificación desarrollados o inspirados por AlphaGo y AlphaZero.
vía: blog.google