AlphaEvolve, el nuevo agente de inteligencia artificial desarrollado por DeepMind, ha logrado lo que generaciones de matemáticos solo soñaban: descubrir nuevas soluciones a problemas abiertos en geometría y multiplicación de matrices, superando récords históricos y abriendo una nueva era en la investigación matemática.
Google DeepMind ha desarrollado un agente de inteligencia artificial llamado AlphaEvolve que no solo ha revolucionado la optimización de infraestructuras tecnológicas, sino que ha dado un salto cualitativo en la resolución de problemas matemáticos y geométricos que han desafiado a la comunidad científica durante décadas. Su arquitectura, basada en modelos de lenguaje Gemini y un proceso evolutivo automatizado, ha permitido abordar retos de análisis matemático, combinatoria, teoría de números y, especialmente, geometría, con una eficacia y creatividad sin precedentes.
El funcionamiento de AlphaEvolve parte de una premisa sencilla pero poderosa: dado un problema matemático con una métrica de evaluación clara (por ejemplo, minimizar el número de operaciones en un algoritmo o maximizar una configuración geométrica), el sistema genera, evalúa y refina millas de posibles soluciones de forma autónoma. Este ciclo evolutivo, que combina la creatividad generativa de los Large Language Model (LLM) con la verificación rigurosa de evaluadores automáticos, ha demostrado ser capaz de superar incluso a herramientas especializadas anteriores como AlphaTensor.
Uno de los hitos más impresionantes de AlphaEvolve ha sido en el campo de la multiplicación de matrices, un problema central tanto en matemáticas puras como en aplicaciones de inteligencia artificial y gráficos computacionales. Durante más de medio siglo, el algoritmo de Strassen (1969) fue considerado el estándar para multiplicar matrices de 4×4 con números complejos, utilizando 49 multiplicaciones escalares. AlphaEvolve, sin embargo, descubrió un método que reduce ese número a 48, rompiendo un récord que había resistido todos los intentos humanos anteriores. Este avance no solo es teórico: la multiplicación de matrices más eficientes tiene un impacto directo en la velocidad de entrenamiento de modelos de IA y en el desarrollo de hardware especializado.
Resolución de problemas abiertos en geometría
La flexibilidad de AlphaEvolve se ha puesto a prueba en más de 50 problemas abiertos de matemáticas, a incluir análisis, combinatoria, teoría de números y, de forma destacada, también en geometría. En aproximadamente el 75% de los casos, el sistema fue capaz de redescubrir las mejores soluciones conocidas, y en un 20% logró superarlas, estableciendo récords o mejorando cotas anteriores.
Uno de los ejemplos más notables es el avance en el «problema del número de besos», un clásico de la geometría que pregunta cuántas esferas no superpuestas pueden tocar simultáneamente a una esfera central en un llamado espacio de n dimensiones, que es una generalización del espacio que conocemos en la vida cotidiana. En 11 dimensiones, el récord anterior era de 592 esferas; AlphaEvolve encontró una configuración con 593, estableciendo un nuevo límite inferior y aportando una solución que amplía el conocimiento matemático en un problema que ha intrigado a los matemáticos durante más de 300 años.
La capacidad de AlphaEvolve para abordar tan diversos problemas se debe a su diseño: puede trabajar sobre cualquier cuestión que tenga una métrica de evaluación automática y una representación algorítmica clara. Esto le permite no solo explorar espacios de soluciones donde la intuición humana puede quedarse corta, sino también sugerir enfoques inéditos que desafían el conocimiento establecido.
Más allá de la multiplicación de matrices y la geometría, AlphaEvolve ha sido probado asimismo en problemas de análisis de Fourier, combinatoria avanzada y teoría de números, mostrando una adaptabilidad que lo convierte en una herramienta científica de gran potencial. DeepMind ya planea abrir el sistema a la comunidad académica a través de un programa de acceso temprano, anticipando que su impacto se extenderá a campos como la ciencia de materiales, la química computacional y la biología matemática.
Bueno también para Google
Otro de los logros más tangibles de AlphaEvolve ha sido su impacto directo en la infraestructura de Google. El sistema descubrió una heurística sorprendentemente simple y eficaz para el sistema Borg, encargado de orquestar los recursos de los centros de datos de Google a nivel mundial.
Esta mejora, que lleva más de un año en producción, recupera de forma continua un 0,7% de los recursos computacionales globales de la compañía, permitiendo que más tareas se realicen con la misma infraestructura y reduciendo el desperdicio de recursos, según sus desarrolladores. Aunque la cifra puede parecer modesta, en el contexto de la escalada colosal de Google, representa un ahorro de millones en costos energéticos y de hardware, así como una reducción significativa en la huella ambiental.
La ventaja de la solución propuesta por AlphaEvolve no se limita a su rendimiento: el código generado es legible para humanos, lo que facilita su interpretación, depuración y despliegue. Esta transparencia resulta fundamental para que los ingenieros puedan entender, adaptar y confiar en las optimizaciones sugeridas por la IA.
Y diseño de chips
El alcance de AlphaEvolve va mucho más allá de la gestión de recursos. El sistema ha propuesto reescrituras en Verilog -el lenguaje estándar en diseño de chips- que eliminan componentes innecesarios en circuitos aritméticos críticos para la multiplicación de matrices, una operación central en la computación de IA.
Estas sugerencias, tras pasar estrictos procesos de verificación, se han integrado en el diseño de futuras unidades de procesamiento tensorial (TPU), acelerando el desarrollo de hardware especializado y fomentando una colaboración más estrecha entre ingenieros humanos y sistemas de IA.
En el ámbito del propio entrenamiento de modelos de IA, AlphaEvolve ha logrado acelerar en un 23% el kernel o código de multiplicación de matrices utilizado en la arquitectura Gemini, lo que se traduce en una reducción del 1% en el tiempo total de entrenamiento. Además, optimizó instrucciones de bajo nivel en GPU, alcanzando mejoras de hasta el 32,5% en la implementación de FlashAttention, un componente clave en modelos Transformer de aprendizaje profundo propio de la IA.
Estas optimizaciones, que normalmente requerían semanas de trabajo de expertos, ahora pueden lograrse en cuestión de días mediante experimentos automatizados, liberando a los ingenieros para tareas de mayor valor añadido.