Detallado en un nuevo artículo publicado para NeurIPS 2025, Aprendizaje Anidado plantea cómo las redes neuronales actualizan y organizan la información.
En lugar de tratar la arquitectura de un modelo (su estructura) y su optimizador (su regla de aprendizaje) como entidades separadas, los investigadores de Google proponen verlos como sistemas interconectados que operan en múltiples niveles, de forma similar a las capas de memoria en el cerebro humano.
Este enfoque está diseñado para combatir el olvido catastrófico, un fenómeno por el cual los modelos de IA pierden eficacia en tareas antiguas al entrenarse con datos nuevos.
Al integrar el aprendizaje dentro del aprendizaje, el Aprendizaje Anidado permite actualizaciones en múltiples escalas temporales, lo que posibilita que diferentes partes de una red aprendan y se adapten a su propio ritmo, imitando el equilibrio del cerebro entre la memoria a corto y largo plazo.
Como parte de la investigación, Google presentó Hope, un modelo de automodificación de prueba de concepto que aplica los principios del Aprendizaje Anidado.
Según se informa, Hope logró un rendimiento de vanguardia en razonamiento de contexto largo, aprendizaje continuo y modelado del lenguaje, superando a las arquitecturas Transformer convencionales en pruebas como la de la aguja en un pajar.
El Aprendizaje Anidado también introduce el concepto de sistemas de memoria continua (CMS), donde los módulos de memoria se actualizan a diferentes frecuencias para crear una forma de recuperación más rica y flexible.
El artículo describe esto como un paso hacia el aprendizaje contextual ilimitado, que permite crear modelos capaces de auto optimizarse y gestionar el contexto mucho más allá de los límites tradicionales.
Los investigadores de Google afirman que este marco unificado podría, con el tiempo, ayudar a cerrar la brecha entre los modelos de IA estáticos actuales y las capacidades de aprendizaje continuo y adaptativo del cerebro humano.