Una investigación publicada en Neural Computation demuestra que combinar este monólogo interno con una memoria a corto plazo especialmente diseñada mejora notablemente el rendimiento de los modelos.
Este enfoque se basa en una memoria de trabajo que retiene temporalmente datos, de manera similar a nuestro cerebro cuando sigue instrucciones o realiza cálculos rápidos. Las pruebas compararon diferentes estructuras de memoria, revelando diferencias notables. Los modelos equipados con múltiples espacios de memoria temporal superaron mejor ciertas pruebas, como invertir secuencias o reproducir patrones. Eran capaces de mantener varios elementos "en mente" y manipularlos.
La introducción de objetivos de 'murmullo' interno, donde se invita al sistema a hablarse a sà mismo un número definido de veces, aumentó aún más su eficacia. Los avances más claros se registraron en la multitarea y los problemas de múltiples pasos. Además, esta combinación funciona incluso con conjuntos de datos limitados, a diferencia de los grandes volúmenes normalmente requeridos para el entrenamiento. Por lo tanto, ofrece una alternativa ligera y complementaria.