Aprendizaje Profundo Estocástico: Un Marco Probabilístico para Modelar la Incertidumbre en Datos Temporales Estructurados

Imagen generada por Gemini AI
El artículo presenta la Inferencia Diferencial Latente Estocástica (SLDI), un marco que combina ecuaciones diferenciales estocásticas (SDEs) y modelos generativos profundos para mejorar la cuantificación de la incertidumbre en el aprendizaje automático. Al integrar una SDE de Itô en el espacio latente de un autoencoder variacional, SLDI facilita el modelado en tiempo continuo y utiliza redes neuronales para parametrizar los componentes de las SDEs. Este enfoque aborda el muestreo irregular de datos, manteniendo al mismo tiempo el rigor matemático. Las innovaciones clave incluyen un sistema acoplado de dinámicas latentes y de gradiente hacia adelante y hacia atrás, así como una pérdida adjunta regularizada por trayectoria para estabilizar el entrenamiento en SDEs latentes profundas, allanando el camino para avances en el aprendizaje automático probabilístico estocástico.
Avances en la Cuantificación de la Incertidumbre con un Marco de Aprendizaje Profundo Estocástico
Se ha propuesto un nuevo marco conocido como Inferencia Diferencial Latente Estocástica (SLDI) para mejorar la cuantificación de la incertidumbre en aplicaciones de aprendizaje automático que involucran datos temporales estructurados. Al integrar ecuaciones diferenciales estocásticas (SDEs) con modelos generativos profundos, este enfoque ofrece un nuevo método para el modelado de incertidumbre en tiempo continuo.
El marco incorpora una SDE de Itô dentro del espacio latente de un autoencodificador variacional, lo que permite un modelado de incertidumbre flexible. Los componentes centrales de la SDE—los términos de deriva y difusión—se parametrizan utilizando redes neuronales, lo que permite que el modelo SLDI generalice modelos clásicos de series temporales y maneje de manera efectiva muestreos irregulares.
Contribuciones Teóricas
Un avance significativo es la co-parametrización del estado adjunto con una red neuronal especializada, creando un sistema acoplado hacia adelante y hacia atrás que captura tanto la evolución latente como la dinámica del gradiente. Además, la introducción de una pérdida adjunta regularizada por trayectorias mejora la estabilidad del entrenamiento en SDEs latentes profundas, convirtiendo al SLDI en un desarrollo notable en el aprendizaje automático estocástico probabilístico.
Temas relacionados:
📰 Fuente original: https://arxiv.org/abs/2601.05227v1
Todos los derechos y créditos pertenecen al editor original.