AI
Actualités IA

Apprentissage profond stochastique : un cadre probabiliste pour modéliser l'incertitude dans les données temporelles structurées

Source:arXiv
Auteur original:James Rice
Apprentissage profond stochastique : un cadre probabiliste pour modéliser l'incertitude dans les données temporelles structurées

Image générée par Gemini AI

L'article présente l'Inference Différentielle Latente Stochastique (SLDI), un cadre qui allie équations différentielles stochastiques (EDS) et modèles génératifs profonds pour améliorer la quantification de l'incertitude en apprentissage automatique. En intégrant une EDS d'Itô dans l'espace latent d'un autoencodeur variationnel, le SLDI permet la modélisation en temps continu et utilise des réseaux de neurones pour paramétrer les composants des EDS. Cette approche traite les échantillons de données irréguliers tout en préservant la rigueur mathématique. Parmi les innovations clés, on trouve un système couplé avant-arrière pour la dynamique latente et celle des gradients, ainsi qu'une perte adjointée régularisée par chemin pour stabiliser l'entraînement dans les EDS latentes profondes, ouvrant ainsi la voie à des avancées dans l'apprentissage machine probabiliste stochastique.

Avancées dans la Quantification de l'Incertitude avec un Cadre d'Apprentissage Profond Stochastique

Un nouveau cadre connu sous le nom d'Inférence Différentielle Latente Stochastique (SLDI) a été proposé pour améliorer la quantification de l'incertitude dans les applications d'apprentissage automatique impliquant des données temporelles structurées. En intégrant des équations différentielles stochastiques (EDS) avec des modèles génératifs profonds, cette approche offre une nouvelle méthode pour le modélisation de l'incertitude en temps continu.

Le cadre intègre une EDS d'Itô dans l'espace latent d'un autoencodeur variationnel, permettant une modélisation de l'incertitude flexible. Les composants principaux de l'EDS—les termes de dérive et de diffusion—sont paramétrés à l'aide de réseaux de neurones, permettant au modèle SLDI de généraliser les modèles de séries temporelles classiques et de gérer efficacement les échantillonnages irréguliers.

Contributions Théoriques

Un avancement significatif est la co-paramétrisation de l'état adjoint avec un réseau de neurones spécialisé, créant un système couplé avant-arrière qui capture à la fois l'évolution latente et la dynamique des gradients. De plus, l'introduction d'une perte adjoint régularisée par trajectoire améliore la stabilité de l'entraînement dans les EDS latentes profondes, faisant du SLDI un développement remarquable dans l'apprentissage automatique probabiliste stochastique.

Sujets connexes :

Apprentissage Profond StochastiqueIncertitudeÉquations Différentielles StochastiquesInférence Différentielle Latente StochastiqueModélisation Générative

📰 Source originale : https://arxiv.org/abs/2601.05227v1

Tous les droits et crédits appartiennent à l'éditeur original.

Partager cet article