Stochastisches Deep Learning: Ein probabilistischer Ansatz zur Modellierung von Unsicherheit in strukturierten zeitlichen Daten

Von Gemini AI generiertes Bild
Der Artikel präsentiert Stochastic Latent Differential Inference (SLDI), ein Framework, das stochastische Differentialgleichungen (SDEs) mit tiefen generativen Modellen kombiniert, um die Unsicherheitsquantifizierung im maschinellen Lernen zu verbessern. Durch die Einbettung einer Itô-SDE in den latenten Raum eines variationalen Autoencoders unterstützt SLDI die Modellierung in kontinuierlicher Zeit und nutzt neuronale Netzwerke zur Parametrisierung der SDE-Komponenten. Dieser Ansatz berücksichtigt unregelmäßige Datensamples und wahrt gleichzeitig die mathematische Strenge. Zu den wesentlichen Innovationen zählen ein gekoppeltes Vorwärts-Rückwärts-System für latente und Gradienten-Dynamiken sowie ein pfadweise regulierter adjungierter Verlust, der das Training in tiefen latenten SDEs stabilisiert. Dies ebnet den Weg für Fortschritte im stochastischen probabilistischen maschinellen Lernen.
Fortschritte in der Unsicherheitsquantifizierung mit einem stochastischen Deep Learning-Framework
Ein neuartiges Framework, bekannt als Stochastic Latent Differential Inference (SLDI), wurde vorgeschlagen, um die Unsicherheitsquantifizierung in maschinellen Lernanwendungen mit strukturierten zeitlichen Daten zu verbessern. Durch die Integration stochastischer Differentialgleichungen (SDEs) mit tiefen generativen Modellen bietet dieser Ansatz eine neue Methode für die kontinuierliche Unsicherheitsmodellierung.
Das Framework bettet eine Itô-SDE in den latenten Raum eines variationalen Autoencoders ein, was eine flexible Unsicherheitsmodellierung ermöglicht. Die Kernkomponenten der SDE—die Drift- und Diffusionsterme—werden mithilfe von neuronalen Netzwerken parametriert, wodurch das SLDI-Modell klassische Zeitreihenmodelle verallgemeinern und effektiv mit unregelmäßigen Abtastungen umgehen kann.
Theoretische Beiträge
Ein signifikanter Fortschritt ist die gemeinsame Parametrisierung des adjungierten Zustands mit einem spezialisierten neuronalen Netzwerk, das ein gekoppels Vorwärts-Rückwärts-System schafft, das sowohl die latente Evolution als auch die Gradienten-Dynamik erfasst. Darüber hinaus verbessert die Einführung eines pfadweisen regulierten adjungierten Verlusts die Trainingsstabilität in tiefen latenten SDEs, wodurch SLDI eine bemerkenswerte Entwicklung im Bereich des stochastischen probabilistischen maschinellen Lernens darstellt.
Verwandte Themen:
📰 Originalquelle: https://arxiv.org/abs/2601.05227v1
Alle Rechte und Urheberrechte liegen beim ursprünglichen Herausgeber.