AI
Новости ИИ

Стохастическое глубокое обучение: вероятностная модель для анализа неопределенности в структурированных временных данных

Source:arXiv
Оригинальный автор:James Rice
Стохастическое глубокое обучение: вероятностная модель для анализа неопределенности в структурированных временных данных

Изображение создано Gemini AI

Статья представляет собой обзор стохастического латентного дифференциального вывода (SLDI) — рамочной модели, которая объединяет стохастические дифференциальные уравнения (СДУ) и глубокие генеративные модели для улучшения оценки неопределенности в машинном обучении. Встраивая СДУ Ито в латентное пространство вариационного автокодировщика, SLDI поддерживает моделирование в непрерывном времени и использует нейронные сети для параметризации компонентов СДУ. Этот подход решает проблему нерегулярного выборочного сбора данных, сохраняя при этом математическую строгость. Ключевыми инновациями являются связанная система прямых и обратных процессов для латентной динамики и градиентов, а также регуляризованная по траекториям функция потерь для стабилизации обучения в глубоких латентных СДУ, что открывает новые горизонты в стохастическом вероятностном машинном обучении.

Достижения в количественной оценке неопределенности с помощью стохастической глубокой обучающей структуры

Предложена новая структура, известная как стохастическое латентное дифференциальное выведение (SLDI), для улучшения количественной оценки неопределенности в приложениях машинного обучения, связанных со структурированными временными данными. Интегрируя стохастические дифференциальные уравнения (СДУ) с глубокими генеративными моделями, этот подход предлагает новый метод моделирования неопределенности в непрерывном времени.

Структура включает в себя СДУ Ито в латентном пространстве вариационного автокодировщика, что позволяет гибко моделировать неопределенность. Основные компоненты СДУ — члены дрейфа и диффузии — параметризованы с использованием нейронных сетей, что позволяет модели SLDI обобщать классические модели временных рядов и эффективно справляться с нерегулярной выборкой.

Теоретические вклады

Значительным достижением является совместная параметризация сопряженного состояния с помощью специализированной нейронной сети, создающей взаимосвязанную прямую-обратную систему, которая захватывает как латентную эволюцию, так и динамику градиентов. Кроме того, введение регуляризованной по траекториям сопряженной потерь повышает стабильность обучения в глубоких латентных СДУ, что делает SLDI значительным развитием в стохастическом вероятностном машинном обучении.

Связанные темы:

глубокое обучениестохастические дифференциальные уравненияструктурированные временные данныестохастическая латентная дифференциальная инференциявариационная инференция

📰 Первоисточник: https://arxiv.org/abs/2601.05227v1

Все права и авторство принадлежат первоначальному издателю.

Поделиться статьей