AI
Notícias IA

Aprendizado Profundo Estocástico: Uma Estrutura Probabilística para Modelagem da Incerteza em Dados Temporais Estruturados

Source:arXiv
Autor original:James Rice
Aprendizado Profundo Estocástico: Uma Estrutura Probabilística para Modelagem da Incerteza em Dados Temporais Estruturados

Imagem gerada por Gemini AI

O artigo apresenta a Inferência Diferencial Latente Estocástica (SLDI), uma estrutura que combina equações diferenciais estocásticas (SDEs) e modelos generativos profundos para aprimorar a quantificação da incerteza em aprendizado de máquina. Ao incorporar uma SDE de Itô no espaço latente de um autoencoder variacional, a SLDI permite a modelagem em tempo contínuo e utiliza redes neurais para parametrizar os componentes da SDE. Essa abordagem lida com amostragens de dados irregulares, mantendo um rigor matemático. Inovações chave incluem um sistema acoplado de dinâmica latente e de gradiente, além de uma perda adjunta regularizada por caminho, que estabiliza o treinamento em SDEs latentes profundas, abrindo caminho para avanços no aprendizado de máquina probabilístico estocástico.

Avanços na Quantificação de Incerteza com o Framework de Aprendizado Profundo Estocástico

Um novo framework conhecido como Inferência Diferencial Latente Estocástica (IDLE) foi proposto para aprimorar a quantificação de incerteza em aplicações de aprendizado de máquina envolvendo dados temporais estruturados. Ao integrar equações diferenciais estocásticas (EDEs) com modelos generativos profundos, essa abordagem oferece um novo método para modelagem de incerteza em tempo contínuo.

O framework incorpora uma EDE de Itô dentro do espaço latente de um autoencoder variacional, permitindo uma modelagem de incerteza flexível. Os componentes centrais da EDE—os termos de deriva e difusão—são parametrizados usando redes neurais, permitindo que o modelo IDLE generalize modelos clássicos de séries temporais e lide efetivamente com amostragem irregular.

Contribuições Teóricas

Um avanço significativo é a co-parametrização do estado adjunto com uma rede neural especializada, criando um sistema acoplado de avanço-retrocesso que captura tanto a evolução latente quanto a dinâmica do gradiente. Além disso, a introdução de uma perda adjunta regularizada por caminho melhora a estabilidade do treinamento em EDEs latentes profundas, tornando o IDLE um desenvolvimento notável na aprendizagem de máquina probabilística estocástica.

Tópicos relacionados:

Aprendizado Profundo EstocásticoInferência Diferencial Latente Estocásticaequações diferenciais estocásticasmodelagem de incertezaautoencoder variacional

📰 Fonte original: https://arxiv.org/abs/2601.05227v1

Todos os direitos e créditos pertencem ao editor original.

Compartilhar este artigo