Duas Abordagens de Aprendizado Profundo para Segmentação Automatizada do Ventrículo Esquerdo em Ressonância Magnética Cardíaca Cine

Imagem gerada por Gemini AI
Pesquisadores desenvolveram dois modelos de aprendizado profundo, LNU-Net e IBU-Net, para segmentação do ventrículo esquerdo em imagens de ressonância magnética (RM) cine em corte curto. O LNU-Net aprimora o U-Net com a adição de normalização de camadas, enquanto o IBU-Net combina a normalização por instância e a normalização por lote. Testados em um conjunto de dados de 805 imagens de RM de 45 pacientes, ambos os modelos demonstraram uma melhoria significativa na precisão da segmentação, superando métodos existentes em termos de coeficiente de Dice e distância perpendicular média. Esse avanço pode potencialmente melhorar diagnósticos clínicos e a quantificação na cardiologia.
Novas Arquiteturas de Aprendizado Profundo Melhoram a Segmentação do Ventrículo Esquerdo em Ressonância Magnética
Avanços recentes em aprendizado profundo levaram ao desenvolvimento de duas novas arquiteturas, LNU-Net e IBU-Net, destinadas a melhorar a segmentação do ventrículo esquerdo (VE) a partir de imagens de ressonância magnética cardíaca em cine. Ambos os modelos demonstram melhorias significativas na precisão da segmentação em comparação com métodos tradicionais.
Os pesquisadores projetaram o LNU-Net com base na normalização de camadas e o IBU-Net utilizando a normalização de lotes por instância. Cada modelo inclui um caminho de up-sampling para garantir uma localização precisa, crucial para resultados de segmentação acurados.
Avaliação e Resultados
Os modelos foram avaliados em um conjunto de dados de 805 imagens de ressonância magnética de 45 pacientes. Tanto o LNU-Net quanto o IBU-Net superaram as métricas de desempenho dos métodos de segmentação de última geração existentes, alcançando coeficientes de Dice mais altos e distâncias perpendiculares médias reduzidas, indicando uma precisão aprimorada na delimitação do ventrículo esquerdo.
Tópicos relacionados:
📰 Fonte original: https://arxiv.org/abs/2601.00794v1
Todos os direitos e créditos pertencem ao editor original.