Science

xLSTM-UNet und Vision-LSTM besser als Mamba in der medizinschen Bilderkennung

Im sich ständig weiterentwickelnden Bereich der biomedizinischen Bildsegmentierung werden die Grenzen von Convolutional Neural Networks (CNNs) und Vision Transformers (ViTs) zunehmend deutlich. Ihre Schwierigkeiten, Langstreckenabhängigkeiten zu verwalten, verbunden mit erheblichem Rechenaufwand, erfordern innovative Lösungen. Der aktuelle technische Bericht von Tianrun Chen et al. stellt xLSTM-UNet vor, einen neuen Ansatz, der Vision-LSTM (xLSTM) als Rückgrat nutzt und die Standards in der medizinischen Bildsegmentierung neu definieren könnte. Das musst Du wissen xLSTM-UNet und Vision-LSTM xLSTM-UNet kombiniert Konvolutionsebenen und xLSTM für überlegene medizinische Bildsegmentierung. Vision-LSTM (ViL) zeigt bessere Leistung als Transformatoren und Mamba-Modelle. Effektiv in 2D und 3D-Segmentierung über mehrere biomedizinische Datensätze hinweg. Übertrifft bestehende CNN-, Transformer- und Mamba-basierte Netzwerke. Öffentlich zugänglicher Code, Modelle und Datensätze unterstützen weitere Forschung und Validierung. Integration von lokalen und Langstrecken-Features xLSTM-UNet ist ein tiefes Lernnetzwerk in UNet-Struktur, das die Stärken von Konvolutionsebenen und xLSTM nutzt. Konvolutionsebenen sind hervorragend in der lokalen Merkmalsextraktion, während xLSTM effektiv Langstreckenabhängigkeiten erfasst. Dieser hybride Ansatz gewährleistet eine umfassende Bildanalyse, die für komplexe biomedizinische Anwendungen unerlässlich ist. Experimentelle Validierung und Leistung von xLSTM-UNet und Vision-LSTM Die Wirksamkeit von xLSTM-UNet wurde durch umfangreiche Experimente in verschiedenen biomedizinischen Segmentierungsaufgaben validiert. Dazu gehören die Segmentierung von Organen in MRT-Aufnahmen des Abdomens, Instrumenten in endoskopischen Bildern und Zellen in mikroskopischen Bildern. In allen Szenarien übertraf xLSTM-UNet konsistent führende CNN-basierte, Transformer-basierte und Mamba-basierte Segmentierungsnetzwerke. Potenzial und Zugänglichkeit von xLSTM-UNet und Vision-LSTM Die Ergebnisse dieser Experimente heben das Potenzial von xLSTM-basierten Architekturen zur Förderung der biomedizinischen Bildanalyse hervor. Durch überlegene Leistung in der 2D- und 3D-Segmentierung setzt xLSTM-UNet einen neuen Maßstab für zukünftige Forschung. Darüber hinaus haben die Autoren den Code, die Modelle und die Datensätze öffentlich zugänglich gemacht, um weitere Erkundungen und Entwicklungen in diesem Bereich zu fördern. Fazit xLSTM-UNet und Vision-LSTM xLSTM-UNet, mit seiner Integration von Vision-LSTM und Konvolutionsebenen, stellt einen bedeutenden Fortschritt in der medizinischen Bildsegmentierung dar. Seine Fähigkeit, traditionelle und moderne Segmentierungsnetzwerke über verschiedene Datensätze hinweg zu übertreffen, unterstreicht seine Robustheit und sein Potenzial für weit verbreitete Anwendungen in der biomedizinischen Bildanalyse. #MedizinischeBildgebung #DeepLearning #xLSTMUNet #VisionLSTM #BiomedizinischeSegmentierung ArXiv, Studien-Paper-PDF

Die mobile Version verlassen