Science

Meta SAM 2: Noch eine Revolution in der Bild- und Videosegmentierung

Meta hat mit SAM 2 die nächste Generation seines Segment Anything Models (SAM) für Bilder und Videos vorgestellt. Diese neue Version verspricht bahnbrechende Fortschritte in der Echtzeit-Objektsegmentierung und ermöglicht eine Vielzahl an Anwendungen, von der Bildbearbeitung bis hin zur medizinischen Forschung. Was genau steckt hinter diesem innovativen Modell und welche Möglichkeiten eröffnet es? Mit der Veröffentlichung von SAM 2 und dem SA-V Datensatz legt Meta den Grundstein für zukünftige Fortschritte in der AI-gestützten Bild- und Videosegmentierung. Die offene Bereitstellung dieser Ressourcen wird die Forschungsgemeinschaft inspirieren und die Entwicklung neuer Anwendungen und Technologien beschleunigen. Das musst Du wissen – Meta SAM 2 SAM 2 Code und Gewichte: Open Source unter Apache 2.0 Lizenz veröffentlicht. SA-V Datensatz: Enthält ~51.000 Videos und über 600.000 Masklets. Echtzeit-Objektsegmentierung: Unterstützt Bilder und Videos ohne individuelle Anpassungen. Vielfältige Anwendungen: Von kreativen Videoeffekten bis hin zur medizinischen Bildanalyse. Webbasierte Demo: Interaktive Segmentierung und Effekte in Echtzeit ausprobieren. Echtzeit-Performance: SAM 2 segmentiert Objekte in Echtzeit mit etwa 44 Frames pro Sekunde. Interaktive Segmentierung: Unterstützt eine interaktive Eingabe, die es ermöglicht, Masken in Videos zu verfeinern und zu korrigieren. SAM 2, das neue Segmentierungsmodell von Meta, bietet eine bahnbrechende Leistung sowohl in der Bild- als auch in der Videosegmentierung. Durch die Veröffentlichung unter der Apache 2.0 Lizenz kann jeder Entwickler auf diesen Code zugreifen und eigene Projekte darauf aufbauen. Begleitet wird das Modell von einem umfangreichen Datensatz, der SA-V, der rund 51.000 Videos und über 600.000 Masklets umfasst. SAM 2 übertrifft die bisherigen Modelle deutlich in der Genauigkeit und Geschwindigkeit der Segmentierung. Es ist in der Lage, Objekte in Bildern und Videos ohne vorherige Anpassung oder Training zu erkennen, was als Zero-Shot-Generalisation bekannt ist. Dies eröffnet eine Vielzahl von Anwendungsmöglichkeiten in unterschiedlichsten Bereichen. Bereits das ursprüngliche SAM-Modell revolutionierte die Bildsegmentierung und fand Anwendung in Metas Apps wie Instagram. SAM 2 geht noch einen Schritt weiter und ermöglicht die Segmentierung von Objekten in Videos, was in der Vergangenheit eine erhebliche technische Herausforderung darstellte. Durch die Fähigkeit, sich an vorherige Frames zu erinnern und Objekte in Echtzeit zu verfolgen, bietet SAM 2 eine robuste Lösung für die Videosegmentierung. In der Praxis könnte SAM 2 beispielsweise zur Erstellung neuer Videoeffekte genutzt werden, indem es Objekte in Videos verfolgt und segmentiert. Auch in der medizinischen Forschung bietet das Modell enorme Vorteile, etwa bei der Analyse von Zellbewegungen in Mikroskopvideos oder bei der Lokalisierung von Bereichen in Laparoskopie-Aufnahmen. Weitere Anwendungen finden sich in der Automobilindustrie, wo SAM 2 zur Verbesserung der Datenannotation für autonome Fahrzeuge beitragen kann. Wie Meta SAM 2 entwickelt wurde Die Entwicklung von SAM 2 basierte auf der Erkenntnis, dass Bilder im Grunde genommen sehr kurze Videos mit nur einem Frame sind. Mit diesem Ansatz wurde ein einheitliches Modell geschaffen, das sowohl Bild- als auch Videodaten nahtlos verarbeiten kann. Die Hauptunterschiede liegen in der Fähigkeit des Modells, sich Informationen aus vorherigen Frames zu merken und diese zur genauen Segmentierung der aktuellen Frames zu nutzen. Um SAM 2 zu trainieren, wurde ein interaktiver Ansatz mit menschlichen Annotatoren und einem Modell-in-the-Loop-System verwendet. Dies ermöglichte eine kontinuierliche Verbesserung des Modells durch wiederholte Interaktion zwischen Mensch und Maschine. Jede neue Annotation durch menschliche Annotatoren wurde genutzt, um das Modell zu aktualisieren und zu verfeinern, wodurch der Datensatz sowohl in Quantität als auch Qualität erheblich wuchs. Die Architektur von Meta SAM 2 Die Architektur von SAM 2 erweitert das ursprüngliche SAM-Modell auf den Videobereich. Es kann durch Klicks, Boxen oder Masken angeregt werden, die Ausdehnung eines Objekts in einem gegebenen Frame zu definieren. Ein leichtgewichtiger Masken-Decoder erzeugt dann die Segmentierungsmaske für diesen Frame. Für die Videosegmentierung propagiert SAM 2 diese Maskenvorhersage auf alle Video-Frames und erzeugt so Masklets. Diese können iterativ durch zusätzliche Eingaben in nachfolgenden Frames verfeinert werden. Ein bedeutender Teil der Architektur ist das Speichersystem, das Informationen über das Objekt und vorherige Benutzerinteraktionen speichert. Dieses System stellt sicher, dass das Modell frühere Frame-Informationen effizient nutzt, um genaue Vorhersagen für aktuelle und zukünftige Frames zu treffen. Die Verwendung eines Gedächtnismoduls ermöglicht es SAM 2, komplexe Szenarien wie Verdeckungen und Bewegungen der Objekte zu bewältigen. SA-V: Der größte Videosegmentierungs-Datensatz Der SA-V Datensatz stellt einen Meilenstein in der Videosegmentierung dar. Er umfasst über 600.000 Masklet-Anmerkungen auf rund 51.000 Videos und wurde mit einem interaktiven Modell-in-the-Loop-System erstellt. Annotatoren nutzten SAM 2, um Masklets in Videos zu annotieren, und diese neuen Daten wurden wiederum genutzt, um SAM 2 zu verbessern. Diese Daten umfassen geografisch diverse, realweltliche Szenarien und decken sowohl ganze Objekte als auch Teile von Objekten ab. Dies stellt sicher, dass das Modell eine breite Palette von Objekten und Situationen bewältigen kann, einschließlich komplexer Szenarien wie Objektverdeckung und Wiederauftreten. Ergebnisse und Einschränkungen SAM 2 übertrifft bestehende Modelle in der interaktiven Videosegmentierung und benötigt etwa dreimal weniger menschliche Interaktionen. Es zeigt herausragende Leistungen in verschiedenen Benchmark-Tests und kann in Echtzeit mit etwa 44 Frames pro Sekunde arbeiten. Trotz dieser beeindruckenden Ergebnisse gibt es noch Raum für Verbesserungen, insbesondere in schwierigen Szenarien wie drastischen Kamerawechseln oder langen Verdeckungen. Fazit: Meta SAM 2 – Die Zukunft der Segmentierung SAM 2 stellt einen bedeutenden Fortschritt in der Bild- und Videosegmentierung dar. Durch die Open-Source-Veröffentlichung und den umfangreichen SA-V Datensatz wird die Forschung und Entwicklung in diesem Bereich erheblich beschleunigt. Die vielfältigen Anwendungsmöglichkeiten, von kreativen Videoeffekten bis hin zur medizinischen Forschung, zeigen das immense Potenzial dieses Modells. Die Herausforderungen, denen sich SAM 2 gegenübersieht, wie die Verfolgung von Objekten in komplexen Szenarien oder die Segmentierung feiner Details, bieten Raum für zukünftige Entwicklungen und Verbesserungen. Die AI-Community ist eingeladen, dieses Modell zu nutzen und weiterzuentwickeln, um neue, innovative Anwendungen zu schaffen, die das Potenzial von SAM 2 voll ausschöpfen. Durch die Kombination von Bild- und Videosegmentierung in einem einzigen Modell bietet SAM 2 eine flexible und leistungsstarke Lösung für eine Vielzahl von Anwendungen. Die Echtzeitverarbeitung und die Fähigkeit, mit minimalen Eingaben genaue Vorhersagen zu treffen, machen SAM 2 zu einem wertvollen Werkzeug für Entwickler und Forscher gleichermaßen. #AI #KünstlicheIntelligenz #SAM2 #Segmentierung #ComputerVision #OpenSource #VideoEffekte #MedizinischeForschung #Datenannotation Meta Segment Anything Model 2 Download the Model Get the Dataset Read the Paper – Studien-Paper-PDF Try the Demo Visit Website

Die mobile Version verlassen