Instance segmentation of microscopy images : : development of deep learning image analysis tools

Abstract: In dieser Arbeit beschäftigen wir uns mit der Entwicklung genereller Deep-Learning Verfahren zur Detektion, Segmentierung und Verfolgung mikroskopischer Objekte. Dabei legen wir den Fokus auf den Sonderfall: akkurate Segmentierung von sich stark überlappenden transluzenten Objekten. In diesem Kontext präsentieren wir zwei Lösungsansätze.

Bei dem ersten Verfahren transformieren wir 2D Segmentierungsmasken in einen Raum höherer Dimension. Als Ergebnis haben diese einen größeren Abstand zueinander und werden somit räumlich trennbar. Die resultierende hochdimensionale Maskenrepräsentation kann direkt zum Training verwendet werden. Während der Inferenzphase machen wir die Transformation in einem Nachbearbeitungsschritt rückgängig und gewinnen somit die finalen 2D Objektmasken zurück.

Bei dem zweiten Lösungsansatz geht es um ein Zwei-Phasen Verfahren. Dabei enkodiert im ersten Schritt ein Netzwerk Objekte zu Deep-Features, welche dann im zweiten Schritt durch ein anderes Netzwerk zu den finalen Objektmasken dekodiert werden. Mit diesem Ansatz erreichen wir eine beachtliche Leistung auf allen von uns getesteten Datensätzen und Aufgaben, ohne dabei schwerwiegende Vor- und Nachbearbeitungschritte zu nutzen.

Wir schlagen auch einige Verbesserungen der beiden Ansätze vor und erweitern den zweiten Ansatz um die zeitliche Komponente: Das erlaubt uns, neben sich bewegenden und überlappenden Objekten auch sich teilende Objekte erfolgreich zu verfolgen und zu segmentieren
Abstract: In this work, we develop general deep-learning tools for detection, segmentation and tracking of microscopical objects. In doing so, we put focus on the special case: accurate segmentation of densely overlapping translucent objects. In this context, we present two approaches.

In the first one, we transform 2D segmentation masks to a high-dimensional space. As result, the masks have a larger distance to each other and become spatially separable. The resulting high-dimensional masks' representation can be directly used for training. During inference, we undo the transformation in a post-processing step which yields the final 2D instance masks.

The second one is an encoder-decoder approach: a network encodes objects to deep-features which are then decoded by a different network to the final objects' masks. With this approach, we achieve a strong performance on all tested datasets and tasks without using heavy pre- and post-processing steps.

We also propose several modifications to both approaches and extend the second one by the temporal dimension: It allows us to successfully track and segment beside moving and overlapping also dividing objects

Standort
Deutsche Nationalbibliothek Frankfurt am Main
Umfang
Online-Ressource
Sprache
Englisch
Anmerkungen
Universität Freiburg, Dissertation, 2021

Schlagwort
Learning
Microscopy
Tools
Image analysis
Maschinelles Sehen
Maschinelles Lernen
Deep learning

Ereignis
Veröffentlichung
(wo)
Freiburg
(wer)
Universität
(wann)
2021
Urheber
Beteiligte Personen und Organisationen

DOI
10.6094/UNIFR/221808
URN
urn:nbn:de:bsz:25-freidok-2218086
Rechteinformation
Kein Open Access; Der Zugriff auf das Objekt ist unbeschränkt möglich.
Letzte Aktualisierung
25.03.2025, 13:49 MEZ

Datenpartner

Dieses Objekt wird bereitgestellt von:
Deutsche Nationalbibliothek. Bei Fragen zum Objekt wenden Sie sich bitte an den Datenpartner.

Entstanden

  • 2021

Ähnliche Objekte (12)