Segmentierungsverfahren für FIB-SEM-Bilder von Li+ - Kathoden
Bessere Segmentierung für präzisere Ergebnisse
Leistung, Zuverlässigkeit und Sicherheit von Lithium-Ionen-Batterien spielen in vielen industriellen und verbraucherorientierten Anwendungen eine wichtige Rolle. Für diese Eigenschaften spielt das Design der Mikrostruktur eine Schlüsselrolle. Um diese Skala abzubilden, bieten meist nur FIB-REM-Aufnahmen eine ausreichende Auflösung. In diesen Aufnahmen können Aktivmaterial und Binder leicht unterschieden werden und im Extremfall sogar die lokale Verteilung des Leitrußes identifiziert werden.
FIB-SEM-Geräte haben naturgemäß einen Nachteil: Die schichtweise gewonnenen Aufnahmen zeigen die aktuelle Schicht. Durch die vorhandene Porosität sind aber auch Bereiche sichtbar, die sich eigentlich in einer dahinterliegenden Bildebene befinden. Man kann dies vermeiden, indem die Probe vor der Aufnahme mit einem Harz infiltriert wird. Aber das Infiltrieren ist zeitaufwändig und könnte sogar die Struktur des Materials verändern, weshalb darauf gerne verzichtet wird.
Je genauer die 3D-Bilder der Probe ausfallen, desto präzisere Ergebnisse können geometrische Analysen und numerische Simulationen liefern. Daher muss die Segmentierung in der Lage sein, die Schichten korrekt zu unterscheiden und einen Bereich eines Schnitts genau dem aktuellen Vordergrund oder dem Hintergrund zuzuordnen.
Eine weitere Problematik bei der Segmentierung von FIB-REM Bildern ergibt sich durch sogenannte Curtain-Artefakte, die durch das Schneiden der unterschiedlich festen Materialien mit dem Ionenstrahl entstehen.
Klassische Segmentierungsmethoden (z. B. globale Schwellenwert- oder Watershed-Methoden) haben Schwierigkeiten, diese Art von Bildern richtig zu segmentieren. Deshalb greifen wir hierfür auf moderne, auf maschinellem Lernen basierende Segmentierungsmethoden zu. In diesem Artikel wollen wir die verschiedenen verwendeten Methoden von maschinellen Lernen miteinander vergleichen.
Was bedeutet das für unsere Anwender?
Moderne Segmentierungsmethoden bringen viele Vorteile für die Analyse von FIB-REM-Bildern. In diesem Vergleich von Segmentierungsmethoden haben wir nur Bildverarbeitungsmethoden eingesetzt, die von Anwendern ohne Expertenwissen durchgeführt werden können. Um die Trainingsdaten zu erzeugen, werden manuell auf einigen der 2D-Bildern die Materialien gekennzeichnet, das neuronale Netz trainiert und schließlich automatisch auf den gesamten Bildstapel angewendet.
Autoren und Anwendungsspezialisten
Andreas Grießer, M.Sc.
Senior Business Manager
for Image Processing and Image Analysis
Dr. Christian Wagner
Team Leader IT &
Senior Visualization
Specialist
Robin White, PhD
Senior Technical Product Manager
Carl Zeiss Microscopy, LLC,
Business Sector Materials Science,
Dublin, CA, United States
Methode 1: Segmentierung von FIB-SEM Bildern mit Boosted Tree
Die erste Methode, die wir anwenden, ist die Boosted Tree-basierte Segmentierung.
Diese Methode ist der ursprünglichen trainierbaren Weka-Segmentierung sehr ähnlich [1]. Für jedes beschriftete Pixel wird eine Auswahl von Eigenschaften berechnet und in einen Klassifikator, in diesem Fall einen Boosted Tree [2], eingegeben. Sobald der Klassifikator trainiert ist, kann er auf alle Voxel des Scans angewendet werden, um die vollständige Segmentierung zu erhalten.
Das Training der Boosted Tree-basierten Methode ist schnell, aber der gesamte Prozess wird von der Zeit dominiert, die für die Berechnung der Eigenschaftsbilder benötigt wird. Es werden weniger manuell erzeugte Trainingsdaten benötigt und es ist kein Grafikprozessor erforderlich.
In diesem Fall schneidet die Segmentierung bei der Abgrenzung des Kornvordergrunds vom Porenraum und dem Binder gut ab. Die Segmentierung des Binders ist noch nicht optimal. In einigen Bereichen werden die Körner im Hintergrund als Binder und ein Teil des Binders als Pore gekennzeichnet.
Methode 2: Segmentierung von FIB-SEM Bildern mit einem 2D-U-Net
Die zweite von uns getestete Methode ist eine auf Deep Learning basierende Segmentierung unter Verwendung eines 2D-U-Nets [3].
U-Net wird häufig für die Segmentierung von Bildern eingesetzt. Der kritischste Teil bei einer Segmentierung mit einem Deep Neural Network ist die Erstellung der Trainingsdaten. Wir haben uns dafür entschieden, auch dieses Netz, wie zuvor das Boosted Tree Modell, mit einfachen Markierungen zu trainieren. Mit dieser Methode kann der Benutzer frei wählen, wo er die Bereiche im 3D-Bild markieren möchte, ohne dass ganze Schichten markiert werden müssen.
Das Training des 2D U-Nets benötigt deutlich mehr Zeit als das Training des Boosted Tree Klassifikators und erfordert einen Grafikprozessor für das Training.
Die 2D-U-Net-Ergebnisse für die Körner sind wieder sehr gut. An einigen Stellen sind sie sogar besser als die Ergebnisse des Boosted Tree. Insbesondere an Stellen, an denen starke Beschneidungsartefakte vorhanden sind, schneidet das U-Net besser ab. Für die Binderphase sehen die Ergebnisse im Vergleich zum Boosted Tree ebenfalls besser aus, aber es gibt immer noch einige Artefakte in der Segmentierung. An einigen Stellen treten Diskontinuitäten zwischen den einzeln beschrifteten Z-Slices auf.
Methode 3: Segmentierung von FIB-SEM Bildern mit einem 3D-U-Net
Die letzte Methode, die wir untersuchen, ähnelt der zweiten - eine auf Deep Learning basierende Segmentierung - aber dieses Mal wird ein 3D-U-Net [4] anstelle eines 2D-Nets verwendet. Die Anforderungen an die Trainingsdaten und die verwendete Trainingsmethode sind identisch mit denen des 2D-U-Nets. Aufgrund der höheren Komplexität des neuronalen Netzes in 3D sind möglicherweise etwas mehr Trainingsdaten erforderlich, um gute Ergebnisse zu erzielen.
Wir haben größtenteils die gleichen Trainingsdaten wie in der 2D-U-Net-Methode verwendet und nur in einigen Bereichen Beschriftungen in aufeinanderfolgenden Schichten hinzugefügt (~5% mehr Beschriftungen), um vom 3D-Kontext zu profitieren. Die Trainingszeiten sind unter diesen Bedingungen ähnlich wie im zweiten Fall.
Die Ergebnisse für die Körner sind ebenfalls sehr ähnlich und es kann für diese Materialphase kein Vorteil festgestellt werden. In der Binderphase hingegen schneidet das 3D-U-Net besser ab. Es gibt hier keine Diskontinuitäten zwischen den Schichten, weil der 3D-Kontext berücksichtigt wird.
Video-Tutorials auf YouTube
Importieren und Verarbeiten von CT-Scans (Teil 1)
Bitte beachten Sie, dass nach der Aktivierung des Videos Daten an YouTube übermittelt werden.
Weitere Informationen
Importieren und Verarbeiten von CT-Scans (Teil 2)
Bitte beachten Sie, dass nach der Aktivierung des Videos Daten an YouTube übermittelt werden.
Weitere Informationen
Importieren und Verarbeiten von CT-Scans (Teil 3)
Bitte beachten Sie, dass nach der Aktivierung des Videos Daten an YouTube übermittelt werden.
Weitere Informationen
Tutorials zum Herunterladen
Quellen
[1] I. Arganda-Carreras, V. Kaynig, C. Rueden, K. W Eliceiri, J. Schindelin, A. Cardona, H Sebastian Seung: “Trainable Weka Segmentation: a machine learning tool for microscopy pixel classification”, Bioinformatics, Vol. 33, Issue 15: 2424–2426, 2017 https://doi.org/10.1093/bioinformatics/btx180.
[2] T. Chen and C. Guestrin: XGBoost: A Scalable Tree Boosting System. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD '16). Association for Computing Machinery, New York, NY, USA, 785–794, 2016 https://doi.org/10.1145/2939672.2939785 .
[3] O. Ronneberger, P. Fischer, T. Brox: “U-Net: Convolutional Networks for Biomedical Image Segmentation” Medical Image Computing and Computer-Assisted Intervention (MICCAI), Springer, LNCS, Vol. 9351: 234--241, 2015, http://dx.doi.org/10.1007/978-3-319-24574-4_28 .
[4] Ö. Çiçek, A. Abdulkadir, S. S. Lienkamp, T. Brox, O. Ronneberger: “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation” Medical Image Computing and Computer-Assisted Intervention (MICCAI), Springer, LNCS, Vol. 9901: 424-432, 2016, http://dx.doi.org/10.1007/978-3-319-46723-8_49 .
Danksagung
Wir danken unseren Partnern bei ZEISS für das zur Verfügungstellen des FIB-REM Scans der Kathode.