La lecture à portée de main
Découvre YouScribe en t'inscrivant gratuitement
Je m'inscrisDécouvre YouScribe en t'inscrivant gratuitement
Je m'inscrisDescription
Sujets
Informations
Publié par | julius-maximilians-universitat_wurzburg |
Publié le | 01 janvier 2010 |
Nombre de lectures | 37 |
Langue | English |
Poids de l'ouvrage | 28 Mo |
Extrait
Computational tools for the
segmentation and registration of
confocal brain images of
Drosophila melanogaster
Dissertation zur Erlangung des
naturwissenschaftlichen Doktorgrades
der Bayerischen Julius-Maximilians-Universit at Wurzburg
vorgelegt von
Benjamin Schmid
Wurzburg 2010Eingereicht am: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mitglieder der Promotionskommission:
Vorsitzender: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gutachter: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gutachter: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tag des Promotionskolloquiums: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Doktorurkunde ausgeh andigt am: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Computational tools for the segmentation and
registration of confocal brain images of
Drosophila melanogaster
Benjamin Schmid
bene.schmid@gmail.com
Lehrstuhl fur Genetik und Neurobiologie, Biozentrum,
Universit at Wurzburg,
Am Hubland, 97074 W GermanyAbstract
Neuroanatomical data in y brain research are mostly available as spatial gene
expression patterns of genetically distinct y strains. The Drosophila standard
brain, which was developed in the past to provide a reference coordinate system,
can be used to integrate these data. Working with the standard brain requires
advanced image processing methods, including visualisation, segmentation and
registration. The previously published VIB Protocol addressed the problem of
image registration. Unfortunately, its usage was severely limited by the necessity
of manually labelling a prede ned set of neuropils in the brain images at hand.
In this work I present novel tools to facilitate the work with the Drosophila
standard brain. These tools are integrated in a well-known open-source image
processing framework which can potentially serve as a common platform for im-
age analysis in the neuroanatomical research community: ImageJ. In particular,
a hardware-accelerated 3D visualisation framework was developed for ImageJ
which extends its limited 3D capabilities. It is used for the devel-
opment of a novel semi-automatic segmentation method, which implements au-
tomatic surface growing based on user-provided seed points. Template surfaces,
incorporated with a modi ed variant of an active surface model, complement
the segmentation. An automatic non-rigid warping algorithm is applied, based
on point correspondences established through the extracted surfaces. Finally,
I show how the individual steps can be fully automated, and demonstrate its
application for the successful registration of y brain images.
The new tools are freely available as ImageJ plugins. I compare the results
obtained by the introduced methods with the output of the VIB Protocol and
conclude that our methods reduce the required e ort ve to ten fold. Further-
more, reproducibility and accuracy are enhanced using the proposed tools.Zusammenfassung
Expressionsmuster genetisch manipulierter Fliegenstamme machen den Gro -
teil neuroanatomischer Daten aus, wie sie in der Gehirnforschung der Tau iege
Drosophila melanogaster entstehen. Das Drosophila Standardgehirn wurde u.a.
entwickelt, um die Integration dieser Daten in ein einheitliches Referenz-Koor-
dinatensystem zu ermoglic hen. Die Arbeit mit dem erfordert
hochentwickelte Bildverarbeitungsmethoden, u.a. zur 3D Visualisierung, Seg-
mentierung und Registrierung. Das bereits publizierte \VIB Protocol" stellte
bisher eine Moglichkeit fur die Registrierung zur Verfugung, die aber duch die
Notwendigkeit manueller Segmentierung bestimmter Neuropile nur eingeschrnkt
verwendbar war.
In der vorliegenden Arbeit stelle ich neue Werkzeuge vor, die den Umgang
mit dem Standardgehirn erleichtern. Sie sind in ein bekanntes, o enes Bildver-
arbeitungsprogramm integriert, das potentiell als Standardsoftware in der neu-
roanatomischen Forschung dienen kann: ImageJ. Im Zuge dieser Arbeit wurde
eine hardwarebeschleunigte 3D Visualisierungs-Bibliothek entwickelt, die die Vi-
sualisierungsmoglic hkeiten von ImageJ erganzt. Auf Basis dieser Entwicklung
wurde anschlie end ein neuer halbautomatischer Segmentierungs-Algorithmus
erstellt. In diesem Algorithmus werden Neuropil-Ober achen, ausgehend von
ausgewahlten Ausgangspunkten, aufgebaut und erweitert. Vorlagen von Neuropil-
Ober achen aus der Segmentierung eines Referenz-Datensatzes, die anhand
eines modi zierten \Active Surface" Modells einbezogen werden k onnen, ergan-
zen die aktuelle Segmentierung. Die so erhaltenen Ober achen ermoglichen es,
korrespondierende Landmarken in den Bildern zu ermitteln, die fur eine nicht-
rigide Registrierung verwendet werden. Schlie lich wird dargelegt, wie die einzel-
nen Schritte voll automatisiert werden konnen, um die Bilder der Fliegengehirne
aufeinander abzubilden.
Die vorgestellten Methoden sind frei als Erweiterungen fur ImageJ verfugbar
(Plugins). Ein direkter Vergleich mit dem VIB Protokoll zeigt, dass durch die
vorgestellten Methoden nicht nur der Benutzeraufwand auf ein Sechstel re-
duziert, sondern dass gleichzeitig auch die Genauigkeit und Reproduzierbarkeit
erhoht wird.Contents
1 Introduction 1
1.1 Background about image acquisition . . . . . . . . . . . . . . . . 1
1.2 Research context and goals . . . . . . . . . . . . . . . . . . . . . 4
1.3 Outline of this thesis . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 The Virtual Insect Brain Protocol. . . . . . . . . . . . . . 5
1.3.2 3D visualisation . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Semi-automatic segmentation . . . . . . . . . . . . . . . . 6
1.3.4 Surface-based registration . . . . . . . . . . . . . . . . . . 7
1.3.5 Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.6 Towards full automation . . . . . . . . . . . . . . . . . . . 8
1.4 Dedications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 The VIB Protocol for ImageJ 11
2.1 The VIB Protocol revisited . . . . . . . . . . . . . . . . . . . . . 11
2.2 Implementation as a plugin for ImageJ . . . . . . . . . . . . . . . 15
2.3 Usage of the ImageJ-based VIB Protocol . . . . . . . . . . . . . . 16
3 3D Visualisation 21
3.1 Previous work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 A short primer about Java 3D . . . . . . . . . . . . . . . . . . . . 23
3.3 Overall program structure . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Displaying stacks of 2D images in 3D . . . . . . . . . . . . . . . . 27
3.4.1 Displaying image stacks as volume renderings . . . . . . . 27
3.4.2ying stacks as isosurfaces . . . . . . . . . . . 30
3.4.3 Displaying image stacks as orthoslices . . . . . . . . . . . 32
3.5 Displaying custom geometries . . . . . . . . . . . . . . . . . . . . 32
3.6 Other features . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.7 Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.8 Application in third-party software . . . . . . . . . . . . . . . . . 37
4 Semi-automatic segmentation 39
4.1 Automatic surface extension . . . . . . . . . . . . . . . . . . . . . 40
4.1.1 Procedure overview . . . . . . . . . . . . . . . . . . . . . . 40
4.1.2 Implementation . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Generating template surfaces . . . . . . . . . . . . . . . . . . . . 46
4.3 Incorporating . . . . . . . . . . . . . . . . . . . 47
4.3.1 Active contours in the literature . . . . . . . . . . . . . . 47
4.3.2 Work ow . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
i4.3.3 A modi ed version of an active surface model . . . . . . . 52
4.3.4 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5 Registration based on surface points 59
5.1 Background . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Previous work about automatic feature detection . . . . . . . . . 60
5.3 Surface-based landmark points . . . . . . . . . . . . . . . . . . . 62
5.4 Warping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.5 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6 Evaluation 69
6.1 Evaluation setup . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2 Required time for running and user interaction . . . . . . . . . . 70
6.3 Quality of the alignment . . . . . . . . . . . . . . . . . . . . . . . 70
6.4 Reproducibility . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7 Towards fully-automated registration 75
7.1 Automatic Surface Growing . . . . . . . . . . . . . . . . . . . . . 76
7.2 incorporation of template surfaces . . . . . . . . . . . 78
7.3 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
8 Discussion 83
A Manual for semi-automatic registration 93
A.1 Starting the software . . . . . . . . . . . . . . . . . . . . . . . . . 93
A.2 Segmenting a structure . . . . . . . . . . . . . .