La lecture à portée de main
Découvre YouScribe en t'inscrivant gratuitement
Je m'inscrisDécouvre YouScribe en t'inscrivant gratuitement
Je m'inscrisDescription
Sujets
Informations
Publié par | ruprecht-karls-universitat_heidelberg |
Publié le | 01 janvier 2009 |
Nombre de lectures | 16 |
Langue | English |
Poids de l'ouvrage | 8 Mo |
Extrait
Inaugural-Dissertation
zur
Erlangung der Doktorwürde
der
Naturwissenschaftlich-Mathematischen Gesamtfakultät
der
Ruprecht-Karls-Universität
Heidelberg
vorgelegt von Diplom-Physiker
Jan de Cuveland
aus Hamburg
Tag der mündlichen
Prüfung 17. September 2009A Track Reconstructing Low-latency
Trigger Processor for High-energy Physics
Jan de Cuveland
Gutachter: Prof. Dr. Volker Lindenstruth
Prof. Dr. Ulrich BrüningA track reconstructing low-latency trigger processor for high-energy physics
The detection and analysis of the large number of particles emerging from high-energy
collisions between atomic nuclei is a major challenge in experimental heavy-ion physics.
Efficient trigger systems help to focus the analysis on relevant events. A primary objective
of the Transition Radiation Detector of the ALICE experiment at the LHC is to trigger
on high-momentum electrons. In this thesis, a trigger processor is presented that employs
massive parallelism to perform the required online event reconstruction within 2s to con-
tribute to the Level-1 trigger decision. Its three-stage hierarchical architecture comprises
109 nodes based on FPGA technology. Ninety processing nodes receive data from the
detector front-end at an aggregate net bandwidth of 2.16 Tbit/s via 1080 optical links.
Using specifically developed components and interconnections, the system combines high
bandwidth with minimum latency. The employed tracking algorithm three-dimensionally
reassembles the track segments found in the detector’s drift chambers based on explicit
value comparisons, calculates the momentum of the originating particles from the course
of the reconstructed tracks, and finally leads to a trigger decision. The architecture is
capable of processing up to 20 000 track segments in less than 2s with high detection
efficiency and reconstruction precision for high-momentum particles. As a result, this the-
sis shows how a trigger processor performing complex online track reconstruction within
tight real-time requirements can be realized. The presented hardware has been built and
is in continuous data taking operation in the ALICE experiment.
Ein Triggerprozessor zur Online-Spurrekonstruktion in der
Hochenergiephysik
Eine große Herausforderung der experimentellen Schwerionenphysik ist der Nachweis und
die Auswertung der großen Anzahl an Teilchen, die bei hochenergetischen Stößen zwischen
Atomkernen entstehen. Leistungsfähige Triggersysteme helfen dabei, die Auswertung auf
relevante Ereignisse zu konzentrieren. Ein Hauptziel des Übergangsstrahlungsdetektors im
ALICE-Experiments am LHC ist es, als Trigger auf Elektronen mit hohem Transversalim-
pulszureagieren.IndieserArbeitwirdeinTriggerprozessorvorgestellt,derdienotwendige
Online-Spurrekonstruktion durch massives Parallelisieren innerhalb von 2s durchführt,
um zur Level-1-Triggerentscheidung beizutragen. Seine dreistufige hierarchische Architek-
tur umfasst 109 auf FPGA-Technik basierender Knoten. Über 1080 optische Verbindungen
empfangen 90 Verarbeitungsknoten die Daten aus dem Detektor-Front-End mit einer ge-
samten Nettodatenrate von 2,16 Tbit/s. Mit Hilfe speziell entwickelter Baugruppen und
Verbindungen kombiniert das System hohe Bandbreite mit minimaler Latenz. Der einge-
setzte Trackingalgorithmus setzt die in den Driftkammern des Detektors nachgewiesenen
Teilchenspursegmente aufgrund expliziter Wertvergleiche dreidimensional zusammen, er-
mitteltausdemVerlaufdersorekonstruiertenSpurendenImpulsdererzeugendenTeilchen
und führt schließlich zur Triggerentscheidung. Die Architektur kann in weniger als 2s
bis zu 20 000 Spursegmente verarbeiten und erreicht eine hohe Nachweiseffizienz und Re-
konstruktionsgenauigkeit für Teilchen mit hohem Transversalimpuls. Die Ergebnisse dieser
Arbeit zeigen, wie ein Triggerprozessor, der aufwändige Online-Spurrekonstruktion inner-
halb enger Echtzeitanforderungen ausführt, verwirklicht werden kann. Die dargestellte
Hardware wurde real aufgebaut und befindet sich im Einsatz im ALICE-Experiment.
5Contents
1 Introduction 17
2 The Experiment 23
2.1 The Large Hadron Collider (LHC) . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 The ALICE Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 The Detectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2 The Trigger System . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 The Transition Radiation Detector (TRD) . . . . . . . . . . . . . . . . . . . 29
2.4 The TRD Trigger System . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Layout of Trigger System and Detector Readout Chain . . . . . . . 34
2.4.2 Timing of the TRD Trigger Computation . . . . . . . . . . . . . . . 36
3 GTU Hardware Architecture 39
3.1 Structure and Conceptual System Design . . . . . . . . . . . . . . . . . . . 39
3.1.1 Selecting Processing Node Technology . . . . . . . . . . . . . . . . . 39
3.1.2 Optimizing the System Structure . . . . . . . . . . . . . . . . . . . . 40
3.2 The Track Matching Unit (TMU) . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 The Supermodule Unit (SMU) . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4 The XMU PCB Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.1 Signal Integrity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 The XMU Backplane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6 The TGU Bac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.7 The Trigger Generation Unit (TGU) and the CTP Interface . . . . . . . . . 62
3.8 System Integration and Operating Environment . . . . . . . . . . . . . . . . 63
3.8.1 Fault Tolerance Strategy . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.8.2 Ionizing Radiation Tolerance . . . . . . . . . . . . . . . . . . . . . . 66
3.8.3 Magnetic Field Tolerance . . . . . . . . . . . . . . . . . . . . . . . . 66
4 System Monitoring and Control 69
4.1 Low-level System Configuration . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2 System Health Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3 High-level Configuration and Control . . . . . . . . . . . . . . . . . . . . . . 74
4.3.1 The Node Control Processors . . . . . . . . . . . . . . . . . . . . . . 75
4.3.2 The GTUcom Node Control Application . . . . . . . . . . . . . . . . 76
4.4 The Detector Control System (DCS) . . . . . . . . . . . . . . . . . . . . . . 77
4.4.1 GTU Monitoring and Control Software . . . . . . . . . . . . . . . . 77
4.5 A High-speed Linux-based Control Network . . . . . . . . . . . . . . . . . . 80
7Contents
5 Event Buffering 83
5.1 TRD Raw Data Readout Timing and Requirements . . . . . . . . . . . . . 83
5.1.1 Event Sizes and Absolute Maximum Readout Rates . . . . . . . . . 84
5.1.2 Simulation of TRD Readout Timing and Multievent Buffering . . . 88
5.2 Event Buffering Implementation . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.1 High-bandwidth Multievent Buffering . . . . . . . . . . . . . . . . . 95
5.2.2 Handling Readout Requests . . . . . . . . . . . . . . . . . . . . . . . 97
6 Front-end Data Preprocessing 101
6.1 Contents of the Transmitted Data Words . . . . . . . . . . . . . . . . . . . 101
6.2 Computations in the Detector Front-End . . . . . . . . . . . . . . . . . . . 104
6.2.1 Lorentz Angle Correction . . . . . . . . . . . . . . . . . . . . . . . . 104
6.2.2 Tilted Pads . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2.3 Local Cut on the Transverse Momentum . . . . . . . . . . . . . . . . 107
7 Online Track Recognition 111
7.1 Overview of the GTU Trigger Computations . . . . . . . . . . . . . . . . . . 112
7.1.1 Tracking Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.1.2 Architecture Outline . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.2 Computations for Each Track Segment . . . . . . . . . . . . . . . . . . . . . 116
7.2.1 Projecting the Y Coordinate . . . . . . . . . . . . . . . . . . . . . . 117
7.2.2 Computing the Deflection Angle . . . . . . . . . . . . . . . . . . . . 118
7.2.3 Precomputing Reconstruction Parameters . . . . . . . . . . . . . . . 118
7.2.4 Architecture of an Input Unit . . . . . . . . . . . . . . . . . . . . . . 119
7.3 Matching by Selecting: The Z-Channels . . . . . . . . . . . . . . . . . . . . 119
7.3.1 Architecture of a Z-Channel Unit . . . . . . . . . . . . . . . . . . . . 121
7.4 Finding Tracks in Streams of Track Segments . . . . . . . . . . . . . . . . . 122
7.4.1 Comparing Track Segments . . . . . . . . . . . . . . . . . . . . . . . 123
7.4.2 Incrementing the Positions in the Data Streams . . . . . . . . . . . . 125
7.4.3 Architecture of a Track Finder . . . . . . . . . . . . . . . . . . . . . 125
7.5 Removing Duplicate Tracks . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8 Transverse Momentum Reconstruction and Trigger Decision 127
8.1 Fitting a Straight Line to the Track Segments . . . . . . . . . . . . . . . . . 127
8.1.1 Intersections of Straight Line and Circular Path . . . . . . . . . . . 130
8.2 Computation of the Track Radius . . . . . . . . . . . . . . . . . . . . . . . . 131
8.2.1 Optimizing the Computation for Online Processing . . . . . . . . . . 132
8.3 Transverse Momentum