LHC Status: Run III

Datenverarbeitung

Detektor-Triggersystem

Die Datenmengen die z.B. vom CMS-Detektor generiert werden, sind vergleichbar mit der einer Digitalkamera von 70 Megapixeln, die pro Sekunde 40 Millionen Bilder schiesst. Da diese Frequenz von bis zu 40 Millionen Protonenstrahlkreuzungen pro Sekunde jedes Datenverarbeitungssystem überfordern würde, wurden die 4 grossen Detektoren mit sogenannten Triggern ausgestattet. Diese Trigger sollen bereits kurz nach der Detektion eines Teilchens darüber entscheiden, ob diese Daten gespeichert oder verworfen werden sollen. Jeder der vier Detektoren besitzt dabei ein spezifisches Triggersystem. Grundsätzlich funktionieren aber all diese Systeme, nach dem gleichen Prinzip. Die einzelnen Triggerstufen sind untereinander über eine komplizierte Analysen- und Steuersoftware mit übrigen Detektorbestandteilen verbunden. Sehr viele Detektorsignaturen sind bereits aus anderen Beschleunigerexperimenten bekannt. Solche Standardsignaturen würden wertvollen Speicherplatz einnehmen. Sie werden daher durch das Trigger Hard- und Softwarenetzwerk frühzeitig erkannt und herausgefiltert.
Das Triggersystem kann in drei Hauptstufen unterteilt werden. Das folgende Beispiel beschreibt das Triggersystem von ATLAS:

Level-1-Trigger:
Die Level-1-Trigger bestehen aus Hardware-Prozessoren, welche die Daten aus einer Proton-Proton Kollision, in einer ersten groben Auflösung miteinander vergleicht. Werden diese Detektionsmerkmale vom System erkannt, werden die Daten zur nächsten Triggerstufe weitergeleitet. Von den 40 Millionen Strahlkreuzungen pro Sekunde werden in der ersten Triggerstufe etwa 75.000 ausgewählt und weitergeleitet, der Rest wird verworfen.

Level-2-Trigger:
Die Level-2-Trigger bestehen aus programmierbaren Prozessoren, in denen die Daten vom Level-1 Trigger mit einer verbesserten Auflösung analysiert werden. Weniger als 1.000 Ereignisse pro Sekunde passieren die Level-2-Bedingungen. Diese Daten erreichen dann die dritte Filterstufe - den Ereignisfilter.

Ereignisfilter:
Der Ereignisfilter besteht aus einer grossen Farm von vernetzten Prozessorkernen, in denen eine vollständige Rekonstruktion und Analyse der Daten aus den Level-2-Triggern durchgeführt wird. Erst wenn diese Daten die Anforderungen dieser Filterstufe erfüllen, wird das Ereignis für spätere Datenanalysen auf Speichermedien geschrieben. Von den ursprünglich 40 Millionen Strahlkreuzungen werden schlussendlich nur ca. 200 pro Sekunde gespeichert und für das WLCG bereitgestellt.


Datenmenge pro Sekunde:

• ATLAS: 320 Megabyte / Sekunde

• CMS: 220 Megabyte / Sekunde

• ALICE: 100 Megabyte / Sekunde

• LHCb: 50 Megabyte / Sekunde



WLCG - Worldwide LHC Computing Grid

Der LHC verfügt über insgesamt 150 Millionen Sensoren in allen Experimenten. Jährlich wird damit eine Datenmenge von 15 Petabytes (15 Mio. Gigabytes) generiert. Nicht einmal die grössten Supercomputer, die sonst zur Bewältigung von Forschungsdaten zur Verfügung stehen, könnten diese Last bewältigen. Und auch die Leistung der bekannten Grids - etwa das Seti@home-Projekt, ist für das was das LHC-Computing-Grid leisten muss, viel zu gering. Vielmehr werden schon bestehende Grids (zum Beispiel das Cern Openlab) benötigt, sowie tausende Rechner und weitere hunderte Netzwerke, Cluster genannt, welche freie Rechnerleistung bereit stellen.

Um diesen Anforderungen gerecht zu werden, wurde das Worldwide LHC Computing Grid (WLCG) konstruiert. Es hat die Aufgabe die enormen Datenmengen zu speichern, zu verwalten und zu verarbeiten. Für das WLCG stellen 170 Rechenzentren aus 34 Ländern, über 100.000 Prozessoren zur Verfügung. Die durchschnittliche Datenübertragungsrate beträgt, innerhalb des Grids, 400 bis 600 Megabyte pro Sekunde. Das Netzwerk wird in den kommenden Jahren noch erweitert und seine Leistung damit kontinuierlich gesteigert werden.



CERN Computerzentrum Quelle: CERN



Aufbau des WLCG

Das WLCG besteht aus mehreren Stufen, sog. TIER's (tier; engl. für Ebene). Jede Ebene erfüllt dabei ganz bestimmte Aufgaben.

TIER-0:
Die erste Ebene wird als TIER-0 bezeichnet. Hier werden die Rohdaten welche nach dem Ereignisfilter der Detektoren übrig geblieben sind, in den CERN Rechenzentren auf Band gespeichert. Die Rechenleistung wird dort zur ersten Rekonstruktion der Daten genutzt, die dann wieder auf Tape und Disk gespeichert werden. Insgesamt stehen 5.5 Petabyte Festplattenspeicher, 17 Petabyte Magnetbandspeicher und 6000 vernetzte CPU's zur Verfügung. Anschliessend werden Kopien dieser Daten zu den TIER-1 Zentren verteilt.

TIER-1:
Zurzeit existieren 10 TIER-1 Zentren in verschiedenen Ländern. In Deutschland, Frankreich, Italien, Kanada, Niederlande, Skandinavien, Spanien, Taiwan, UK und zweimal in den USA. Am CERN in der Schweiz ist ebenfalls ein TIER-1-Zentrum angesiedelt. Die TIER-1 Zentren verarbeiten die Daten erneut unter Berücksichtigung neuer Kalibrierungen und wählen weitere mögliche interessante Ereignisse aus. Ausserdem übernehmen sie die Archivierung der TIER-2 Zentren mit den erzeugten Monte Carlo Ereignissen. Mit einem Petabyte Festplattenspeicher, 10 Petabyte Magnetbandspeicher und 2000 CPU's speichern die TIER-1 Zentren, die komplette Kopie der Rohdaten aus Tier-0, als Backup.

TIER-2:
Zurzeit bilden ca. 150 Universitäten und Forschungseinrichtungen, in 38 Ländern das TIER-2 Netzwerk. Hier werden die eigentlichen Berechnungen und Analysen durchgeführt. Die TIER-2 Zentren übernehmen spezialisierte Computing-Grid Aufgaben, wie Datenverteilung, Monte-Carlo-Simulationen, Kalibrierungsermittlung und die endgültige Selektion der Daten. Untereinander sind die TIER-2 Zentren über spezielle Wissenschaftsnetzwerke oder über das Internet verbunden. Im TIER-2 findet keine langfristige Datenspeicherung statt. Alle Ergebnisse der Berechungen von TIER-2 werden zum Speichern wieder an die TIER-1 Zentren geschickt.

TIER-3 / 4:
TIER-3 und TIER-4 steht den den Wissenschaftlern als Arbeitsplatz bzw. als Zugriff zum GRID zur Verfügung. Hier können die Daten des Grid abgerufen und Rechenanfragen eingegeben werden.





Datenverteilung Tier 1+2 November/Dezember 2009 Quelle: LCG


Beteiligte Rechenzentren Quelle: LCG

Vorteile eines GRID's
• Beim LHC-Projekt nehmen viele Nationen teil. Diese Nationen wollen ihre finanziellen Resourcen natürlich lieber auf lokalem Boden einsetzten, als für ein lokales Rechenzentrum in der Schweiz.

• Ein Computer-Cluster aus normalen PC's ist gegenüber eines Supercomputers wesentlich besser skalierbar. Es können einzelne Teile hinzugefügt werden, ohne auf die teils starken Einschränkungen eines Grosscomputers achten zu müssen. Mit entsprechender Software (sog. Middleware) kann fast jede Art Computer miteinander vernetzt werden.

• Wenn man sich nicht auf ein einzelnes, zentrales Rechenzentrum verlassen muss, sondern viele kleine Rechenzentren zur Verfügung stehen, dann ist auch die Ausfallsicherheit des Gesamtsystems beträchtlich erhöht.

• Das Grid beruht, analog zum World Wide Web, auf offenen Standards. Dadurch kann es sehr einfach erweitert werden und besitzt ein hohes Mass an Flexibilität.