Algorithms for the Level-1 trigger with the HGCAL calorimeter for theCMS HL-LHC upgrade
Institution:
Institut polytechnique de ParisDisciplines:
Directors:
Abstract EN:
Modern instrumentation in high energy physics (HEP) is facing the exponential growth of amount of data from the sensor arrays. This results in an enormous increase of output data volume, which requires in-time upgrades of detectors in HEP experiments. Also, the detector evolution is driven by the need to follow the newest technological trends as well as to replace parts of the mechanical construction that are damaged by radiation. In particular, the detectors at the Large Hadron Collider (LHC) will have to be upgraded before entering the high luminosity (HL) operational phase.This thesis describes the research work done in context of the High Granularity Calorimeter (HGCAL) project, which is part of the upgrade of the Compact Muon Solenoid (CMS) detector. In the challenging environment of HL-LHC, with higher data rates, harder radiation, and high pile-up (PU), where the number of „interesting“ events is low, it is essential to provide a quality decision on whether to read-out the event data or not. This process, called the trigger, should operate in real-time, under constrains of communications and processing limits from the available hardware. The working conditions of the trigger are challenging since the algorithm must be executed in a very limited time, without the possibility to revisit the decision of keeping the event for further processing or not.To cope with HL-LHC requirements, the current trigger system must be upgraded. The thesis presents the related studies that were necessary for the design of such trigger. The presented studies relates to key aspects that were necessary along the whole trigger path from the detector sensors read-out and front-end (FE) selection to the back-end (BE) electronics output data flow. First, a re-design of the mechanical HGCAL construction is studied on forming hexagonal sensor cells as well as larger polyhex structures of trigger cells (TCs) used to reduce the amount of data by using grouping of cells. Once the sensor module of the future HGCAL detector is defined, a large amount of work is devoted to the strategies for further FE data reduction and BE reconstruction studies. Architectures are explored for a possible trigger primitive generation from which a two-step approach for a direct 3D clustering is proposed. The first step consists of finding the regions of interest (ROIs) in the detector and is based on a designed tracking algorithm (TA), which enables the identification of electromagnetic (EM) shower tracks and of a signal seed selection. Also, it is shown that more signal seeds can be selected when an EM shower parametrization is used in the TA.Finally, the TA is used in the machine learning study for the ROI generation procedure. It results in an image of the physical shower, and a neural network (NN) is applied to perform the data classification (EM-like or PU-like). We have compared several NN models and the performance (classification accuracy) is measured against the model complexity (the total number of model parameters). The best trade-off is obtained between the quality of the decision-making process and the requirements on the hardware processing power.
Abstract FR:
L'instrumentation moderne en physique des particules (HEP) fait face à une augmentation exponentielle du volume de données provenant des détecteurs. Cela conduit à une augmentation du volume de données, qui requière une mise à niveau des détecteurs. Aussi l'évolution des détecteurs est liée à la nécessité de suivre les évoluutions technologiques, ainsi qu'à la necessité de remplacer des parties du détecteur endomagées par les radiations. En particulier les détecteurs auprès du Large Hadron Collider (LHC) devront être mise à niveau pour la phase de haute luminosité (HL-LHC).Cette thèse décrit le travail de recherche effectué dans le contexte du calorimètre de haute granularité (HGCAL). Dans l’environnement difficile du LHC, avec des volumes de données plus élevés, plus de radiation, et plus d’empilement (PU), et où le nombre d’événements intéressant est faible, il est essentiel de fournir une décision de qualité en vue de garder ou non les données de l’événement. Ce processus, appelé déclenchement, doit opérer en temps réel, en prenant en compte les contraintes de communication et de capacité de calcul des processeurs disponibles. Les conditions d’opération du système de déclenchement sont difficiles car les algorithmes doivent être exécutés en un temps limité, sans possibilité de revoir la décision à postériori puisque les événements non sélectionnés sont définitivement perdus.Pour satisfaire aux contraintes du HL-LHC, le système de déclenchement actuel doit être mis à niveau. Cette thèse présente les études réalisées pour la conception du nouveau système. Les études présentées concernent les aspects essentiels de la chaine de déclenchement, depuis la lecture des éléments de détecteurs à pixels et l'électronique de sélection frontale (FE) jusqu'au flot de données en sortie d'électronique dorsale (BE). Tout d'abord, la conception des modules du HGCAL est revue de façon à former des cellules de déclenchement à partir des cellules hexagonales, afin de réduire le volume de données par un regroupement des cellules de lecture. Lorsque le module est défini, une part important du travail est consacré aux stratégies en vue de réduire les données au niveau du FE et du BE. Des architectures sont étudiées en vue d'une génération de primitives de déclenchement pour laquelle une approche en deux étapes pour une aggrégation en 3D est pproposée. La première étape consiste en la recherche de régions d'intérêts (ROIs) dans le détecteur, et est basé sur un algorithme de reconstruction des traces (TA), qui permet l'identification des gerbes électromagnétiques (EM) et la sélection d'un germe pour le signal. Aussi, il est montré que plus de germes de signaux peuvent être sélectionées lorsque une paramétrisation des gerbes EM est utilisée dans le TA.Finalement, le TA est utilisé dans un algorithme d'apprentissage pour la génération des ROIs. Cela conduit à une image de la gerbe, et un réseau de neurones (NN) est appliqué pour effectuer la classification (gerbes EM ou PU). Nous avons comparés plusieurs modèles de NN et leur performances (précision de la classification) sont mesurées en fonction de la compelxité du modèle (nombre total de paramètres). Le meilleur compromis est ainsi obtenu entre la qualité de la décision et les contraintes sur le processeur.