Connexion
Abonnez-vous

Au Grand collisionneur de hadrons, tous les faisceaux convergent vers la haute luminosité

Que la lumière soit !

Au Grand collisionneur de hadrons, tous les faisceaux convergent vers la haute luminosité

Le 27 octobre 2021 à 13h35

L’arrivée de la haute luminosité au Grand collisionneur de hadrons est attendue de pied ferme, mais elle n’aura pas lieu avant des années. En attendant, de nouveaux composants sont en cours de validation et/ou de fabrication industrielle, tandis que les logiciels se mettent à jour pour aiguiser leurs performances.

Depuis son lancement dans les années 2000, le Grand collisionneur de hadrons (LHC) alterne les périodes d’exploitation scientifique et les longs arrêts techniques programmés. Ils sont planifiés de longue date et ont pour but d’améliorer les performances de l‘accélérateur de particules.

Un… deux… et trois « Long Shutdown »

Le LHC est entré en service en 2009 puis il a établi le 30 mars 2010 son premier record avec une collision de faisceaux à 7 TeV (téraélectronvolt). Les expériences continuent jusqu’à fin 2012 quand il a été mis en pause de longue durée pour son LS1 (Long Shutdown 1) jusque début 2015. La luminosité passait alors à 13 TeV durant les trois années de sa seconde phase d‘exploitation scientifique.

Fin 2018, l’heure est au LS2 (Long Shutdown 2), un état dans lequel il se trouve encore aujourd’hui. Il est néanmoins en train de se réveiller doucement et le retour aux expériences est prévu pour le début de l’année prochaine. La suite est déjà programmée avec LS3 (Long Shutdown 3) de 2025 à 2027 et le passage à la haute luminosité (HL-LHC).

Le CERN rappelle que la luminosité est un indicateur important de performance : « elle est proportionnelle au nombre de collisions se produisant en un temps donné. Plus la luminosité est grande, plus les expériences récoltent de données, leur permettant d’observer des processus rares ».

Il y a quelques jours, une réunion importante se tenait en distanciel, crise sanitaire oblige : « Plus de 200 personnes se sont réunies en ligne à l'occasion de la 11e réunion de collaboration annuelle pour le HL-LHC afin de faire le point sur le projet phare du CERN, qui commence à prendre forme à l'échelle industrielle ».

Nb₃Sn à la rescousse pour améliorer les aimants

Pour rappel, ce projet prévoit « de décupler la luminosité intégrée et de prolonger la durée de vie du LHC bien au-delà du milieu de la décennie 2030 ». Une collaboration internationale (avec notamment la Chine, les États-Unis et le Japon) est impliquée dans sa conception et mise en place.

Durant quatre jours, les participants ont ainsi pu discuter de l’avancement des travaux sur la partie recherche et développement. Bonne nouvelle : ils « sont achevés » pour un « nombre d’éléments innovants ». Désormais, une seconde étape importante débute pour les responsables du Grand collisionneur de hadrons : « passer à la production dans le cadre de partenariats avec l'industrie ».

Le CERN explique ainsi que les résultats des tests menés sur « toute une gamme de nouveaux aimants mis au point spécialement pour le projet » sont positifs. C’est notamment le cas pour « les quadripôles des triplets en Nb₃Sn […] dont quatre sont déjà construits et, à ce jour, entièrement qualifiés pour l'exploitation ».

Le Nb₃Sn, alias du niobium-étain, est un matériau qui remplacera le niobium-titane (Nb-Ti) actuellement utilisé dans les aimants, mais « dont les limites de performance ont été atteintes avec le LHC ». En effet, « augmenter la luminosité ou l’énergie des collisionneurs requiert des champs magnétiques plus élevés et, donc, de nouveaux supraconducteurs », expliquait le CERN en 2020. C’est tout l’intérêt du Nb₃Sn qui permet justement d’obtenir des aimants « générant des champs plus intenses ».

Autre résultat notable : « le fonctionnement à leur performance nominale des aimants de correction [chargés de guider et focaliser les faisceaux de particules, ndlr], qui a donné le signal du démarrage de leur production industrielle chez Elytt Energy, en Espagne, avec l'aide du CIEMAT », le Centre de recherche énergétique, environnementale et technologique espagnol.

D’autres travaux sont bien avancés : « le Japon et l'Italie sont tous deux en train d’envoyer au CERN des prototypes de dipôles de séparation et de recombinaison en vue de leur validation finale à froid, et la collaboration britannique commence à assembler le premier cryomodule en utilisant les cavités-crabe qui ont été livrées récemment ».

Le CERN a également reçu « les premiers cryostats et câbles de la liaison supraconductrice, ce qui marque le passage de la phase de réalisation de prototypes à celle de la production en série pour le projet ». Bref, tout va bien pour le moment, avec 2028 en ligne de mire pour la mise en service.

Un logiciel de traitement des données plus efficace

Dans un autre registre, l’Organisation européenne pour la recherche nucléaire, et plus particulièrement la collaboration ATLAS, se prépare à réexaminer l’ensemble des données récoltées par l’instrument éponyme durant la seconde phase d’exploitation (de 2015 à 2018)… ce qui représente pas moins de 18 Po.

Un tel travail prendra évidemment « plusieurs mois ». L’idée est de les retraiter « à l'aide d'une version mise à jour du logiciel d'analyse en différé d'ATLAS (Athena). Cela permettra non seulement d'améliorer les mesures de physique et la recherche de phénomène de physique, mais également de préparer la collaboration aux futurs défis de la troisième période d'exploitation et au-delà ».

Le Centre rappelle qu’Athena est un logiciel qui « convertit les signaux bruts enregistrés par l'expérience ATLAS en ensembles de données plus simples destinés à être analysés par les physiciens ». La nouvelle version déjà déployée « comporte des capacités de traitement multifil ("multithreading"), des fonctions d'analyse de physique plus complexes et une consommation de mémoire améliorée ». Un billet de blog technique est dédié à ces nouveautés.

Le CERN donne quelques exemples concrets : « l’opération consistant à prendre les différents signaux venant du détecteur interne et à les relier les uns aux autres pour former les trajectoires des particules, qui nécessite une grande puissance de calcul, peut désormais être réalisée de deux à quatre fois plus rapidement. Il faut moins d'espace disque pour stocker les résultats et, dans l'ensemble, le logiciel fonctionne de manière plus fluide ».

Autre avantage : rechercher davantage les traces dont l'origine se situe loin du point de collision. C’est intéressant, car « il pourrait s'agir de la signature de particules à longue durée de vie et cela pourrait être le signe de processus intéressants, relevant de la physique au-delà du Modèle standard ».

Ces recherches étaient déjà possibles avec l’ancienne version du logiciel, mais elles demandaient tellement de ressources informatiques qu'elles ne pouvaient pas toujours être réalisées.

Préparer le tsunami de données de la haute luminosité 

Là encore, ces améliorations logicielles ont un autre objectif en ligne de mire : les « exploitations à haute intensité du LHC, notamment avec le passage au LHC à haute luminosité (HL-LHC), qui commencera à être exploité aux environs de 2028. Les ressources informatiques d'ATLAS seront très fortement sollicitées à cette occasion ».

Mais le CERN ajoute que retraiter l’ensemble des données est important dès à présent, car « ATLAS disposera d'un ensemble de données grandement amélioré qui permettra d'affûter les mesures, d'amplifier les recherches et de combiner plus aisément les données passées et futures ».

Une chose est sure : la prochaine période d’exploitation scientifique du LHC n’a pas encore commencé que tous les yeux sont déjà tournés vers la prochaine étape. 

Commentaires (3)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Le premier record (7TeV) remonte peut-être à 2010.

votre avatar

Oui, j’ai signalé l’erreur hier.

votre avatar

Pourtant on nous avait dit de ne pas croiser les faisceaux :eeek2:

Au Grand collisionneur de hadrons, tous les faisceaux convergent vers la haute luminosité

  • Un… deux… et trois « Long Shutdown »

  • Nb₃Sn à la rescousse pour améliorer les aimants

  • Un logiciel de traitement des données plus efficace

  • Préparer le tsunami de données de la haute luminosité 

Fermer