Investigadores da USC traballan nun proxecto que poderÃa redefinir as leis da FÃsica
mércores, 21 de abril do 2010
A alta tecnoloxÃa, entre outras moitas finalidades, axúdanos a comprender o que pasa naqueles lugares onde non estivemos nin estaremos. Disto, de saber o que ocorre até no máis mÃnimo detalle durante e logo de determinados fenómenos externos, é do que trata unha parte importante da innovación fÃsica actual, sendo o CERN (European Organisation for Nuclear Research) un dos seus máis salientables exemplos. Segundo se nos conta dende o Grupo de Investigación de Altas EnerxÃas da Universidade de Santiago de Compostela, os investigadores galegos levan anos mantendo unha estreita colaboración de traballo co devandito organismo europeo, colaboración que en boa medida se centra no estudo das partÃculas resultantes logo dun Big Bang. As achegas dos cientÃficos galegos, dirixidos dende a USC polo catedrático Bernardo Adeva, únense neste eido de traballo ás de milleiros de investigadores procedentes de máis de 37 paÃses, todos eles convocados polo Large Hadron Collider (pertencente ao CERN), o acelerador de partÃculas máis grande do mundo. O grupo compostelán, máis polo miúdo, traballa nun dos seis experimentos postos en marcha no LHC para o devandito estudo das consecuencias do Big Bang: o experimento a cargo do Silicon Tracker do detector do LHCb.
Segundo se nos conta dende o equipo galego de investigación, este investiu 10 anos na construción do detector interno do Silicon Tracker, o Inner Tracker, empregando instrumental e tecnoloxÃa propios. Varios dos seus membros desempeñan labores de coordinación no experimento no CERN. O grupo ademais opera un centro Tier-2 para o proceso de datos do experimento LHCb, e veñen desenvolvendo unha infraestrutura de computación grid para recepción e análise dos datos, en colaboración co Centro de Supercomputación de Galicia, CESGA, e a Universidade de Barcelona.
Detectores de silicio
O experimento LHCb investiga a falta de simetrÃa materia-antimateria a través do estudo das partÃculas que conteñen o quark b (beauty quark). Os quarks b e anti-b son inestables e efÃmeros, descompoñéndose rapidamente noutras partÃculas. Durante as colisións no LHC xeraranse por billóns, e a comparación das súas desintegracións poderÃa achegar datos para explicar porque a natureza favoreceu a materia fronte á antimateria na orixe do Universo. Unha posible explicación poderÃa ser a non conservación da simetrÃa CP nas interaccións que tiveron lugar nos primeiros instantes do universo, debido a que as desintegracións de quarks e antiquarks, con orientacións opostas da súa helicidad, non teñen lugar con igual probabilidade, o que axudarÃa a explicar a ausencia de antimateria.
Datos recentes permitiron observar, por primeira vez, a non conservación CP en desintegracións de quarks pesados, e indican que esta alcanza valores sensiblemente altos, de ata un 30%. A partir de agora xeraranse estatÃsticas abondo para desenvolver esta teorÃa xa que "o experimento que se está a levar a cabo no detector do LHCb posibilitará o estudo de máis desintegracións de quarks b e anti-b do que nunca se observara antes", segundo sinala Adeva Andany. O traballo do grupo da USC xunto cos grupos de Zürich, Lausanne e Heidelberg, supuxo un 25% da construción e instalación no LHC do Silicon Tracker do LHCb, do que é coordinador adxunto un dos seus membros, Abraham Gallas Torreira. Ademais son responsables ao 50%, co instituto Politécnico Federal de Lausanne, construción do Inner Tracker (IT), o detector de precisión de micropistas de silicio construÃdo polo Laboratorio de FÃsica de Altas EnerxÃas da USC. Serve para detectar as trazas dos quarks b producidos nas colisións e consta de máis de 200.000 canles electrónicas. Os trackers están deseñados especificamente para rexistrar a traxectoria de cada partÃcula ao seu paso polo detector. A unión destes rastros deixados nas diferentes partes do detector é imprescindible para reconstruÃr as desintegracións de partÃculas B.
A cargo da recollida de datos do Silicon Tracker está outro membro do grupo compostelán de Altas EnerxÃas, Daniel Esperante. O LHCb emprega un sofisticado sistema electrónico para filtrar os datos dos 10 millóns de colisións por segundo que se rexistrarán nos seus detectores, o High Level Trigger. Este algoritmo baseado no concepto de rexións de interese, permite seleccionar os datos de todos os sensores procesándoos en 1000 ordenadores de 16 cores (unidades de proceso), situados na área do LHCb, reducÃndoos, tras unha primeira criba que selecciona un millón de eventos por cada segundo, a cantidades máis manexables, duns 2000 eventos por segundo.
15 petabytes de datos ao ano (15 millóns de Gigabytes)
Tras conseguir a enerxÃa suficiente para reproducir as condicións similares ás existentes no Big Bang, dáse por iniciado o programa de investigación do LHC, e con iso comeza a análise dos 15 petabytes de datos ao ano que, se estima, botarán os experimentos. Para distribuÃlos, almacenalos e analizalos, creouse o Worldwide LHC Computing Grid, (LCG), unha colaboración global que combina os recursos de computación de máis de 100.000 procesadores en 130 sites (centros) de 34 paÃses, a disposición da comunidade de fÃsicos de altas enerxÃas. Organizada en 4 niveis (Tier), o Tier 0 está no computador central do CERN, que recolle un primeiro backup de todos os datos en bruto do LHC e os distribúe en tempo real entre os once Tier 1, que á súa vez coordinan e distribúen o envÃo de datos aos Tier 2. Estes son centros que ofrecen capacidade de almacenamento e de cálculo abondo para tarefas de análise especÃficas, aos que acceden os cientÃficos a través dos Tier 3, computadores individuais ou clusters aloxados en universidades.
En colaboración co Centro de Supercomputación de Galicia, CESGA, e a Universidade de Barcelona, o Grupo de FÃsica de Altas EnerxÃas da USC opera un centro Tier-2 cun cluster dedicado en exclusiva ao proceso de datos do experimento LHCb. Juan José Saborido Silva, coordinador do Proxecto de Computación GRID da USC para o CERN, e membro do grupo, considera esencial o desenvolvemento dunha infraestrutura de computación GRID para levar a cabo o experimento na USC. "Tanto para a análise da simulacións que viñemos realizando durante as probas do experimento, como agora que empezan a chegar os datos reais, a infraestrutura grid nos permitiu traballar con enormes volumes de datos a tempo real e dispoñer de recursos de computación impensables fóra do grid". O experimento LHCb terá uns dez anos de vida, durante os que se recollerán millóns de datos que axudarán a comprender a orixe do Universo. Segundo Bernardo Adeva, "poderÃanse volver definir as Leis da FÃsica, contidas no Modelo Estándar das interaccións fundamentais".