E’ da oggi disponibile un interessante articolo (in inglese) di John Ellis che fa il punto sugli esperimenti attuali e del prossimo futuro condotti al CERN, l’Organizzazione Europea per la ricerca nucleare.

Ricordiamo, come nota a margine, che fu proprio al CERN che nacque il Word-Wide Web, pensato essenzialmente come uno strumento utilizzato dagli scienziati per scambiarsi informazioni con efficacia e tempestivita’… Come giustamente puntualizzato nella relazione, nessuno al CERN avrebbe potuto prevedere la portata “sociale” e la diffusione che tale strumento avrebbe assunto in pochi anni!

In ogni caso, l’enfasi della relazione di Ellis e’ sugli argomenti rilevanti per l’astrofisica e la cosmologia. In tale ambito sono in corso (o in preparazione) diversi esperimenti, su settori che comprendono l’astrofisica nucleare, l’asimmetria materia-antimateria, la materia oscura, le onde gravitazionali, i raggi cosmici, le oscillazioni delle famiglie di neutrini, l’inflazione, le stelle di gluoni, lo studio del plasma quark-gluoni…

Va detto in ogni caso che l’obiettivo fondamentale del CERN ruota intorno al progetto LHC, Large Hadron Collider, attualmente in costruzione. L’obiettivo principale di LHC e’ di esplorare la fisica nell’intervallo di energie che va da 100 GeV al TeV ed oltre: valori cosi’ alti di energia dovrebbero permettere di studiare fenomeni fisici che non sono senz’altro alla portata dei “normali” acceleratori, ma assai importanti perche’ avvenuti nelle primi istanti di vita dell’universo. In particolare gli scienziati sperano di poter trovare il bosone di Higgs, elusiva perticella postulata dalla teoria, che dovrebbe possedere la assai peculiare proprieta’ di fornire “massa” alle particelle con cui interagisce. La scoperta di questa particella sarebbe di grande interesse anche per i cosmologi, poiche’ tale bosone svolge un ruolo fondamentale nella teoria dell’universo inflazionario.

Dal punto di vista piu’ tecnologico, l’articolo poi da’ spazio al progetto DataGrid, a cui il CERN partecipa insieme con altri enti ed istituzioni, con l’obiettivo di costituire una “griglia” di risorse informatiche per la gestione e l’analisi della gran mole di dati provenienti dai moderni esperimenti scientifici. Progetto decisamente ambizioso, quando si consideri che LHC, da solo, dovrebbe fornire dati ad un rispettabile tasso di circa un petabyte (un milione di miliardi di byte!!) al secondo…!

Loading


Scopri di più da Stardust

Abbonati per ricevere gli ultimi articoli via e-mail.