UN ANELLO PER DOMARLI TUTTI

Antonio Merlini
30/06/2014
CERN-OPEN-2014-031
UN ANELLO PER DOMARLI TUTTI
Viaggio nel mondo degli acceleratori di particelle
Liceo scientifico “A.Sorbelli” di Pavullo nel Frignano (Modena)
anno scolastico 2013-2014
Classe 5a sezione A - indirizzo P.N.I.
Abstract
Questa tesina tratta degli acceleratori di particelle. I motivi della loro nascita, la loro
evoluzione, il loro presente e il loro futuro. Particolare attenzione sarà data al Large
Hadron Collider, il più grande di essi e la più incredibile macchina mai realizzata dall’uomo.
Inoltre si parlerà dei rilevatori, che permettono lo studio di particelle invisibili all’uomo; del
fatto che gli scienziati non escludono che gli strumenti che utilizzano possano
potenzialmente distruggere il pianeta; e di come gli acceleratori hanno cambiato la nostra
vita.
2
INDICE
1. Perchè i fisici accelerano le particelle
2. I principi fisici di funzionamento
2.1 La sorgente
2.2 Campo elettrico
2.3 Campo magnetico
2.4 E=mc2
3. Evoluzione e scoperte
3.1 Acceleratori naturali
3.2 Acceleratori elettrostatici
3.3 Acceleratori lineari (LINAC)
3.4 Ciclotrone
3.4.1 focalizzazione forte
3.5 Betatrone
3.6 Sincrotrone
3.6.1 Focalizzazione forte
3.6.2 Bersaglio fisso vs bersaglio mobile - i collisiori
3.6.3 Cosa accelerare?
4. LHC
4.1 Il viaggio dei protoni
4.2 Le difficoltà
4.3 perchè costruire l’LHC
5. Acceleratori futuri
6. Fine del mondo e viaggi nel tempo
6.1 Buchi neri
6.2 Decadimento del vuoto
6.3 Monopoli magnetici
6.4 Varchi spazio-temporali
7. I rilevatori
8. Come hanno cambiato la nostra vita
3
1. Perchè i fisici accelerano le particelle?
Prima di partire per questo viaggio nel mondo degli acceleratori di particelle e studiarne la
lunga evoluzione, è necessario capire quali ragioni hanno spinto i fisici a costruire queste
macchine, e più recentemente i governi mondiali a spendere così tanti soldi per la loro
costruzione.
Ci sono almeno tre buoni motivi, derivanti da due limiti invalicabili imposti dalla natura, per
cui la fisica dell’ultimo secolo si è basata su tali apparecchi.
1- Il primo limite è l’impossibilità di osservare direttamente oggetti troppo piccoli. Ciò è
dovuto al fatto che, in generale, un oggetto per essere osservato deve essere colpiti da
altri oggetti (in genere fotoni) che abbiano una lunghezza d’onda minore dell’oggetto da
osservare. Come in una macchina fotografica: se vuoi osservare un oggetto i pixel devono
essere minori di esso. Per raggiungere lunghezze d’onda minori vengono utilizzati
microscopi elettronici che utilizzano elettroni al posto dei fotoni in quanto i primi
raggiungono lunghezze d’onda assai inferiori. Ma c’è un limite alla lunghezza d’onda
utilizzabile per due motivi: il primo è che i nostri occhi sono sensibili a un campo ristretto di
lunghezza d’onda, e sotto ai 350 nm sono praticamente ciechi; il secondo è il fatto che la
lunghezza d’onda è inversamente proporzionale all’energia, per questo diminuendo la
prima cresce l’energia che va a colpire l'oggetto da osservare rischiando di fonderlo o
comunque di modificarne la natura rendendone inutile l’osservazione.
Per questa ragione gli acceleratori possono essere considerati i più potenti microscopi che
l’uomo ha a disposizione, con la differenza che non ci permettono di vedere direttamente
le particelle subatomiche ma ci consentono di conoscerne la natura in maniera indiretta.
2- Ma gli acceleratori moderni, e questo è il secondo buon motivo, non si limitano a farci
conoscere le particelle subatomiche, ma creano nuove particelle grazie alla famosa
relazione tra massa ed energia scoperta da Einstein: E=mc2, di cui parlerò più
approfonditamente in seguito.
3- Il terzo ed ultimo motivo interessa invece gli astrofisici. Per quanto si sforzino di
costruire apparecchi avanzati infatti, gli astrofisici non potranno mai osservare
direttamente quello che accadde prima di 380 000 anni dal Big Bang in quanto prima di
tale periodo, a causa dell’elevata temperatura, la materia era sotto forma di plasma che è
4
opaco alla radiazione elettromagnetica dato che assorbe tutti i fotoni presenti. Ogni
segnale di onda elettromagnetica è nato dunque dopo 380 000 anni, quando, con il
diminuire della temperatura, iniziarono a formarsi i primi atomi.
Questo limite è aggirato proprio dagli acceleratori che ricreano le condizioni di elevata
energia dei primi istanti di vita dell’universo.
Costruire acceleratori più potenti significa, dunque, osservare dettagli più piccoli (l’LHC
arriva fino a 10-19 m), osservare particelle più pesanti e mai viste prima e spingersi sempre
più indietro nel tempo fino ai primissimi istanti di vita dell’universo.
2. I principi fisici alla base
Ogni acceleratore che si rispetti ha bisogno di tre ingredienti di base: una sorgente di
particelle cariche, un campo elettrico per imprimere un’accelerazione alle particelle e un
campo magnetico per mantenerle in orbita in caso di acceleratore circolare.
2.1 La sorgente
Le particelle che vengono utilizzate maggiormente dai fisici sono: elettroni, protoni, le
rispettive antiparticelle e ioni pesanti.
Per quel che riguarda gli elettroni il metodo maggiormente utilizzato per produrli è quello di
strapparli per effetto termoionico da un metallo, quindi accelerarli direttamente. I protoni e
gli ioni pesanti vengono invece ricavati dagli atomi strappando con un potenziale elettrico
gli elettroni.
Per le antiparticelle la questione è invece più complicata. Esse, infatti, non si trovano in
natura ma devono essere prodotte facendo scontrare altre particelle. Le antiparticelle
prodotte, inoltre, emergono con energie diverse, per questo devono passare attraverso un
anello di smorzamento (un acceleratore circolare apposito) in cui attraverso una tecnica
chiamata raffreddamento stocastico (che agisce quindi in maniera statistica e non sulle
singole particelle) vengono raggruppate in pacchetti omogenei.
5
2.2 Il campo elettrico
Tutti gli acceleratori artificiali utilizzano, per l’accelerazione vera e propria, la forza elettrica
data dal campo elettrico.
Il campo elettrico è una proprietà dello spazio-tempo dovuta alla presenza di una o più
cariche elettriche chiamate sorgenti del campo. Questo campo esercita una forza F su
un’altra carica q che è espressa dalla formula:
!
"
F = qE
La direzione della forza coincide con la direzione del campo, il verso dipende dal segno
della carica: se negativa, il verso è opposto a quello del campo; se positiva, il verso è
invece lo stesso.
Le linee di flusso del campo elettrico dipendono dalla forma della
distribuzione di carica. Un esempio significativo sono due distribuzioni piane infinite di
carica (una con il segno opposto all’altra), che se parallele tra di loro generano un campo
omogeneo, uguale in ogni punto in direzione, verso e modulo. Nella pratica si utilizza un
dispositivo chiamato condensatore a facce piane.
In ambito di fisica delle particelle ed acceleratori, è molto utilizzato l’elettronvolt (eV) come
unità di misura. Un elettronvolt coincide all’energia che acquista o perde un elettrone
quando viene accelerato da una differenza di potenziale di un Volt. Un elettronvolt è
un’energia molto bassa, coincide con 1,6*10-19 Joule.
2.3 Campo magnetico
Come vedremo, le particelle non sempre proseguono in linea retta, ma compiono orbite
circolari, e devono quindi essere deflesse. Per incurvare le particelle i fisici utilizzano la
forza magnetica.
La forza magnetica agisce su particelle cariche che si muovono immerse in un campo
magnetico. Il campo magnetico è generato da correnti di particelle cariche (le sorgenti). La
direzione del campo coincide con quella della direzione di forza nulla, se una particella si
muove lungo tale retta, non subirà nessuna forza. La forza è data dalla formula:
!
! !
F = q⋅v × B
6
Come si deduce dal prodotto vettoriale, la forza è perpendicolare al piano in cui giacciono
il campo e la velocità. Per questo la forza non compie lavoro e dunque non cambia
l’energia cinetica delle particelle, ma è ottima per incurvarle.
Come il campo elettrico, anche il campo magnetico dipende dalla “forma” delle correnti (e
quindi dal filo conduttore in cui scorrono).
In questo caso, un campo omogeneo è dato da un solenoide. Un solenoide non è altro
che una bobina ovvero un avvolgimento di filo di forma cilindrica.
Le particelle che si muovono perpendicolarmente a questo tipo di campo, compieranno
un’orbita circolare descritta da queste due formule, che ci serviranno in seguito:
!
m v
R= ⋅ !
q B
m 2π
T= ⋅ !
q B
Dove: T è il periodo di rivoluzione, R è il raggio di rivoluzione, m e q sono la massa e la
carica della particella, v è la velocità e B è il campo magnetico.
Come si può notare, il periodo è costante mentre il raggio è proporzionale alla velocità.
2.4 E=mc2
L’importanza di questa formula è data dal fatto che essa sancisce l’uguaglianza tra massa
ed energia. In determinate circostanze può accadere infatti che una certa quantità di
energia si trasformi in massa; o viceversa, come avviene nell’annichilazione tra materia e
antimateria. Un evento di questo tipo potrebbe lasciare perplessi, perchè oltre ad essere
contro intuitivo, significherebbe veder crollare due capisaldi della fisica: i principi di
conservazione della massa e dell’energia. Ma proprio questa formula ci dice che in realtà
sono la stessa cosa. Si parla dunque di conservazione della somma della massa e
dell’energia. Per questo le masse delle particelle vengono spesso misurate in elettronvolt
(sottintendendo il fattore 1/c2), un’unità di misura dell’energia; un protone ha una massa di
circa 1 GeV, un elettrone 0,5 MeV.
La possibilità di trasformare massa in energia sta alla base del funzionamento delle
centrali nucleari. Il processo opposto sta invece alla base della fisica delle alte energia
fatta con gli acceleratori.
I fisici infatti, oggi, non fanno urtare le particelle per romperle e studiare da cosa sono
composte, ma studiano le particelle che si creano dall’energia dell’urto.
Per questo gli acceleratori possono essere considerati delle fabbriche di particelle.
7
Un’altra conseguenza dell'uguaglianza tra massa ed energia, è l'impossibilità di superare
la velocità della luce. Questo è dovuto al fatto che se una particella accelera aumenta la
sua energia cinetica; ma se aumenta la sua
energia aumenta anche la sua massa,
dunque per il secondo principio della
dinamica, all’aumentare della velocità, è
necessaria una forza sempre maggiore per
continuare ad accelerare la particelle.
L’aumento della massa è, per le velocità
umane insignificante; persino alla velocità
del suono questo aumento è trascurabile.
Ma avvicinandosi alla velocità della luce il
tasso di aumento della massa cresce
vertiginosamente. Questo andamento si vede
bene nel grafico in figura 1.
Figura 1
Al 50% della velocità della luce, la massa aumenta ancora solo del 40%; al 90% la massa
diventa tre volte più grande; ad un miliardesimo in meno della velocità della luce, la massa
aumenterebbe di oltre un milione di volte. Questo spiega il fatto per cui, nonostante già i
primi acceleratori raggiungevano velocità prossime a quelle della luce, i fisici hanno
costruito acceleratori sempre più grandi e potenti, che a questo punto, sarebbe più
opportuno chiamare “massificatori”. Questo concetto risulta evidente se si pensa che è
stato necessario costruire una macchina gigantesca come l’LHC per passare da
99,9998% della velocità della luce raggiunta nel Super Proton Synchrotron1
99,9999991%.
1
L’acceleratore di 7 km ca. di circonferenza che precede l’LHC, vedi cap.4
8
a
3.
Evoluzione e scoperte degli acceleratori
3.1 Acceleratori naturali
Il più grande acceleratore di particelle non è in realtà LHC bensì il cielo. Ogni secondo
infatti ci piovono addosso una serie di particelle energetiche. Questa pioggia di particelle è
composta dai cosidetti raggi cosmici. Fu Victor Hess che, nel 1912 scopri che la
radiazione, già osservata nei decenni precedenti, giungeva non dalla terra, come si
pensava prima, bensì dall’universo.
I raggi cosmici sono formati prevalentemente da tre particelle: protoni, particelle alfa e
fotoni. La loro origine è varia, alcuni provengono dal sole e dalle altre stelle, ma la maggior
parte è originata da fenomeni cosmici molto energetici come l’esplosione di Supernove.
Anche l’energia di queste particelle spaziali varia, si va dai 3 GeV (un’energia modesta ma
comunque molto più alta dei primi acceleratori), fino ad
energia dell’ordine dei 1020 eV più alta di qualunque
acceleratore artificiale che potrà mai essere costruito
dall’uomo.
Quando una di queste tre particelle incontra un atomo
d’aria, si libera una gran quantità di energia che si
trasforma subito in massa sotto forma di una nuova
particella la quale presto decadrà o urterà un altro atomo
d’aria creando nuove particelle.
Questa pioggia di particelle raggiungerà il suolo con una
forma conica simile quella in figura 2.
Figura 2
Grazie hai raggi cosmici, nel 1932 Carl Anderson scoprì la prima di una lunga serie di
particelle subnucleari: il positrone, l’antiparticella dell’elettrone. Questa scoperta confermò
la possibilità di creare nuove particelle dall’energia degli urti e l’esistenza dell’antimateria
predetta qualche anno prima da Paul Dirac. Negli anni successivi vennero scoperte anche
altre particelle tra cui il Muone e il Pione. Queste scoperte aprirono la strada alla fisica
delle particelle.
9
Nonostante l’immenso potenziale però, i raggi cosmici sono difficilmente utilizzabili dai
fisici a causa della loro imprevedibilità. Per questo, fu chiaro fin da subito che se si
volevano scoprire le fondamenta ultime della materia era necessario poter studiare in
maniera accurata gli urti tra particelle riproducendo in laboratorio con acceleratori artificiali
quello che accade ogni istante sopra la nostra testa.
3.2 Acceleratori elettrostatici
La prima e più semplice tipologia di acceleratori è quella degli acceleratori elettrostatici. In
essi particelle cariche sono accelerate da un campo elettrico costante.
Il più semplice di questi è formato da un tubo di vetro sotto vuoto con agli estremi due
elettrodi, di cui uno, il catodo, viene riscaldato in modo tale che per effetto termoionico
emetta elettroni che vengono accelerati in direzione dell’anodo.
Il vuoto è un altro componente essenziale di tutti gli acceleratori, compresi quelli moderni,
che permette alle particelle di muoversi indisturbate.
Elettroni e raggi x
Questi apparecchi erano in circolazione già dalla metà del 1800 quando i fisici non
sapevano ancora cosa stessero accelerando. Lo scoprì nel 1897 Thomson il quale
affermò che la luminescenza, osservata tra i due elettrodi quando su di essi era applicato
un potenziale, era dovuta a particelle che chiamò elettroni. Poté affermare che fossero
particelle in quanto: mettevano in moto una piccola turbina posta sul loro cammino e non
attraversavano la materia ma venivano bloccati da un ostacolo. Inserendo
nell’esperimento un campo magnetico Thomson poté constatare che tali particelle
avevano carica negativa e fu in grado di calcolare il rapporto carica/massa.
Con lo stesso apparecchio due anni prima il fisico olandese Roentgen scopri i raggi X. Nel
corso dei suoi esperimenti Roentgen notò una luminescenza su un foglio fosforescente
dovuta, come intuì, a una radiazione sconosciuta emessa dagli elettroni che colpivano il
vetro. Successivamente, facendo alcune prove vide un'immagine mai vista: le ossa della
sua mano impresse in una lastra fotografica, la prima lastra della storia. Questa scoperta
gli fece vincere nel 1901 il primo premio Nobel della storia. Ma soprattutto fu importante in
quanto diede il via alla fisica fatta con gli acceleratori. Roentgen fu infatti il primo ad
utilizzare il suo apparato sperimentale come acceleratore a bersaglio fisso.
10
La prima reazione nucleare e il modello atomico
Questo nuovo modo di indagare la natura fu ampiamente utilizzato da Ernest Rutherford, il
quale, però, non utilizzò un acceleratore artificiale ma sfruttò un altro fenomeno naturale
per avere particelle ad alta energia: la radioattività. Il materiale che usò maggiormente fu il
radio il quale emette particelle alfa (nuclei di elio formati da due protoni e due neutroni) ad
una velocità superiore ai 20 000 km/sec. Racchiudendo il materiale radioattivo in un
contenitore con un foro ottenne dei fasci di particelle energetiche che poté utilizzare come
proiettili contro un bersaglio fisso. In questo modo osservò la prima reazione nucleare
della storia e soprattutto scoprì la struttura dell’atomo formulando il modello atomico oggi
conosciuto. Egli fece scontrare le particelle alfa contro una sottile lamina d’oro e studiò
tramite uno schermo fotosensibile (il rilevatore) come esse deviavano la traiettoria. Scoprì
con sua grande sorpresa che la maggior parte proseguiva il proprio percorso in linea retta,
mentre alcune venivano respinte e tornavano indietro. Spiegò questo fenomeno
introducendo un nuovo modello atomico in cui la massa di un atomo è quasi interamente
concentrata in un piccolo nucleo carico positivamente mentre gli elettroni orbitano intorno
ad esso.
In seguito ai risultati raggiunti Rutherford ribadì l’importanza di tale metodo d’indagine alla
Royal Society in cui espresse la necessità di “avere a disposizione una sorgente copiosa
di atomi che abbiano energia di gran lunga maggiore di quella delle particelle alfa, in modo
da sviluppare un campo di ricerca straordinariamente interessante”.
Il suggerimento venne subito accolto dall’università di Cambridge che finanziò la
costruzione di un acceleratore più potente. Nel 1932 Cockford e Walton realizzarono il
primo acceleratore di protoni che fu in grado di raggiungere 800 KeV e scindere in due
l’atomo di litio.
Ma gli acceleratori elettrostatici non sarebbero potuti andare lontano. L’energia che
possono fornire sarà infatti sempre e solo proporzionale alla differenza di potenziale che
l’apparecchio può raggiungere. Se le particelle dell’acceleratore di Cockford e Walton
raggiungevano gli 800 KeV significa, per definizione di elettronvolt, che tra i due elettrodi vi
era una differenza di potenziale di 800 000 V. Ma raggiungere alti potenziali è molto
difficile e comporta alcuni problemi come le scariche ad arco che danneggiano
l’apparecchio stesso.
11
3.3 Acceleratori lineari (LINAC)
Il problema degli alti potenziali venne risolto dal fisico norvegese Rolf Wideroe, il quale nel
1928 ebbe l’idea di accelerare le
particele attraverso più accelerazioni
consecutive anziché un’unica grande
accelerazione.
Nella figura 3 è rappresentato il
meccanismo di funzionamento di un
LINAC (dall’inglese LINear ACcelerator).
Le particelle cariche (in questo caso
elettroni) emesse dalla sorgente si
ritrovano davanti una cavità di materiale
conduttore caricata positivamente,
subiscono così una prima accelerazione
figura 3
in linea retta. Dopo aver attraversato la cavità se ne trovano davanti un’altra inizialmente
caricata negativamente, nel frattempo però il generatore di corrente alternata ha invertito il
segno della corrente nelle due cavità. La particella si trova così davanti alla prima cavità,
ora negativa che la respinge, e dietro la seconda cavità positiva che la attrae. In questo
modo la particella attraversa tutte le cavità dell’acceleratore subendo ogni volta
un’accelerazione che seppur piccola si va a sommare alle precedenti. Le cavità vengono
chiamate tubi di drift. Essi essendo di materiale conduttore sono al loro interno volumi
equipotenziali e quindi al loro interno, come in una gabbia di Faraday il campo elettrico è
nullo. In questo modo le particelle non subiscono l’influsso degli altri tubi, ma vengono
accelerate sono nello spazio intermedio tra due di essi chiamato gaps.
Per evitare di perdere la sincronia a causa dell’aumento di velocità, le cavità sono, come si
può notare dalla figura, di lunghezza crescente. In realtà a causa della diversa velocità
iniziale (ogni particella della sorgente ha infatti una sua velocità dovuta al moto di
agitazione termica) le particelle non saranno tutte in sincronia con il campo elettrico nei
gaps, ma alcune arriveranno in ritardo trovandosi davanti un campo di segno opposto che
le farà rallentare, torneranno ad accelerare quando il campo si invertirà ancora. Per questo
negli acceleratori lineari il fascio non esce in maniera continua ma sotto forma di pacchetti
di particelle chiamati bunch.
12
Questo meccanismo accelerante viene utilizzato ancora oggi, come vedremo, nei moderni
acceleratori circolari, ma al posto dei tubi di drift vengono usate le cavità a radiofrequenza
che sfruttano un campo elettromagnetico oscillante ad alta frequenza.
Ma anche gli acceleratori lineari hanno un limite di energia prodotta che sarà sempre
proporzionale alla lunghezza. Per ottenere le energie che raggiungono i moderni
acceleratori dovrebbero infatti avere una lunghezza superiore al raggio terrestre.
Ciononostante, i LINAC sono ancora utilizzati nei grandi acceleratori di oggi nel primo
stadio di accelerazione in quanto comodi per accelerare particelle “ferme”.
3.4 Il ciclotrone
Nel 1929 il professore statunitense Ernest Lawrence ebbe un’idea che rivoluzionò il
mondo degli acceleratori. L’idea geniale di Lawrence fu quella di unire un campo
magnetico al campo elettrico e costruire così acceleratori circolari anziché lineari. In tal
modo le particelle avrebbero subito un accelerazione ad ogni giro, che anche se piccola, si
sarebbe sommata a quella precedente.
I primi acceleratori circolari, costruiti da Lawrence sono chiamati ciclotroni.
Un ciclotrone è formato da due elettrodi cavi contenuti in una
camera a vuoto come quelli nella figura 4 e da un magnete
posto al di sopra ed al di sotto di essi, che genera un campo
magnetico uniforme e perpendicolare ad essi.
Le particelle sono iniettate al centro di esso e sono
accelerate similmente a quello che succede nei LINAC:
finché circolano all’interno degli elettrodi non subiscono
nessuna forza, mentre vengono accelerate nello spazio che
li separa. Dopo la prima accelerazione, a causa del campo
magnetico curveranno compiendo un’orbita circolare; una
volta tornati nello spazio tra i due elettrodi, il campo elettrico
sarà stato invertito così che l’elettrodo alle “spalle” della
particella la respinga e quello di fronte la attragga.
13
Figura 4
Il grande vantaggio del ciclotrone è che, utilizzando un campo magnetico uniforme e
perpendicolare, le particelle aumenteranno la velocità ed il raggio (da qui il moto a spirale)
ma manterranno, come abbiamo visto prima, il periodo di rivoluzione costante. In questo
modo la frequenza della corrente una volta stabilita, non dovrà essere più cambiata nel
tempo.
Al temine del loro percorso a spirale il fascio è deflesso da un magnete e prosegue in linea
retta fino ad un bersaglio fisso preposto. Lawrence si rese subito conto delle potenzialità di
una tale macchina e iniziò presto la costruzione di una lunga serie di ciclotroni sempre più
grandi e potenti.
Il primo aveva un diametro di 4 pollici (circa le dimensioni di una mano), ma già
raggiungeva l’energia dell’acceleratore elettrostatico di Cockford e Walton lungo più di un
metro. Il secondo era di 11 pollici e raggiungeva il milione di elettronvolt a partire da una
tensione di soli 4000 V. Lawrence proseguì con la costruzione di ciclotroni grazie a diversi
finanziamenti pubblici e privati, l’uso degli acceleratori aveva iniziato ad interessare, come
vedremo in seguito, l'ambito medico. L’ultimo che costruì aveva un diametro di 184 pollici
(4,7 m) e un magnete di 4500 tonnellate; venne invece finanziato dal governo USA in
quanto era avvenuto da poco l’attacco da parte del giapponesi a Pearl Harbour ed era
urgente, nel quadro del progetto Manhattan, trovare una tecnica riproducibile in larga
scala per separare l’isotopo uranio-235 dall’uranio-238.
Questo ciclotrone arriverà fino a 200 MeV, ma Lawrence nel costruirlo dovette tenere
conto dell’effetto relativistico, visto in precedenza, che già dalle decine di MeV non è più
trascurabile. Con l’aumentare della velocità infatti, la massa aumenta in maniera
esponenziale, per questo a parità di spinta data dal campo elettrico, tenderanno ad
accelerare di meno e impiegheranno così più tempo a compiere mezza rivoluzione
perdendo la sincronia con gli elettrodi.
3.4.1 Il principio di stabilità di fase
L’ultimo ciclotrone di Lawrence e tutti i moderni acceleratori circolari non potrebbero
funzionare se non fosse per il principio di stabilità di fase.
Scoperto indipendentemente dal russo Vladimir Veksler e dallo statunitense Edwind
McMillan, questo principio fa si che le particelle proseguano nel loro moto accelerato
anche se non perfettamente in sincronia con il campo elettrico oscillante.
Questo è dovuto al fatto che se una particella arriva, per esempio, in ritardo rispetto ad
una perfettamente in fase, troverà una tensione minore e verrà di conseguenza accelerata
14
meno; per questo, percorrerà una traiettoria con un raggio minore, impiegando meno
tempo a compiere un giro. In questo modo quando arriverà nel punto di accelerazione
leggermente in anticipo trovando una tensione più alta. Il risultato è che le particelle
leggermente fuori fase oscillano intorno a quelle in fase, formando un pacchetto stabile.
Questa stabilità si mantiene anche se viene modificata la frequenza della tensione.
Ciò permise di compiere un altro passo in avanti nell’evoluzione degli acceleratori:
modificare la frequenza della tensione alternata per correggere gli effetti relativistici.
Apportando questa modifica al suo ciclotrone da 184 pollici, Lawrence costruì così il primo
ciclosincrotone, in cui il periodo di oscillazione del campo elettrico aumentava durante
l’accelerazione, per correggere l’aumento di massa.
Anche il ciclosincrotrone presenta però un limite invalicabile: necessità di un campo
uniforme sull’intera superficie dell'acceleratore, che comporta, oltre ad un elevato peso del
magnete, costi eccessivi. L’ultima generazione di acceleratori risolverà questo problema
aggiungendo l’ultimo tassello dell’evoluzione degli acceleratori: un campo magnetico
variabile.
3.5 Il Betatrone
Prima di parlare dei sincrotroni, gli acceleratori oggi utilizzati per raggiungere alte energie,
vorrei parlare di un altro tipo di acceleratore chiamato betatrone.
Il betatrone non rappresenta un passo in avanti per il raggiungimento di alte energie, ma è
molto interessante in quanto sfrutta per l’accelerazione un principio totalmente diverso dai
precedenti: il fenomeno di induzione.
La struttura di un betatrone è simile a quella del ciclotrone: due magneti uno sopra l’altro
separati da una zona sotto vuoto per l’accelerazione, che in questo caso non è un cilindro
pieno ma un toroide2.
La variazione di flusso magnetico concatenato al toroide, per il fenomeno di induzione,
produce una forza elettromotrice che accelera gli elettroni (un tempo chiamati raggi beta,
da cui prende il nome il betatrone).
Mentre in un circuito composto da un conduttore, a causa dell’effetto joule, gli elettroni
dissipano energia e mantengono un velocità costante, nel toroide, al cui interno vi è il
2
toroide è il nome tecnico di un solido a forma di ciambella
15
vuoto, gli elettroni possono continuare ad accelerare fino a raggiungere velocità prossime
a quelle della luce.
Il campo magnetico variabile consente anche di avere, se modificato in modo da avere il
rapporto v/b costante, un raggio della traiettoria costante (vedi formula nel capitolo 2.3).
Il primo betatrone venne costruito da D.W.Kerst nel 1940 e raggiungeva un'energia di 2,3
MeV; nel 1950 arrivò a costruirne uno da 300 MeV, il massimo ottenibile da questo tipo di
acceleratore.
Oggi come all’ora il betatrone viene utilizzato principalmente per scopi medici in quanto
sorgente di raggi X.
3.6. Sincrotrone
Il sincrotrone è l’evoluzione finale (per ora) degli acceleratori. Diversamente dal ciclotrone,
in un sincrotrone le particelle percorrono un’orbita circolare di raggio costante, come in un
betatrone. Ma a differenza del ciclotrone e del betatrone, in un sincrotrone non vi è un
grande magnete unico, bensì tanti “piccoli” magneti disposti lungo la traiettoria. Ciò
consente di costruire anelli anche molto grandi (fino ai 27 km dell’LHC) con una quantità di
materiali notevolmente minore. Per far sì che le particelle mantengano la giusta traiettoria
circolare è necessario, come si è visto, che il campo magnetico vari in modo che il
rapporto v/b rimanga costante. Il limite di energia massima di un sincrotrone è dato quindi
alla forza centripeta massima che i magneti riescono a fornire.
Per ottenere più energia è necessario avere magneti più potenti oppure aumentare la
dimensione del sincrotrone per avere raggi di curvatura minori, e quindi diminuire la forza
centripeta necessaria.
Il nome sincrotrone è dato dal fatto che le particelle, accelerando impiegheranno sempre
meno tempo a compiere una rivoluzione, per questo è necessario che il periodo di
oscillazione del campo accelerante diminuisca in maniera sincronizzata. Se non fosse per
il principio di stabilità di fase sarebbe necessaria una precisione nella sincronizzazione
impossibile da ottenere in pratica. Non a caso i primi sincrotroni vennero costruiti, negli
anni ’50, proprio dai due scopritori di questo principio: McMillan e Veksler. Con queste
nuove macchine viene superato per la prima volta il miliardo di elettronvolt. Ma un
sincrotrone di questo tipo non è ancora sufficiente per raggiungere energia
sufficientemente elevate: persistono ancora dei problemi.
16
3.6.1 Focalizzazione forte
Il primo problema riguarda il mantenimento dei fasci in orbita. Le particelle, infatti, non
compiono un’orbita perfettamente circolare, ma oscillano verticalmente e radialmente. Per
questo, le “ciambelle” che le contengono devono essere abbastanza grandi affinché
oscillando, le particelle non urtino le pareti disperdendosi. All’aumentare dell'energia le
oscillazioni delle particelle aumentano: risulta necessario dunque aumentare le dimensioni
della ciambella e di conseguenza dei magneti deflettori. Dopo aver costruito nel
laboratorio nazionale di Brookhaven, negli stati uniti, un sincrotrone da 3,3 GeV (chiamato
Cosmotrone), venne calcolato che per ottenere un'energia 10 volte maggiore sarebbe
stato necessario impiegare 100 volte più ferro (200 000 tonnellate).
Questo problema venne risolto grazie all’invenzione della focalizzazione forte da parte di
Livingstone e Courant nel 1952. Questa nuova tecnica permise di ridurre notevolmente le
oscillazioni delle orbite e quindi le dimensioni e il costo dei magneti.
L’idea che ebbero i due fisici americani fu quella di aggiungere un campo magnetico
trasversale al campo magnetico verticale. Questo campo magnetico è dato da un
quadruplo: un magnete composto da due poli Nord e due poli Sud incrociati, disposti a
due a due.
Un quadrupolo converge le particelle lungo un piano verticale, ma le diverge lungo quello
orizzontale, un’altro quadrupolo con l’orientamento dei poli invertito agisce nella maniera
opposta.
L’azione combinata di più quadrupoli disposti in maniera alternata (uno convergente e
l’altro divergente) ha come effetto la focalizzazione totale del fascio. I nuovi sincrotroni che
utilizzano i quadrupoli, vengono chiamati a focalizzazione forte, in contrapposizione con i
precedenti chiamati a focalizzazione debole. L’importanza di quest’invenzione è evidente
nel confronto tra il Cosmotrone e l’LHC: il primo aveva una sezione della ciambella di 20
cm in verticale e 60 cm in orizzontale, il secondo trasporta i fasci in un tubo che ha un
diametro di non più di 5 cm pur conferendo alle particelle un’energia 1000 volte superiore
al primo. Nonostante ciò, la gestione del fascio rappresenta ancora oggi una delle difficoltà
principali nella costruzione di un acceleratore.
3.6.2 Bersaglio fisso vs bersaglio mobile
Finora abbiamo visto come avvengono accelerate le particelle, ma ai fisici non interessa
l’accelerazione in sé ma gli urti che producono e l’energia che ne deriva.
17
L’energia utile prodotta da un urto è quella disponibile nel baricentro della collisione. Nel
caso di urto tra una particella in movimento di energia E e una ferma di massa M, l’energia
nel baricentro è data dalla formula:
Eb = 2ME
La presenza della radice disturba i fisici in quanto per raddoppiare l’energia utile è
necessario quadruplicare l’energia della particella in moto. Questo è dovuto al fatto che
parte dell’energia è persa nello spostare il baricentro stesso.
Un modo molto più efficiente per ottenere più energia è quello di far scontrare due
particelle provenienti da direzioni opposte. In questo caso infatti l’energia nel baricentro è
semplicemente la somma delle energie delle due particelle; per avere un’energia doppia è
sufficiente raddoppiare l’energia fornita alle particelle.
Un acceleratore che sfrutta questo principio è chiamato collisore. L’idea del collisore di
particelle venne nel 1943 a Rolf Wideroe, l’inventore dell'acceleratore di particelle lineare.
Il problema di un collisore è che il numero di scontri (i fisici li chiamano eventi) si riduce di
molto rispetto ad uno scontro con bersaglio fisso. In un collisore infatti i pacchetti di
particelle si scontrano frontalmente, ma la stragrande maggioranza di esse prosegue
come se nulla fosse. È come se due gruppi di decine di persone camminassero l’uno
contro l’altro in una superficie di diverse migliaia di chilometri quadri: la probabilità che due
persone si incontrino è estremamente bassa.
Il numero di collisioni al secondo viene chiamata luminosità, ed è la grandezza che, oltre
all’energia, più interessa i fisici.
Per aumentare la luminosità si procede in due direzioni: intensificare il fascio (aumentare il
numero di particelle per pacchetto) e diminuire il diametro del fascio nel punto
d’intersezione.
Per quel che riguarda il primo punto, una svolta avvenne grazie all’invenzione degli anelli
di accumulazione da parte del fisico greco Bruno Touschek.
Un anello di accumulazione non è altro che un sincrotrone in cui le particelle vengono
iniettate in continuazione (per qualche minuto o talvolta per qualche ora) per poi essere
accelerate e fatte collidere.
Per concentrare il fascio nei punti d’intersezione si utilizzano invece dei magneti
particolari.
18
3.6.3 Cosa accelerare?
La caratteristica principale che devono avere le particelle per essere accelerate in questi
tipi di acceleratori è la carica elettrica; i neutroni da soli, non possono dunque essere
accelerati. In particolare, I fisici accelerano principalmente: elettroni e protoni, le rispettive
antiparticelle e ioni pesanti.
Gli scontri tra materia e antimateria hanno il grande vantaggio di produrre,
nell’annichilazione dell’urto, energia pura; in questo modo è molto più facile per i fisici
analizzare gli eventi in quanto non ci sono gli scarti presenti negli urti tra altre particelle.
Un altro importante vantaggio è il fatto che i fasci di particelle e antiparticelle grazie al fatto
che hanno carica opposta, potranno essere accelerate dalla stessa cavità a
radiofrequenza, ed essere deflesse dagli stessi magneti percorrendo esattamente la
medesima orbita. In questo modo è sufficiente costruire un unico anello invece dei due
necessari per accelerare in direzioni opposte particelle con la stessa carica, con il
conseguente risparmio di denaro. Il grosso svantaggio dell’utilizzo dell’antimateria è il fatto
che essa dev’essere prodotta artificialmente. Generalmente si preferisce far collidere
elettroni e positroni in quanto per produrre un antiprotone è necessaria un’energia 2000
volte superiore di quella necessaria per produrre un positrone. Inoltre il fenomeno è molto
più raro: occorre bombardare un bersaglio fisso con 10 milioni di protoni da 30 GeV per
produrre un solo antiprotone.
Al contrario, per far scontrare particelle uguali è necessario un doppio anello e produce urti
meno “puliti”; ma le particelle in questione sono molto più facili da ottenere.
Tra questa tipologia di scontri, quello ampiamente più utilizzato è quello tra protoni.
Questa scelta è dovuta alla radiazione di sincrotrone: quando particelle cariche
compiono un’orbita circolare, esse emettono energia sotto forma di radiazione
elettromagnetica, che di solito è di lunghezza d’onda corrispondente ai raggi X.
Per il principio di conservazione dell’energia, se da una parte l’energia aumenta, da
un’altra deve diminuire, quindi le particelle perdono energia cinetica che deve essere
rifornita ad ogni giro dalle cavità a radiofrequenza. Questa è un’altra ragione per cui è
necessario costruire acceleratori sempre più grandi: più grande è l’anello minore è la
perdita di energia.
La radiazione di sincrotrone emessa è inversamente proporzionale alla massa, per questo
i protoni, 2000 volte più pesanti degli elettroni, perdono ad ogni giro una quantità di
energia trascurabile. Accelerare elettroni/positroni invece è poco conveniente: nel LEP3 , il
3
Large Electron Positron collider: il grande acceleratore del CERN costruito nel 1989 e smantellato nel 2000
per lasciare il posto all’LHC.
19
più grande collisore di elettroni-positroni mai costruito, nonostante le notevoli dimensioni, i
fasci perdevano il 3% dell’energia ad ogni giro. Erano dunque necessarie molte cavità a
radiofrequenza. Al massimo della sua potenza raggiunse al massimo i 209 GeV; LHC pur
avendo lo stesso raggio raggiunge i 4 TeV.
Tuttavia, proprio perchè sorgenti di raggi X, gli acceleratori di elettroni vengono utilizzati
ampiamente in ambito medico.
Compiuto questo ulteriore passo in avanti, i sincrotroni iniziarono ad essere costruiti con
un ritmo frenetico, anche in seguito alla Guerra fredda tra Stati Uniti e Unione Sovietica.
La Seconda guerra mondiale aveva infatti dimostrato che la conoscenza dell’atomo, e
dell’energia in esso immagazzinata, poteva diventare un fattore determinante in caso di un
futuro conflitto mondiale.
La costruzione di acceleratori di particelle sempre più grandi rispecchiò così, a terra, lo
stesso spirito con cui le due potenze si contendevano il primato per la corsa allo spazio.
Diversamente da quest’ultima però l’Europa non rimase a lungo a guardare. Dato però che
il costo dei nuovi sincrotroni era in continuo aumento, e che le condizione economiche dei
paesi europei erano ancora disagiate a causa della Seconda guerra mondiale, fu chiaro fin
da subito che era necessaria una collaborazione internazionale. Nasce così, nel 1954, il
CERN: il Consiglio Europeo per la Ricerca Nucleare, che con la costruzione del LEP prima
e dell’LHC dopo, ha fatto dell'Europa il centro mondiale della fisica delle alte energia.
Addentriamoci ora nei sotterranei di Ginevra, dove, nell’opera più grandiosa che l’uomo
abbia mai creato, vengono fatti scontrare protoni, per svelare i misteri dell’Universo.
20
4.Large Hadron Collider
Il più grande acceleratore di particelle mai costruito è il Large Hadron Collider.
Mai prima nella storia dell’uomo era stato costruito qualcosa di altrettanto grande e
complesso. Nascosto 100 m sotto il suolo di Ginevra, vi è infatti una anello di 27 km di
circonferenza, che pur essendo, come vedremo, uno dei luoghi più freddi della galassia,
raggiunge, negli urti tra particelle una temperatura che supera di 100 mila volte quella del
nucleo solare (1500 miliardi di gradi Kelvin).
4.1 Il viaggio dei protoni
L’LHC è l’ultimo anello del complesso sistema di acceleratori del CERN; da questi ultimi, e
da qualsiasi altro acceleratore nel mondo, si discosta sia per dimensioni che per energia
ottenuta: un anello per domarli tutti appunto.
Il sistema di macchine del CERN (figura 5 pag 24) è il segno evidente dell’evoluzione
storica degli acceleratori.
Per addentrarci in questo mondo e capire cos’è veramente l’LHC ripercorriamo il percorso
che compiono i protoni.
Il lungo viaggio dei protoni parte nel Duoplasmatron
(nella figura a fianco), una bomboletta che
nonostante le dimensioni insignificanti, è sufficiente a
fornire protoni all’LHC per un tempo di gran lunga
superiore alla vita stessa dell’acceleratore!
Dal Duoplasmatron passano al LINAC2 (uno dei
diversi acceleratori lineari del CERN), dove ricevono
la prima accelerazione, e si formano, come abbiamo
visto, i pacchetti distinti. Dopodiché vengono condotti
nel primo acceleratore circolare chiamato Booster,
costruito successivamente, che ha il compito di intensificare il fascio. Il Booster è
composto infatti da 4 anelli concentrici in cui i fasci, terminata l’accelerazione, vengono
fusi in un unico fascio 4 volte più denso. Dopo il Booster i protoni entrano nel primo storico
sincrotrone del CERN: il Pronton Synchroton (PS) lungo 628 m ca., costruito nel 1959.
Raggiunta l’energia di 25 GeV le particelle escono dal PS e vengono iniettate nel Super
Proton Synchroton costruito nel 1976 che, con i suoi 7 km ca. di circonferenza, è tuttora il
21
più grande acceleratore che utilizza magneti convenzionali. Superati i 450 GeV, i protoni
vengono finalmente iniettati nell’LHC, in due fasci distinti, uno circolerà in senso orario e
l'altro in senso antiorario.
L’LHC infatti, al contrario dei suoi predecessori, è un collisore: in esso vengono fatti
scontrare protoni o nuclei di piombo, entrambi adroni, ovvero particelle composte da
quark. Come abbiamo visto, per accelerare in verso opposto particelle uguali, un anello
solo non basta: per questo LHC è formato in realtà da due anelli concentri, ognuno con i
suoi magneti e le sue cavità a radiofrequenza. In esso le particelle vengono accelerate
fino ai 3,5 TeV.
Un TeV in realtà è un’energia molto piccola se confrontata con quelle della nostra vita
quotidiana; corrisponde all’incirca all'energia
di una zanzara in volo. Ma le zanzare sono
composte da miliardi di miliardi di protoni,
mentre nell’LHC ogni singolo protone
raggiunge i 3,5 TeV. Quello che conta
infatti è la densità dell’energia, che in
questo caso è elevatissima.
Per raggiungere un energia così elevata
l’LHC utilizza magneti costruiti in materiali
superconduttori 4. In questo modo è
possibile ottenere campi magnetici
estremamente più elevati di quando sia possibile con magneti convenzionali. Questi ultimi
infatti al passare della corrente si scaldano per effetto Joule, e oltre una certa corrente
fondono. Nei magneti superconduttori invece è possibile far circolare una corrente di oltre
1200 Ampere, ottenendo un campo magnetico di 8 Tesla, senza che la temperatura
aumenti.
Per far sì che la resistenza all'interno del conduttore sia nulla, i magneti devono essere
mantenuti ad una temperatura di appena 2 K (-271 °C).
Per mantenere gli oltre 9000 magneti a questa temperatura è stato costruito il più grande
sistema criogenico del mondo. Questo sistema sfrutta l’elio liquido, un superfluido che
analogamente ai superconduttori, sotto una certa temperatura perde la resistenza allo
scorrimento. Basta però un piccolo malfunzionamento del sistema refrigerante e nei
4
I superconduttori sono materiali che sotto una certa temperatura critica, azzerano totalmente la resistenza
al passaggio di corrente.
22
magneti la resistenza passa da zero ad un valore non nullo. In questa condizione i 12000
ampere che prima attraversavano i magneti senza accorgersene, li surriscaldano
istantaneamente fino a fonderli provocando quello che i tecnici chiamano quench, come
accadde nel 2008 in fase di collaudo. Dopo questo incidente, l’LHC ha funzionato alla
metà dell’energia di progettazione; dopo la manutenzione in corso in questi mesi (che ci
ha consentito la visita) raggiungerà finalmente i 14 TeV nel baricentro dell’urto. Anche
l’impianto per il vuoto è il più grande e complesso mai costruito: nel tubo del fascio si
raggiungono le 10-13 atm, un vuoto dieci volte più spinto di quello della superficie della
Luna.
Ognuno dei due fasci è accelerato da solo 8 cavità a radiofrequenza superconduttrici;
sono davvero poche se si pensa che nel LEP, che raggiunse al massimo 209 GeV, ne
utilizzarono fino a 344. Una volta raggiunta la massima energia, i fasci compiono in un
secondo 11 000 volte i 27 Km dell’anello. A questo punto sono pronti per essere fatti
collidere nei quattro punti dove sono posti i rilevatori. In questi punti, per aumentare la
luminosità, il fascio che ha uno spessore di circa 100 micron viene ulteriormente ristretto
da potenti magneti a 16 micron. In queste condizioni i 2808 bunch dei due fasci, ciascuno
composto da circa 1012 protoni, producono fino a 600 milioni di urti al secondo. Per questo
l’LHC è anche la più grande fabbrica di dati al mondo, con una tasso di produzione di 10
TeraByte al secondo.
Dopo alcune ore di scontri, i bunch sono ormai troppo poco densi e non producono più
scontri sufficienti. Così, finito il suo ciclo, il fascio viene deviato e fatto scontrare contro un
blocco di grafite.
4.2 Le difficoltà
Costruire una macchina di queste dimensioni non è certo facile, lo è ancora meno se si
pensa che essa lavora con particelle invisibili all’uomo.
Mi colpisce particolarmente il fatto che i giganteschi magneti lunghi 16 m e pesanti fino a
40 tonnellate, siano stati dovuti posizionare con una precisione inferiore ai 150 micron. Il
fascio infatti ha un’elevata energia e se sbattesse contro le pareti potrebbe surriscaldarle
provocando un quench. I magneti poi subiscono elevatissime sollecitazioni meccaniche
dovute al raffreddamento e agli elevati campi magnetici che essi stessi generano.
Bisogna inoltre tenere conto delle variazioni di temperatura stagionali, che per il fenomeno
di dilatazione termica modificano la lunghezza dell’anello.
23
Oltre alle stagioni poi, i tecnici devono anche guardare il calendario per tenere d’occhio la
luna!
Il fenomeno delle maree è ben noto: a causa della diversa posizione della luna, le masse
d’acqua dei mari cambiano il loro livello. Meno noto è invece il fatto che anche la terra
solida, composta da rocce elastiche subisce l'influsso della Luna. Quando il nostro satellite
è sopra a Ginevra, il suolo si alza di circa 25 cm 5. Questo spostamento produce una
variazione di circa un millimetro della circonferenza dell’LHC. Per quanto piccola, questa
variazione si accumula per i milioni di giri che compiono i protoni. Ben presto così le
particelle si ritrovano fuori dall’orbita.
Nel LEP le particelle, più leggere, sentivano persino l’influsso dei treni in partenza alla
stazione di Ginevra.
Bisogna poi tener conto che i protoni hanno tutti carica positiva e dunque tenderanno a
respingersi. Al contrario, gli elettroni dei materiali che compongono il tubo, verranno
attratti, e alcuni di essi strappati da esso. Accade dunque che il fascio viene contaminato
da questi elettroni. Per ovviare a questo problema, viene fatto circolare all’inizio un fascio
particolarmente denso con l’unico scopo di strappare buona parte degli elettroni liberi.
4.3 Perchè costruire LHC
In questa tesina mi sono concentrato quasi
esclusivamente su come vengono accelerate le
particelle; per parlare di cosa è stato scoperto e di
cosa si sta cercando oggi sarebbe necessaria
come minimo una tesina altrettanto lunga. Per
questo mi limiterò a descrivere a grandi linee
quello che stanno cercando oggi al CERN.
Figura 5
Uno dei motivi principali per cui è stato necessario costruire questa macchina è la ricerca
della fantomatica “particella di Dio”. Ipotizzata nel 1964 da ben 6 fisici diversi, il bosone di
Higgs è il tassello mancante del Modello Standard, una teoria che descrive il
comportamento di tutte le particelle elementari. In particolare esso spiega l’origine della
diversa massa delle particelle descritte da questo modello.
5
questo innalzamento non è osservabile in quanto tutto il suolo si alza insieme e non vi è un punto di
riferimento fermo.
24
Nel 2012, i due esperimenti CMS e ATLAS, hanno potuto finalmente annunciare la tanto
ambita scoperta, che era sfuggita di pochissimo ai due grandi acceleratori precedenti: il
Tevatron di Chicago e il LEP.
Nell’esperimento LHCb si studiano invece in particolare gli adroni formati da quark b, per
capire meglio il motivo della violazione della simmetria CP.
Infine, come abbiamo visto, negli acceleratori si studia anche l’origine dell’Universo. Per
questo, nell’esperimento ALICE, vengono analizzati gli urti tra nuclei di piombo, che
creano situazioni simili a quelle del plasma primordiale (un plasma di quark e gluoni).
Studiando questi eventi si cerca di capire come mai, nonostante nel Big Bang sia stata
creata una quantità uguale di materia e antimateria, nell’universo odierno, vi sia quasi
esclusivamente materia ordinaria.
5. Futuro
Ma i fisici, insaziabili di alte energie, non si fermeranno all’LHC. Il passo successivo sarà
un upgrade dell’LHC che intorno al 2020 cambierà nome in High Luminosity LHC,
proponendosi di aumentare la luminosità di un fattore 10, con nuovi magneti in grado di
arrivare a 13 Tesla (oggi arrivano a 8 T). In un futuro più lontano, potrebbe venir costruito,
sempre a Ginevra, il Very Large Hadron Collider con una circonferenza di 100 km.
Sul fronte collisori elettroni-positroni, torneranno ad essere costruiti acceleratori lineari, per
ovviare al problema delle radiazioni di sincrotrone. I due progetti più importanti sono CLIC
(Compact LInerar Collider) del CERN e ILC (International Linerar Collider) proposto da
una collaborazione internazionale guidata da Stati Uniti e Giappone. Questi due
acceleratori potrebbero raggiungere i 3 TeV di energia.
25
6. Fine del mondo e viaggi nel tempo
Quando gli acceleratori iniziarono a raggiungere energie elevate, iniziarono a nascere
problemi di sicurezza. Come accadde per la detonazione di prova del primo ordigno
nucleare6, i fisici si chiesero se gli esperimenti che stavano portando avanti avessero
potuto distruggere il pianeta, o addirittura l’Universo. Sono 4 i principali eventi catastrofici
che presero in consideratone.
6.1 Buchi neri
Uno degli scenari possibili è quello della formazione di un buco nero che in poco tempo
inghiottisca l’intero pianeta. Per formare un buco nero è necessario comprimere un
numero elevato di particelle in uno spazio talmente piccolo in modo che la gravità faccia
collassare la pallina di materia su se stessa. Ma per riuscire in un impresa simile sarebbe
necessaria un’energia di gran lunga superiore a quella ottenibile con gli acceleratori di
oggi e dell'immediato futuro. Se anche venisse creato poi, sarebbe così piccolo da
evaporare in pochissimo tempo, come dimostrò Stephen Hawking nel 1975.
6.2 Monopoli magnetici
I monopoli magnetici non esistono in natura. Ma i fisici non escludono che in situazioni
straordinarie possano essere creati. Un monopolo magnetico sarebbe potenzialmente
pericoloso in quanto trasformerebbe protoni e neutroni in altre particelle, vaporizzando la
materia ordinaria. Anche in questo caso però gli acceleratori artificiali non sarebbero mai in
grado di produrli: la particella più pesante scoperta finora è il quark top la cui massa è 170
GeV, un monopolo magnetico, se esistesse, dovrebbe avere una massa di un milione di
milioni di volte superiore.
6.3 Decadimento del vuoto
Il vuoto per i fisici è tutt'altro che vuoto: esso infatti è pieno di campi e particelle che
nascono e muoiono in continuazione. Tutte le interazioni e le leggi della Natura sono
caratterizzate da questo tipo di vuoto in cui viviamo. Il problema è che non si sa se il vuoto
che ci circonda sia sufficientemente stabile o meno.
6
I fisici in questo caso si chiesero se era possibile incendiare l’atmosfera terrestre in seguito all’energia
scatenata della bomba.
26
Dal momento che la Natura tende sempre a raggiungere lo stato con la minore energia
possibile, se ci fosse un altro tipo di vuoto più stabile, un impulso di elevata energia
potrebbe scatenare il decadimento del vuoto che ”conosciamo” in questo nuovo vuoto.
Questa potenziale spinta potrebbe essere data dall'energia di un urto tra particelle in un
acceleratore. In un ipotesi simile, non sarebbe in pericolo solo il nostro pianeta ma l’intero
universo, in quanto il nuovo vuoto (e le nuove leggi naturali) si propagherebbe in tutte le
direzioni alla velocità della luce.
6.4 Varchi spaziotemporali
Un’altra ipotesi, meno spaventosa e più affascinate, è la possibilità che un acceleratore
renda possibili i viaggi nel tempo.
I fisici ritengono infatti che una quantità di energia estremamente elevata, possa produrre
onde d’urto in grado di distorcere un piccola porzione di spaziotempo. Verrebbe creato
così un varco spazio-temporale.
La più convincete confutazione a questi scenari ci viene data dalla Natura stessa. Come
abbiamo visto infatti intorno a noi avvengono, ogni secondo, moltissimi urti dovuti ai raggi
cosmici, molto più energetici di quelli che avvengono negli acceleratori. Inoltre questi urti
non avvengono solo nel nostro pianeta ma anche in tutti gli altri corpi dell’Universo. È stato
stimato che i raggi cosmici producono tanti urti quanti produrrà l’LHC per tutto il suo
periodo di attività, 10 000 miliardi di volte al secondo.
Un evento come quelli visti sopra, insomma, sarebbe già dovuto accadere.
7. I rilevatori: come vedere qualcosa che non si vede
Lo sviluppo degli acceleratori sarebbe stato inutile se non ci fosse stato, parallelamente, lo
sviluppo dei rilevatori di quello che accade negli urti.
Il primo rilevatore fu l’occhio umano: Thomson vide la fluorescenza degli elettroni. Il passo
successivo fu quello dei rilevatori a scintillazione, in cui uno schermo sensibile produce
una piccola fluorescenza locale se colpito da una particella 7. Un rilevatore di questo tipo fu
7
La fluorescenza era molto flebile: i collaboratori di Rutherford impiegavano diverse ore per abituassi al buio
e poterla osservare; è probabile che al giorno d’oggi non sarebbe possibile ripetere questo esperimento dal
momento che i nostri occhi sono abituati a ricevere più luce, anche di notte.
27
utilizzato da Rutherford per conoscere l’angolo con
cui le particelle alfa rimbalzavano contro la lamina
d’oro.
Un altro principio sfruttano invece le camere a
nebbia e a bolle, e le lastre fotografiche. Questi
rilevatori sono composti da un materiale sensibile
che, se attraversato da una particella carica lascia
una traccia (simile a quelle nella figura a fianco)
che può essere fotografata e studiata.
Nelle lastre fotografiche ci sono delle sostanze
chimiche chiamate emulsioni nucleari che vengono
impressionate. Nelle camere a nebbia invece c’è un
gas sovrassaturo che si condensa lungo la traiettoria della particella lasciando una scia di
goccioline.
Nelle camere a bolle invece si usa come materiale sensibile un liquido in uno stato
instabile sull’orlo dell’ebollizione; nel percorso della particella carica, il liquido bolle
lasciando una scia di bollicine.
Questi strumenti però si rivelarono insufficienti quando aumentò il numero di collisioni da
analizzare. Un notevole passo avanti fu fatto nel 1959, grazie all'invenzione delle camere
multifili da parte di Georges Charpak. Una camera a multifili è composta da tanti fili
metallici paralleli immersi in un gas speciale. Al passaggio di una particella carica, il gas si
ionizza e le nuvolette di elettroni vengono raccolte dai fili traducendosi in veloci segnali
elettrici che vengono registrati da un
computer. Si passa dunque dall’analogico
al digitale.
Anche negli enormi rilevatori di oggi, si
utilizzano ancora le camere a multifili,
accompagnate da rilevatori al silicio che
misurano con precisione micrometrica la
traiettoria della particelle. Nella foto a
fianco è raffigurato un urto ricostruito
tridimensionalmente da un computer.
Un’altro componente dei rilevatori è un campo magnetico che fornisce alcune informazioni
come la carica e l’energia di una particella: a seconda di come viene deviata una particelle
essa avrà più o meno energia.
28
Nel rilevatore dell’LHC che abbiamo potuto vedere, il Compact Muon Solenoid (CMS) c’è il
più grande solenoide superconduttore al mondo. Per riuscire ad incurvare in maniera
significativa le particelle super-energetiche del LHC infatti servono campi magnetici
intensissimi che agiscano in un tratto molto lungo.
Il CMS con i suoi 16 metri di altezza e 22 di lunghezza è davvero impressionante visto dal
vivo; anche in questo caso ci vorrebbe una tesina apposita per analizzarlo più nel
dettaglio.
8. Come gli acceleratori hanno cambiato la nostra vita
Lo sviluppo e le scoperte degli acceleratori hanno influenzato in maniera decisiva la nostra
vita in diversi modi: sia direttamente, per quello che hanno scoperto; sia indirettamente per
il solo fatto di essere costruiti.
Gli acceleratori, nati per scopi di ricerca, sono oggi diffusissimi; il 60% è usato in ambito
industriale, il 35% in campo medico mentre LHC e compagni rappresentano solo il 5%.
Particolarmente importante è il loro utilizzo in campo medico; basti pensare che con il
primo acceleratore, Roentgen scoprì i raggi X, oggi utilizzatissimi in tutti gli ospedali per le
diagnosi dei pazienti (la famosa TAC).
Un altro strumento di diagnosi nato grazie agli acceleratori è la Positron Emission
Tomography (PET), che utilizzando fasci di positroni permette di analizzare il metabolismo
interno del paziente. Ma gli acceleratori non si limitano alla diagnosi, sono molto utilizzati
anche per la cura dei tumori. Con la radioterapia (che utilizza raggi X) e la protonterapia
(che utilizza invece adroni) oggi vengono curati quasi il 50 % dei malati.
Importantissimo è anche l’uso degli acceleratori in campo industriale. Per esempio, lo
spettrometro di massa permette di conoscere la composizione di un materiale:
accelerando particelle e immergendole in un campo magnetico uniforme (come avviene in
un ciclotrone), si può risalire alla loro massa misurando il raggio della loro traiettoria
(raggio di ciclotrone).
Di portata straordinaria sono anche le conseguenze indirette che la costruzione degli
acceleratori hanno portato all’umanità. La ricerca nel ben mirato campo della fisica
subnucleare, ha infatti portato innovazioni tecnologiche rivoluzionare, in maniera simile a
quello che avviene in campo militare, ma con scopi sicuramente più nobili. L’esempio più
29
eclatante è l’invenzione del Word Wilde Web (WWW)8 ad opera di Tim Berners Lee, un
dipendente del CERN che cercava un modo per mettere in collegamento i fisici di tutto il
mondo affinché potessero suddividersi l’immensa mole di dati prodotti dagli acceleratori.
Altrettanto significativo è l’invenzione del touch screen avvenuta nel 1976, sempre al
CERN, per gestire più velocemente i computer di controllo.
Non è ancora chiaro invece quello che si potrà fare con la scoperta delle innumerevoli
particelle subnucleari, per esempio, non si sa ancora quali potrebbero essere le
applicazioni pratiche della scoperta del bosone di Higgs; d’altronde neanche Thomson
aveva idea di cosa si potesse fare con la scoperta dell’elettrone. Non sapeva che
l’elettrone avrebbe cambiato il mondo.
Una delle proposte più fantascientifiche è quella di creare, tramite la manipolazione del
campo di Higgs, armi di distruzione di massa, letteralmente parlando, che polverizzino
cioè la materia.
Concludo con le parole di Dario Menasce che nel libro “Diavolo di una particella” scrive in
favore della ricerca pura:
“se alla fine dell’Ottocento fosse invalso il principio di finanziare essenzialmente la ricerca
industriale, oggi avremmo forse delle candele eccezionali, ma solo candele.”
8
Il sito del CERN è il primo sito web della storia!
30
Bibliografia
Testi a stampa
• Ian Sample, Higgs e il suo bosone, Milano, Mondadori, 2010, trad, Paolo Bartesaghi
(Massive: the hunt for the God Particle).
• Dario Menasce, Diavolo di una particella, Lavis, HOEPLI, 2012.
• Amaldi, Sempre più veloci, Bologna, Zanichelli, 2012.
• Stephen Howking, dal Big Bang ai buchi neri, Milano, Rizzoli, 1988.
• Richard Feynman, Sei pezzi facili, ADELPHI, Milano, 2000.
• J.R.R.Tolkien, The Lord of the Ring, HarperCollinsPublishers, London, 1954.
Siti web
• http://home.web.cern.ch/about, consultato il 27/05/14
• http://web.ihep.su/dbserv/compas/src/mcmillan45/eng.pdf, consultato il 27/05/14
• http://it.wikipedia.org/wiki/Acceleratore_di_particelle, consultato il 27/05/14
• http://cds.cern.ch/record/1092437/files/CERN-Brochure-2008-001-Eng.pdf, consultato il 27/05/14
• http://it.wikipedia.org/wiki/Large_Electron-Positron_Collider, consultato il 03/06/14
• http://it.wikipedia.org/wiki/Large_Hadron_Collider, consultato il 03/06/14
• http://en.wikipedia.org/wiki/High_Luminosity_Large_Hadron_Collider, consultato il 03/06/14
• http://hilumilhc.web.cern.ch/HiLumiLHC/index.html, consultato il 03/06/14
• http://www.borborigmi.org/2012/02/17/rivelatori-di-particelle-a-lhc-quarta-parte-solenoidi-etracciatori/, consultato il 03/06/14
• http://it.wikipedia.org/wiki/Compact_Muon_Solenoid, consultato il 03/06/14
• http://lhcitalia.infn.it/index.php/cms, consultato il 07/06/14
• http://it.wikipedia.org/wiki/Camera_a_bolle, consultato il 07/06/14
• http://it.wikipedia.org/wiki/Camera_a_nebbia, consultato il 07/06/14
• http://it.wikipedia.org/wiki/ALICE, consultato il 07/06/14
• http://www.pd.infn.it/masterclasses/2005/acceleratori&rivelatori.pdf, consultato il 07/06/14
• http://it.wikipedia.org/wiki/Relativit%C3%A0_ristretta, consultato il 07/06/14
• <Http://it.wikipedia.org/wiki/Strangelet>, consultato il 07/06/14
31
Un particolare ringraziamento a:
• Nicolò Biancacci, ricercatore al CERN, consultazione via mail.
32