Antonio Merlini 30/06/2014 CERN-OPEN-2014-031 UN ANELLO PER DOMARLI TUTTI Viaggio nel mondo degli acceleratori di particelle Liceo scientifico “A.Sorbelli” di Pavullo nel Frignano (Modena) anno scolastico 2013-2014 Classe 5a sezione A - indirizzo P.N.I. Abstract Questa tesina tratta degli acceleratori di particelle. I motivi della loro nascita, la loro evoluzione, il loro presente e il loro futuro. Particolare attenzione sarà data al Large Hadron Collider, il più grande di essi e la più incredibile macchina mai realizzata dall’uomo. Inoltre si parlerà dei rilevatori, che permettono lo studio di particelle invisibili all’uomo; del fatto che gli scienziati non escludono che gli strumenti che utilizzano possano potenzialmente distruggere il pianeta; e di come gli acceleratori hanno cambiato la nostra vita. 2 INDICE 1. Perchè i fisici accelerano le particelle 2. I principi fisici di funzionamento 2.1 La sorgente 2.2 Campo elettrico 2.3 Campo magnetico 2.4 E=mc2 3. Evoluzione e scoperte 3.1 Acceleratori naturali 3.2 Acceleratori elettrostatici 3.3 Acceleratori lineari (LINAC) 3.4 Ciclotrone 3.4.1 focalizzazione forte 3.5 Betatrone 3.6 Sincrotrone 3.6.1 Focalizzazione forte 3.6.2 Bersaglio fisso vs bersaglio mobile - i collisiori 3.6.3 Cosa accelerare? 4. LHC 4.1 Il viaggio dei protoni 4.2 Le difficoltà 4.3 perchè costruire l’LHC 5. Acceleratori futuri 6. Fine del mondo e viaggi nel tempo 6.1 Buchi neri 6.2 Decadimento del vuoto 6.3 Monopoli magnetici 6.4 Varchi spazio-temporali 7. I rilevatori 8. Come hanno cambiato la nostra vita 3 1. Perchè i fisici accelerano le particelle? Prima di partire per questo viaggio nel mondo degli acceleratori di particelle e studiarne la lunga evoluzione, è necessario capire quali ragioni hanno spinto i fisici a costruire queste macchine, e più recentemente i governi mondiali a spendere così tanti soldi per la loro costruzione. Ci sono almeno tre buoni motivi, derivanti da due limiti invalicabili imposti dalla natura, per cui la fisica dell’ultimo secolo si è basata su tali apparecchi. 1- Il primo limite è l’impossibilità di osservare direttamente oggetti troppo piccoli. Ciò è dovuto al fatto che, in generale, un oggetto per essere osservato deve essere colpiti da altri oggetti (in genere fotoni) che abbiano una lunghezza d’onda minore dell’oggetto da osservare. Come in una macchina fotografica: se vuoi osservare un oggetto i pixel devono essere minori di esso. Per raggiungere lunghezze d’onda minori vengono utilizzati microscopi elettronici che utilizzano elettroni al posto dei fotoni in quanto i primi raggiungono lunghezze d’onda assai inferiori. Ma c’è un limite alla lunghezza d’onda utilizzabile per due motivi: il primo è che i nostri occhi sono sensibili a un campo ristretto di lunghezza d’onda, e sotto ai 350 nm sono praticamente ciechi; il secondo è il fatto che la lunghezza d’onda è inversamente proporzionale all’energia, per questo diminuendo la prima cresce l’energia che va a colpire l'oggetto da osservare rischiando di fonderlo o comunque di modificarne la natura rendendone inutile l’osservazione. Per questa ragione gli acceleratori possono essere considerati i più potenti microscopi che l’uomo ha a disposizione, con la differenza che non ci permettono di vedere direttamente le particelle subatomiche ma ci consentono di conoscerne la natura in maniera indiretta. 2- Ma gli acceleratori moderni, e questo è il secondo buon motivo, non si limitano a farci conoscere le particelle subatomiche, ma creano nuove particelle grazie alla famosa relazione tra massa ed energia scoperta da Einstein: E=mc2, di cui parlerò più approfonditamente in seguito. 3- Il terzo ed ultimo motivo interessa invece gli astrofisici. Per quanto si sforzino di costruire apparecchi avanzati infatti, gli astrofisici non potranno mai osservare direttamente quello che accadde prima di 380 000 anni dal Big Bang in quanto prima di tale periodo, a causa dell’elevata temperatura, la materia era sotto forma di plasma che è 4 opaco alla radiazione elettromagnetica dato che assorbe tutti i fotoni presenti. Ogni segnale di onda elettromagnetica è nato dunque dopo 380 000 anni, quando, con il diminuire della temperatura, iniziarono a formarsi i primi atomi. Questo limite è aggirato proprio dagli acceleratori che ricreano le condizioni di elevata energia dei primi istanti di vita dell’universo. Costruire acceleratori più potenti significa, dunque, osservare dettagli più piccoli (l’LHC arriva fino a 10-19 m), osservare particelle più pesanti e mai viste prima e spingersi sempre più indietro nel tempo fino ai primissimi istanti di vita dell’universo. 2. I principi fisici alla base Ogni acceleratore che si rispetti ha bisogno di tre ingredienti di base: una sorgente di particelle cariche, un campo elettrico per imprimere un’accelerazione alle particelle e un campo magnetico per mantenerle in orbita in caso di acceleratore circolare. 2.1 La sorgente Le particelle che vengono utilizzate maggiormente dai fisici sono: elettroni, protoni, le rispettive antiparticelle e ioni pesanti. Per quel che riguarda gli elettroni il metodo maggiormente utilizzato per produrli è quello di strapparli per effetto termoionico da un metallo, quindi accelerarli direttamente. I protoni e gli ioni pesanti vengono invece ricavati dagli atomi strappando con un potenziale elettrico gli elettroni. Per le antiparticelle la questione è invece più complicata. Esse, infatti, non si trovano in natura ma devono essere prodotte facendo scontrare altre particelle. Le antiparticelle prodotte, inoltre, emergono con energie diverse, per questo devono passare attraverso un anello di smorzamento (un acceleratore circolare apposito) in cui attraverso una tecnica chiamata raffreddamento stocastico (che agisce quindi in maniera statistica e non sulle singole particelle) vengono raggruppate in pacchetti omogenei. 5 2.2 Il campo elettrico Tutti gli acceleratori artificiali utilizzano, per l’accelerazione vera e propria, la forza elettrica data dal campo elettrico. Il campo elettrico è una proprietà dello spazio-tempo dovuta alla presenza di una o più cariche elettriche chiamate sorgenti del campo. Questo campo esercita una forza F su un’altra carica q che è espressa dalla formula: ! " F = qE La direzione della forza coincide con la direzione del campo, il verso dipende dal segno della carica: se negativa, il verso è opposto a quello del campo; se positiva, il verso è invece lo stesso. Le linee di flusso del campo elettrico dipendono dalla forma della distribuzione di carica. Un esempio significativo sono due distribuzioni piane infinite di carica (una con il segno opposto all’altra), che se parallele tra di loro generano un campo omogeneo, uguale in ogni punto in direzione, verso e modulo. Nella pratica si utilizza un dispositivo chiamato condensatore a facce piane. In ambito di fisica delle particelle ed acceleratori, è molto utilizzato l’elettronvolt (eV) come unità di misura. Un elettronvolt coincide all’energia che acquista o perde un elettrone quando viene accelerato da una differenza di potenziale di un Volt. Un elettronvolt è un’energia molto bassa, coincide con 1,6*10-19 Joule. 2.3 Campo magnetico Come vedremo, le particelle non sempre proseguono in linea retta, ma compiono orbite circolari, e devono quindi essere deflesse. Per incurvare le particelle i fisici utilizzano la forza magnetica. La forza magnetica agisce su particelle cariche che si muovono immerse in un campo magnetico. Il campo magnetico è generato da correnti di particelle cariche (le sorgenti). La direzione del campo coincide con quella della direzione di forza nulla, se una particella si muove lungo tale retta, non subirà nessuna forza. La forza è data dalla formula: ! ! ! F = q⋅v × B 6 Come si deduce dal prodotto vettoriale, la forza è perpendicolare al piano in cui giacciono il campo e la velocità. Per questo la forza non compie lavoro e dunque non cambia l’energia cinetica delle particelle, ma è ottima per incurvarle. Come il campo elettrico, anche il campo magnetico dipende dalla “forma” delle correnti (e quindi dal filo conduttore in cui scorrono). In questo caso, un campo omogeneo è dato da un solenoide. Un solenoide non è altro che una bobina ovvero un avvolgimento di filo di forma cilindrica. Le particelle che si muovono perpendicolarmente a questo tipo di campo, compieranno un’orbita circolare descritta da queste due formule, che ci serviranno in seguito: ! m v R= ⋅ ! q B m 2π T= ⋅ ! q B Dove: T è il periodo di rivoluzione, R è il raggio di rivoluzione, m e q sono la massa e la carica della particella, v è la velocità e B è il campo magnetico. Come si può notare, il periodo è costante mentre il raggio è proporzionale alla velocità. 2.4 E=mc2 L’importanza di questa formula è data dal fatto che essa sancisce l’uguaglianza tra massa ed energia. In determinate circostanze può accadere infatti che una certa quantità di energia si trasformi in massa; o viceversa, come avviene nell’annichilazione tra materia e antimateria. Un evento di questo tipo potrebbe lasciare perplessi, perchè oltre ad essere contro intuitivo, significherebbe veder crollare due capisaldi della fisica: i principi di conservazione della massa e dell’energia. Ma proprio questa formula ci dice che in realtà sono la stessa cosa. Si parla dunque di conservazione della somma della massa e dell’energia. Per questo le masse delle particelle vengono spesso misurate in elettronvolt (sottintendendo il fattore 1/c2), un’unità di misura dell’energia; un protone ha una massa di circa 1 GeV, un elettrone 0,5 MeV. La possibilità di trasformare massa in energia sta alla base del funzionamento delle centrali nucleari. Il processo opposto sta invece alla base della fisica delle alte energia fatta con gli acceleratori. I fisici infatti, oggi, non fanno urtare le particelle per romperle e studiare da cosa sono composte, ma studiano le particelle che si creano dall’energia dell’urto. Per questo gli acceleratori possono essere considerati delle fabbriche di particelle. 7 Un’altra conseguenza dell'uguaglianza tra massa ed energia, è l'impossibilità di superare la velocità della luce. Questo è dovuto al fatto che se una particella accelera aumenta la sua energia cinetica; ma se aumenta la sua energia aumenta anche la sua massa, dunque per il secondo principio della dinamica, all’aumentare della velocità, è necessaria una forza sempre maggiore per continuare ad accelerare la particelle. L’aumento della massa è, per le velocità umane insignificante; persino alla velocità del suono questo aumento è trascurabile. Ma avvicinandosi alla velocità della luce il tasso di aumento della massa cresce vertiginosamente. Questo andamento si vede bene nel grafico in figura 1. Figura 1 Al 50% della velocità della luce, la massa aumenta ancora solo del 40%; al 90% la massa diventa tre volte più grande; ad un miliardesimo in meno della velocità della luce, la massa aumenterebbe di oltre un milione di volte. Questo spiega il fatto per cui, nonostante già i primi acceleratori raggiungevano velocità prossime a quelle della luce, i fisici hanno costruito acceleratori sempre più grandi e potenti, che a questo punto, sarebbe più opportuno chiamare “massificatori”. Questo concetto risulta evidente se si pensa che è stato necessario costruire una macchina gigantesca come l’LHC per passare da 99,9998% della velocità della luce raggiunta nel Super Proton Synchrotron1 99,9999991%. 1 L’acceleratore di 7 km ca. di circonferenza che precede l’LHC, vedi cap.4 8 a 3. Evoluzione e scoperte degli acceleratori 3.1 Acceleratori naturali Il più grande acceleratore di particelle non è in realtà LHC bensì il cielo. Ogni secondo infatti ci piovono addosso una serie di particelle energetiche. Questa pioggia di particelle è composta dai cosidetti raggi cosmici. Fu Victor Hess che, nel 1912 scopri che la radiazione, già osservata nei decenni precedenti, giungeva non dalla terra, come si pensava prima, bensì dall’universo. I raggi cosmici sono formati prevalentemente da tre particelle: protoni, particelle alfa e fotoni. La loro origine è varia, alcuni provengono dal sole e dalle altre stelle, ma la maggior parte è originata da fenomeni cosmici molto energetici come l’esplosione di Supernove. Anche l’energia di queste particelle spaziali varia, si va dai 3 GeV (un’energia modesta ma comunque molto più alta dei primi acceleratori), fino ad energia dell’ordine dei 1020 eV più alta di qualunque acceleratore artificiale che potrà mai essere costruito dall’uomo. Quando una di queste tre particelle incontra un atomo d’aria, si libera una gran quantità di energia che si trasforma subito in massa sotto forma di una nuova particella la quale presto decadrà o urterà un altro atomo d’aria creando nuove particelle. Questa pioggia di particelle raggiungerà il suolo con una forma conica simile quella in figura 2. Figura 2 Grazie hai raggi cosmici, nel 1932 Carl Anderson scoprì la prima di una lunga serie di particelle subnucleari: il positrone, l’antiparticella dell’elettrone. Questa scoperta confermò la possibilità di creare nuove particelle dall’energia degli urti e l’esistenza dell’antimateria predetta qualche anno prima da Paul Dirac. Negli anni successivi vennero scoperte anche altre particelle tra cui il Muone e il Pione. Queste scoperte aprirono la strada alla fisica delle particelle. 9 Nonostante l’immenso potenziale però, i raggi cosmici sono difficilmente utilizzabili dai fisici a causa della loro imprevedibilità. Per questo, fu chiaro fin da subito che se si volevano scoprire le fondamenta ultime della materia era necessario poter studiare in maniera accurata gli urti tra particelle riproducendo in laboratorio con acceleratori artificiali quello che accade ogni istante sopra la nostra testa. 3.2 Acceleratori elettrostatici La prima e più semplice tipologia di acceleratori è quella degli acceleratori elettrostatici. In essi particelle cariche sono accelerate da un campo elettrico costante. Il più semplice di questi è formato da un tubo di vetro sotto vuoto con agli estremi due elettrodi, di cui uno, il catodo, viene riscaldato in modo tale che per effetto termoionico emetta elettroni che vengono accelerati in direzione dell’anodo. Il vuoto è un altro componente essenziale di tutti gli acceleratori, compresi quelli moderni, che permette alle particelle di muoversi indisturbate. Elettroni e raggi x Questi apparecchi erano in circolazione già dalla metà del 1800 quando i fisici non sapevano ancora cosa stessero accelerando. Lo scoprì nel 1897 Thomson il quale affermò che la luminescenza, osservata tra i due elettrodi quando su di essi era applicato un potenziale, era dovuta a particelle che chiamò elettroni. Poté affermare che fossero particelle in quanto: mettevano in moto una piccola turbina posta sul loro cammino e non attraversavano la materia ma venivano bloccati da un ostacolo. Inserendo nell’esperimento un campo magnetico Thomson poté constatare che tali particelle avevano carica negativa e fu in grado di calcolare il rapporto carica/massa. Con lo stesso apparecchio due anni prima il fisico olandese Roentgen scopri i raggi X. Nel corso dei suoi esperimenti Roentgen notò una luminescenza su un foglio fosforescente dovuta, come intuì, a una radiazione sconosciuta emessa dagli elettroni che colpivano il vetro. Successivamente, facendo alcune prove vide un'immagine mai vista: le ossa della sua mano impresse in una lastra fotografica, la prima lastra della storia. Questa scoperta gli fece vincere nel 1901 il primo premio Nobel della storia. Ma soprattutto fu importante in quanto diede il via alla fisica fatta con gli acceleratori. Roentgen fu infatti il primo ad utilizzare il suo apparato sperimentale come acceleratore a bersaglio fisso. 10 La prima reazione nucleare e il modello atomico Questo nuovo modo di indagare la natura fu ampiamente utilizzato da Ernest Rutherford, il quale, però, non utilizzò un acceleratore artificiale ma sfruttò un altro fenomeno naturale per avere particelle ad alta energia: la radioattività. Il materiale che usò maggiormente fu il radio il quale emette particelle alfa (nuclei di elio formati da due protoni e due neutroni) ad una velocità superiore ai 20 000 km/sec. Racchiudendo il materiale radioattivo in un contenitore con un foro ottenne dei fasci di particelle energetiche che poté utilizzare come proiettili contro un bersaglio fisso. In questo modo osservò la prima reazione nucleare della storia e soprattutto scoprì la struttura dell’atomo formulando il modello atomico oggi conosciuto. Egli fece scontrare le particelle alfa contro una sottile lamina d’oro e studiò tramite uno schermo fotosensibile (il rilevatore) come esse deviavano la traiettoria. Scoprì con sua grande sorpresa che la maggior parte proseguiva il proprio percorso in linea retta, mentre alcune venivano respinte e tornavano indietro. Spiegò questo fenomeno introducendo un nuovo modello atomico in cui la massa di un atomo è quasi interamente concentrata in un piccolo nucleo carico positivamente mentre gli elettroni orbitano intorno ad esso. In seguito ai risultati raggiunti Rutherford ribadì l’importanza di tale metodo d’indagine alla Royal Society in cui espresse la necessità di “avere a disposizione una sorgente copiosa di atomi che abbiano energia di gran lunga maggiore di quella delle particelle alfa, in modo da sviluppare un campo di ricerca straordinariamente interessante”. Il suggerimento venne subito accolto dall’università di Cambridge che finanziò la costruzione di un acceleratore più potente. Nel 1932 Cockford e Walton realizzarono il primo acceleratore di protoni che fu in grado di raggiungere 800 KeV e scindere in due l’atomo di litio. Ma gli acceleratori elettrostatici non sarebbero potuti andare lontano. L’energia che possono fornire sarà infatti sempre e solo proporzionale alla differenza di potenziale che l’apparecchio può raggiungere. Se le particelle dell’acceleratore di Cockford e Walton raggiungevano gli 800 KeV significa, per definizione di elettronvolt, che tra i due elettrodi vi era una differenza di potenziale di 800 000 V. Ma raggiungere alti potenziali è molto difficile e comporta alcuni problemi come le scariche ad arco che danneggiano l’apparecchio stesso. 11 3.3 Acceleratori lineari (LINAC) Il problema degli alti potenziali venne risolto dal fisico norvegese Rolf Wideroe, il quale nel 1928 ebbe l’idea di accelerare le particele attraverso più accelerazioni consecutive anziché un’unica grande accelerazione. Nella figura 3 è rappresentato il meccanismo di funzionamento di un LINAC (dall’inglese LINear ACcelerator). Le particelle cariche (in questo caso elettroni) emesse dalla sorgente si ritrovano davanti una cavità di materiale conduttore caricata positivamente, subiscono così una prima accelerazione figura 3 in linea retta. Dopo aver attraversato la cavità se ne trovano davanti un’altra inizialmente caricata negativamente, nel frattempo però il generatore di corrente alternata ha invertito il segno della corrente nelle due cavità. La particella si trova così davanti alla prima cavità, ora negativa che la respinge, e dietro la seconda cavità positiva che la attrae. In questo modo la particella attraversa tutte le cavità dell’acceleratore subendo ogni volta un’accelerazione che seppur piccola si va a sommare alle precedenti. Le cavità vengono chiamate tubi di drift. Essi essendo di materiale conduttore sono al loro interno volumi equipotenziali e quindi al loro interno, come in una gabbia di Faraday il campo elettrico è nullo. In questo modo le particelle non subiscono l’influsso degli altri tubi, ma vengono accelerate sono nello spazio intermedio tra due di essi chiamato gaps. Per evitare di perdere la sincronia a causa dell’aumento di velocità, le cavità sono, come si può notare dalla figura, di lunghezza crescente. In realtà a causa della diversa velocità iniziale (ogni particella della sorgente ha infatti una sua velocità dovuta al moto di agitazione termica) le particelle non saranno tutte in sincronia con il campo elettrico nei gaps, ma alcune arriveranno in ritardo trovandosi davanti un campo di segno opposto che le farà rallentare, torneranno ad accelerare quando il campo si invertirà ancora. Per questo negli acceleratori lineari il fascio non esce in maniera continua ma sotto forma di pacchetti di particelle chiamati bunch. 12 Questo meccanismo accelerante viene utilizzato ancora oggi, come vedremo, nei moderni acceleratori circolari, ma al posto dei tubi di drift vengono usate le cavità a radiofrequenza che sfruttano un campo elettromagnetico oscillante ad alta frequenza. Ma anche gli acceleratori lineari hanno un limite di energia prodotta che sarà sempre proporzionale alla lunghezza. Per ottenere le energie che raggiungono i moderni acceleratori dovrebbero infatti avere una lunghezza superiore al raggio terrestre. Ciononostante, i LINAC sono ancora utilizzati nei grandi acceleratori di oggi nel primo stadio di accelerazione in quanto comodi per accelerare particelle “ferme”. 3.4 Il ciclotrone Nel 1929 il professore statunitense Ernest Lawrence ebbe un’idea che rivoluzionò il mondo degli acceleratori. L’idea geniale di Lawrence fu quella di unire un campo magnetico al campo elettrico e costruire così acceleratori circolari anziché lineari. In tal modo le particelle avrebbero subito un accelerazione ad ogni giro, che anche se piccola, si sarebbe sommata a quella precedente. I primi acceleratori circolari, costruiti da Lawrence sono chiamati ciclotroni. Un ciclotrone è formato da due elettrodi cavi contenuti in una camera a vuoto come quelli nella figura 4 e da un magnete posto al di sopra ed al di sotto di essi, che genera un campo magnetico uniforme e perpendicolare ad essi. Le particelle sono iniettate al centro di esso e sono accelerate similmente a quello che succede nei LINAC: finché circolano all’interno degli elettrodi non subiscono nessuna forza, mentre vengono accelerate nello spazio che li separa. Dopo la prima accelerazione, a causa del campo magnetico curveranno compiendo un’orbita circolare; una volta tornati nello spazio tra i due elettrodi, il campo elettrico sarà stato invertito così che l’elettrodo alle “spalle” della particella la respinga e quello di fronte la attragga. 13 Figura 4 Il grande vantaggio del ciclotrone è che, utilizzando un campo magnetico uniforme e perpendicolare, le particelle aumenteranno la velocità ed il raggio (da qui il moto a spirale) ma manterranno, come abbiamo visto prima, il periodo di rivoluzione costante. In questo modo la frequenza della corrente una volta stabilita, non dovrà essere più cambiata nel tempo. Al temine del loro percorso a spirale il fascio è deflesso da un magnete e prosegue in linea retta fino ad un bersaglio fisso preposto. Lawrence si rese subito conto delle potenzialità di una tale macchina e iniziò presto la costruzione di una lunga serie di ciclotroni sempre più grandi e potenti. Il primo aveva un diametro di 4 pollici (circa le dimensioni di una mano), ma già raggiungeva l’energia dell’acceleratore elettrostatico di Cockford e Walton lungo più di un metro. Il secondo era di 11 pollici e raggiungeva il milione di elettronvolt a partire da una tensione di soli 4000 V. Lawrence proseguì con la costruzione di ciclotroni grazie a diversi finanziamenti pubblici e privati, l’uso degli acceleratori aveva iniziato ad interessare, come vedremo in seguito, l'ambito medico. L’ultimo che costruì aveva un diametro di 184 pollici (4,7 m) e un magnete di 4500 tonnellate; venne invece finanziato dal governo USA in quanto era avvenuto da poco l’attacco da parte del giapponesi a Pearl Harbour ed era urgente, nel quadro del progetto Manhattan, trovare una tecnica riproducibile in larga scala per separare l’isotopo uranio-235 dall’uranio-238. Questo ciclotrone arriverà fino a 200 MeV, ma Lawrence nel costruirlo dovette tenere conto dell’effetto relativistico, visto in precedenza, che già dalle decine di MeV non è più trascurabile. Con l’aumentare della velocità infatti, la massa aumenta in maniera esponenziale, per questo a parità di spinta data dal campo elettrico, tenderanno ad accelerare di meno e impiegheranno così più tempo a compiere mezza rivoluzione perdendo la sincronia con gli elettrodi. 3.4.1 Il principio di stabilità di fase L’ultimo ciclotrone di Lawrence e tutti i moderni acceleratori circolari non potrebbero funzionare se non fosse per il principio di stabilità di fase. Scoperto indipendentemente dal russo Vladimir Veksler e dallo statunitense Edwind McMillan, questo principio fa si che le particelle proseguano nel loro moto accelerato anche se non perfettamente in sincronia con il campo elettrico oscillante. Questo è dovuto al fatto che se una particella arriva, per esempio, in ritardo rispetto ad una perfettamente in fase, troverà una tensione minore e verrà di conseguenza accelerata 14 meno; per questo, percorrerà una traiettoria con un raggio minore, impiegando meno tempo a compiere un giro. In questo modo quando arriverà nel punto di accelerazione leggermente in anticipo trovando una tensione più alta. Il risultato è che le particelle leggermente fuori fase oscillano intorno a quelle in fase, formando un pacchetto stabile. Questa stabilità si mantiene anche se viene modificata la frequenza della tensione. Ciò permise di compiere un altro passo in avanti nell’evoluzione degli acceleratori: modificare la frequenza della tensione alternata per correggere gli effetti relativistici. Apportando questa modifica al suo ciclotrone da 184 pollici, Lawrence costruì così il primo ciclosincrotone, in cui il periodo di oscillazione del campo elettrico aumentava durante l’accelerazione, per correggere l’aumento di massa. Anche il ciclosincrotrone presenta però un limite invalicabile: necessità di un campo uniforme sull’intera superficie dell'acceleratore, che comporta, oltre ad un elevato peso del magnete, costi eccessivi. L’ultima generazione di acceleratori risolverà questo problema aggiungendo l’ultimo tassello dell’evoluzione degli acceleratori: un campo magnetico variabile. 3.5 Il Betatrone Prima di parlare dei sincrotroni, gli acceleratori oggi utilizzati per raggiungere alte energie, vorrei parlare di un altro tipo di acceleratore chiamato betatrone. Il betatrone non rappresenta un passo in avanti per il raggiungimento di alte energie, ma è molto interessante in quanto sfrutta per l’accelerazione un principio totalmente diverso dai precedenti: il fenomeno di induzione. La struttura di un betatrone è simile a quella del ciclotrone: due magneti uno sopra l’altro separati da una zona sotto vuoto per l’accelerazione, che in questo caso non è un cilindro pieno ma un toroide2. La variazione di flusso magnetico concatenato al toroide, per il fenomeno di induzione, produce una forza elettromotrice che accelera gli elettroni (un tempo chiamati raggi beta, da cui prende il nome il betatrone). Mentre in un circuito composto da un conduttore, a causa dell’effetto joule, gli elettroni dissipano energia e mantengono un velocità costante, nel toroide, al cui interno vi è il 2 toroide è il nome tecnico di un solido a forma di ciambella 15 vuoto, gli elettroni possono continuare ad accelerare fino a raggiungere velocità prossime a quelle della luce. Il campo magnetico variabile consente anche di avere, se modificato in modo da avere il rapporto v/b costante, un raggio della traiettoria costante (vedi formula nel capitolo 2.3). Il primo betatrone venne costruito da D.W.Kerst nel 1940 e raggiungeva un'energia di 2,3 MeV; nel 1950 arrivò a costruirne uno da 300 MeV, il massimo ottenibile da questo tipo di acceleratore. Oggi come all’ora il betatrone viene utilizzato principalmente per scopi medici in quanto sorgente di raggi X. 3.6. Sincrotrone Il sincrotrone è l’evoluzione finale (per ora) degli acceleratori. Diversamente dal ciclotrone, in un sincrotrone le particelle percorrono un’orbita circolare di raggio costante, come in un betatrone. Ma a differenza del ciclotrone e del betatrone, in un sincrotrone non vi è un grande magnete unico, bensì tanti “piccoli” magneti disposti lungo la traiettoria. Ciò consente di costruire anelli anche molto grandi (fino ai 27 km dell’LHC) con una quantità di materiali notevolmente minore. Per far sì che le particelle mantengano la giusta traiettoria circolare è necessario, come si è visto, che il campo magnetico vari in modo che il rapporto v/b rimanga costante. Il limite di energia massima di un sincrotrone è dato quindi alla forza centripeta massima che i magneti riescono a fornire. Per ottenere più energia è necessario avere magneti più potenti oppure aumentare la dimensione del sincrotrone per avere raggi di curvatura minori, e quindi diminuire la forza centripeta necessaria. Il nome sincrotrone è dato dal fatto che le particelle, accelerando impiegheranno sempre meno tempo a compiere una rivoluzione, per questo è necessario che il periodo di oscillazione del campo accelerante diminuisca in maniera sincronizzata. Se non fosse per il principio di stabilità di fase sarebbe necessaria una precisione nella sincronizzazione impossibile da ottenere in pratica. Non a caso i primi sincrotroni vennero costruiti, negli anni ’50, proprio dai due scopritori di questo principio: McMillan e Veksler. Con queste nuove macchine viene superato per la prima volta il miliardo di elettronvolt. Ma un sincrotrone di questo tipo non è ancora sufficiente per raggiungere energia sufficientemente elevate: persistono ancora dei problemi. 16 3.6.1 Focalizzazione forte Il primo problema riguarda il mantenimento dei fasci in orbita. Le particelle, infatti, non compiono un’orbita perfettamente circolare, ma oscillano verticalmente e radialmente. Per questo, le “ciambelle” che le contengono devono essere abbastanza grandi affinché oscillando, le particelle non urtino le pareti disperdendosi. All’aumentare dell'energia le oscillazioni delle particelle aumentano: risulta necessario dunque aumentare le dimensioni della ciambella e di conseguenza dei magneti deflettori. Dopo aver costruito nel laboratorio nazionale di Brookhaven, negli stati uniti, un sincrotrone da 3,3 GeV (chiamato Cosmotrone), venne calcolato che per ottenere un'energia 10 volte maggiore sarebbe stato necessario impiegare 100 volte più ferro (200 000 tonnellate). Questo problema venne risolto grazie all’invenzione della focalizzazione forte da parte di Livingstone e Courant nel 1952. Questa nuova tecnica permise di ridurre notevolmente le oscillazioni delle orbite e quindi le dimensioni e il costo dei magneti. L’idea che ebbero i due fisici americani fu quella di aggiungere un campo magnetico trasversale al campo magnetico verticale. Questo campo magnetico è dato da un quadruplo: un magnete composto da due poli Nord e due poli Sud incrociati, disposti a due a due. Un quadrupolo converge le particelle lungo un piano verticale, ma le diverge lungo quello orizzontale, un’altro quadrupolo con l’orientamento dei poli invertito agisce nella maniera opposta. L’azione combinata di più quadrupoli disposti in maniera alternata (uno convergente e l’altro divergente) ha come effetto la focalizzazione totale del fascio. I nuovi sincrotroni che utilizzano i quadrupoli, vengono chiamati a focalizzazione forte, in contrapposizione con i precedenti chiamati a focalizzazione debole. L’importanza di quest’invenzione è evidente nel confronto tra il Cosmotrone e l’LHC: il primo aveva una sezione della ciambella di 20 cm in verticale e 60 cm in orizzontale, il secondo trasporta i fasci in un tubo che ha un diametro di non più di 5 cm pur conferendo alle particelle un’energia 1000 volte superiore al primo. Nonostante ciò, la gestione del fascio rappresenta ancora oggi una delle difficoltà principali nella costruzione di un acceleratore. 3.6.2 Bersaglio fisso vs bersaglio mobile Finora abbiamo visto come avvengono accelerate le particelle, ma ai fisici non interessa l’accelerazione in sé ma gli urti che producono e l’energia che ne deriva. 17 L’energia utile prodotta da un urto è quella disponibile nel baricentro della collisione. Nel caso di urto tra una particella in movimento di energia E e una ferma di massa M, l’energia nel baricentro è data dalla formula: Eb = 2ME La presenza della radice disturba i fisici in quanto per raddoppiare l’energia utile è necessario quadruplicare l’energia della particella in moto. Questo è dovuto al fatto che parte dell’energia è persa nello spostare il baricentro stesso. Un modo molto più efficiente per ottenere più energia è quello di far scontrare due particelle provenienti da direzioni opposte. In questo caso infatti l’energia nel baricentro è semplicemente la somma delle energie delle due particelle; per avere un’energia doppia è sufficiente raddoppiare l’energia fornita alle particelle. Un acceleratore che sfrutta questo principio è chiamato collisore. L’idea del collisore di particelle venne nel 1943 a Rolf Wideroe, l’inventore dell'acceleratore di particelle lineare. Il problema di un collisore è che il numero di scontri (i fisici li chiamano eventi) si riduce di molto rispetto ad uno scontro con bersaglio fisso. In un collisore infatti i pacchetti di particelle si scontrano frontalmente, ma la stragrande maggioranza di esse prosegue come se nulla fosse. È come se due gruppi di decine di persone camminassero l’uno contro l’altro in una superficie di diverse migliaia di chilometri quadri: la probabilità che due persone si incontrino è estremamente bassa. Il numero di collisioni al secondo viene chiamata luminosità, ed è la grandezza che, oltre all’energia, più interessa i fisici. Per aumentare la luminosità si procede in due direzioni: intensificare il fascio (aumentare il numero di particelle per pacchetto) e diminuire il diametro del fascio nel punto d’intersezione. Per quel che riguarda il primo punto, una svolta avvenne grazie all’invenzione degli anelli di accumulazione da parte del fisico greco Bruno Touschek. Un anello di accumulazione non è altro che un sincrotrone in cui le particelle vengono iniettate in continuazione (per qualche minuto o talvolta per qualche ora) per poi essere accelerate e fatte collidere. Per concentrare il fascio nei punti d’intersezione si utilizzano invece dei magneti particolari. 18 3.6.3 Cosa accelerare? La caratteristica principale che devono avere le particelle per essere accelerate in questi tipi di acceleratori è la carica elettrica; i neutroni da soli, non possono dunque essere accelerati. In particolare, I fisici accelerano principalmente: elettroni e protoni, le rispettive antiparticelle e ioni pesanti. Gli scontri tra materia e antimateria hanno il grande vantaggio di produrre, nell’annichilazione dell’urto, energia pura; in questo modo è molto più facile per i fisici analizzare gli eventi in quanto non ci sono gli scarti presenti negli urti tra altre particelle. Un altro importante vantaggio è il fatto che i fasci di particelle e antiparticelle grazie al fatto che hanno carica opposta, potranno essere accelerate dalla stessa cavità a radiofrequenza, ed essere deflesse dagli stessi magneti percorrendo esattamente la medesima orbita. In questo modo è sufficiente costruire un unico anello invece dei due necessari per accelerare in direzioni opposte particelle con la stessa carica, con il conseguente risparmio di denaro. Il grosso svantaggio dell’utilizzo dell’antimateria è il fatto che essa dev’essere prodotta artificialmente. Generalmente si preferisce far collidere elettroni e positroni in quanto per produrre un antiprotone è necessaria un’energia 2000 volte superiore di quella necessaria per produrre un positrone. Inoltre il fenomeno è molto più raro: occorre bombardare un bersaglio fisso con 10 milioni di protoni da 30 GeV per produrre un solo antiprotone. Al contrario, per far scontrare particelle uguali è necessario un doppio anello e produce urti meno “puliti”; ma le particelle in questione sono molto più facili da ottenere. Tra questa tipologia di scontri, quello ampiamente più utilizzato è quello tra protoni. Questa scelta è dovuta alla radiazione di sincrotrone: quando particelle cariche compiono un’orbita circolare, esse emettono energia sotto forma di radiazione elettromagnetica, che di solito è di lunghezza d’onda corrispondente ai raggi X. Per il principio di conservazione dell’energia, se da una parte l’energia aumenta, da un’altra deve diminuire, quindi le particelle perdono energia cinetica che deve essere rifornita ad ogni giro dalle cavità a radiofrequenza. Questa è un’altra ragione per cui è necessario costruire acceleratori sempre più grandi: più grande è l’anello minore è la perdita di energia. La radiazione di sincrotrone emessa è inversamente proporzionale alla massa, per questo i protoni, 2000 volte più pesanti degli elettroni, perdono ad ogni giro una quantità di energia trascurabile. Accelerare elettroni/positroni invece è poco conveniente: nel LEP3 , il 3 Large Electron Positron collider: il grande acceleratore del CERN costruito nel 1989 e smantellato nel 2000 per lasciare il posto all’LHC. 19 più grande collisore di elettroni-positroni mai costruito, nonostante le notevoli dimensioni, i fasci perdevano il 3% dell’energia ad ogni giro. Erano dunque necessarie molte cavità a radiofrequenza. Al massimo della sua potenza raggiunse al massimo i 209 GeV; LHC pur avendo lo stesso raggio raggiunge i 4 TeV. Tuttavia, proprio perchè sorgenti di raggi X, gli acceleratori di elettroni vengono utilizzati ampiamente in ambito medico. Compiuto questo ulteriore passo in avanti, i sincrotroni iniziarono ad essere costruiti con un ritmo frenetico, anche in seguito alla Guerra fredda tra Stati Uniti e Unione Sovietica. La Seconda guerra mondiale aveva infatti dimostrato che la conoscenza dell’atomo, e dell’energia in esso immagazzinata, poteva diventare un fattore determinante in caso di un futuro conflitto mondiale. La costruzione di acceleratori di particelle sempre più grandi rispecchiò così, a terra, lo stesso spirito con cui le due potenze si contendevano il primato per la corsa allo spazio. Diversamente da quest’ultima però l’Europa non rimase a lungo a guardare. Dato però che il costo dei nuovi sincrotroni era in continuo aumento, e che le condizione economiche dei paesi europei erano ancora disagiate a causa della Seconda guerra mondiale, fu chiaro fin da subito che era necessaria una collaborazione internazionale. Nasce così, nel 1954, il CERN: il Consiglio Europeo per la Ricerca Nucleare, che con la costruzione del LEP prima e dell’LHC dopo, ha fatto dell'Europa il centro mondiale della fisica delle alte energia. Addentriamoci ora nei sotterranei di Ginevra, dove, nell’opera più grandiosa che l’uomo abbia mai creato, vengono fatti scontrare protoni, per svelare i misteri dell’Universo. 20 4.Large Hadron Collider Il più grande acceleratore di particelle mai costruito è il Large Hadron Collider. Mai prima nella storia dell’uomo era stato costruito qualcosa di altrettanto grande e complesso. Nascosto 100 m sotto il suolo di Ginevra, vi è infatti una anello di 27 km di circonferenza, che pur essendo, come vedremo, uno dei luoghi più freddi della galassia, raggiunge, negli urti tra particelle una temperatura che supera di 100 mila volte quella del nucleo solare (1500 miliardi di gradi Kelvin). 4.1 Il viaggio dei protoni L’LHC è l’ultimo anello del complesso sistema di acceleratori del CERN; da questi ultimi, e da qualsiasi altro acceleratore nel mondo, si discosta sia per dimensioni che per energia ottenuta: un anello per domarli tutti appunto. Il sistema di macchine del CERN (figura 5 pag 24) è il segno evidente dell’evoluzione storica degli acceleratori. Per addentrarci in questo mondo e capire cos’è veramente l’LHC ripercorriamo il percorso che compiono i protoni. Il lungo viaggio dei protoni parte nel Duoplasmatron (nella figura a fianco), una bomboletta che nonostante le dimensioni insignificanti, è sufficiente a fornire protoni all’LHC per un tempo di gran lunga superiore alla vita stessa dell’acceleratore! Dal Duoplasmatron passano al LINAC2 (uno dei diversi acceleratori lineari del CERN), dove ricevono la prima accelerazione, e si formano, come abbiamo visto, i pacchetti distinti. Dopodiché vengono condotti nel primo acceleratore circolare chiamato Booster, costruito successivamente, che ha il compito di intensificare il fascio. Il Booster è composto infatti da 4 anelli concentrici in cui i fasci, terminata l’accelerazione, vengono fusi in un unico fascio 4 volte più denso. Dopo il Booster i protoni entrano nel primo storico sincrotrone del CERN: il Pronton Synchroton (PS) lungo 628 m ca., costruito nel 1959. Raggiunta l’energia di 25 GeV le particelle escono dal PS e vengono iniettate nel Super Proton Synchroton costruito nel 1976 che, con i suoi 7 km ca. di circonferenza, è tuttora il 21 più grande acceleratore che utilizza magneti convenzionali. Superati i 450 GeV, i protoni vengono finalmente iniettati nell’LHC, in due fasci distinti, uno circolerà in senso orario e l'altro in senso antiorario. L’LHC infatti, al contrario dei suoi predecessori, è un collisore: in esso vengono fatti scontrare protoni o nuclei di piombo, entrambi adroni, ovvero particelle composte da quark. Come abbiamo visto, per accelerare in verso opposto particelle uguali, un anello solo non basta: per questo LHC è formato in realtà da due anelli concentri, ognuno con i suoi magneti e le sue cavità a radiofrequenza. In esso le particelle vengono accelerate fino ai 3,5 TeV. Un TeV in realtà è un’energia molto piccola se confrontata con quelle della nostra vita quotidiana; corrisponde all’incirca all'energia di una zanzara in volo. Ma le zanzare sono composte da miliardi di miliardi di protoni, mentre nell’LHC ogni singolo protone raggiunge i 3,5 TeV. Quello che conta infatti è la densità dell’energia, che in questo caso è elevatissima. Per raggiungere un energia così elevata l’LHC utilizza magneti costruiti in materiali superconduttori 4. In questo modo è possibile ottenere campi magnetici estremamente più elevati di quando sia possibile con magneti convenzionali. Questi ultimi infatti al passare della corrente si scaldano per effetto Joule, e oltre una certa corrente fondono. Nei magneti superconduttori invece è possibile far circolare una corrente di oltre 1200 Ampere, ottenendo un campo magnetico di 8 Tesla, senza che la temperatura aumenti. Per far sì che la resistenza all'interno del conduttore sia nulla, i magneti devono essere mantenuti ad una temperatura di appena 2 K (-271 °C). Per mantenere gli oltre 9000 magneti a questa temperatura è stato costruito il più grande sistema criogenico del mondo. Questo sistema sfrutta l’elio liquido, un superfluido che analogamente ai superconduttori, sotto una certa temperatura perde la resistenza allo scorrimento. Basta però un piccolo malfunzionamento del sistema refrigerante e nei 4 I superconduttori sono materiali che sotto una certa temperatura critica, azzerano totalmente la resistenza al passaggio di corrente. 22 magneti la resistenza passa da zero ad un valore non nullo. In questa condizione i 12000 ampere che prima attraversavano i magneti senza accorgersene, li surriscaldano istantaneamente fino a fonderli provocando quello che i tecnici chiamano quench, come accadde nel 2008 in fase di collaudo. Dopo questo incidente, l’LHC ha funzionato alla metà dell’energia di progettazione; dopo la manutenzione in corso in questi mesi (che ci ha consentito la visita) raggiungerà finalmente i 14 TeV nel baricentro dell’urto. Anche l’impianto per il vuoto è il più grande e complesso mai costruito: nel tubo del fascio si raggiungono le 10-13 atm, un vuoto dieci volte più spinto di quello della superficie della Luna. Ognuno dei due fasci è accelerato da solo 8 cavità a radiofrequenza superconduttrici; sono davvero poche se si pensa che nel LEP, che raggiunse al massimo 209 GeV, ne utilizzarono fino a 344. Una volta raggiunta la massima energia, i fasci compiono in un secondo 11 000 volte i 27 Km dell’anello. A questo punto sono pronti per essere fatti collidere nei quattro punti dove sono posti i rilevatori. In questi punti, per aumentare la luminosità, il fascio che ha uno spessore di circa 100 micron viene ulteriormente ristretto da potenti magneti a 16 micron. In queste condizioni i 2808 bunch dei due fasci, ciascuno composto da circa 1012 protoni, producono fino a 600 milioni di urti al secondo. Per questo l’LHC è anche la più grande fabbrica di dati al mondo, con una tasso di produzione di 10 TeraByte al secondo. Dopo alcune ore di scontri, i bunch sono ormai troppo poco densi e non producono più scontri sufficienti. Così, finito il suo ciclo, il fascio viene deviato e fatto scontrare contro un blocco di grafite. 4.2 Le difficoltà Costruire una macchina di queste dimensioni non è certo facile, lo è ancora meno se si pensa che essa lavora con particelle invisibili all’uomo. Mi colpisce particolarmente il fatto che i giganteschi magneti lunghi 16 m e pesanti fino a 40 tonnellate, siano stati dovuti posizionare con una precisione inferiore ai 150 micron. Il fascio infatti ha un’elevata energia e se sbattesse contro le pareti potrebbe surriscaldarle provocando un quench. I magneti poi subiscono elevatissime sollecitazioni meccaniche dovute al raffreddamento e agli elevati campi magnetici che essi stessi generano. Bisogna inoltre tenere conto delle variazioni di temperatura stagionali, che per il fenomeno di dilatazione termica modificano la lunghezza dell’anello. 23 Oltre alle stagioni poi, i tecnici devono anche guardare il calendario per tenere d’occhio la luna! Il fenomeno delle maree è ben noto: a causa della diversa posizione della luna, le masse d’acqua dei mari cambiano il loro livello. Meno noto è invece il fatto che anche la terra solida, composta da rocce elastiche subisce l'influsso della Luna. Quando il nostro satellite è sopra a Ginevra, il suolo si alza di circa 25 cm 5. Questo spostamento produce una variazione di circa un millimetro della circonferenza dell’LHC. Per quanto piccola, questa variazione si accumula per i milioni di giri che compiono i protoni. Ben presto così le particelle si ritrovano fuori dall’orbita. Nel LEP le particelle, più leggere, sentivano persino l’influsso dei treni in partenza alla stazione di Ginevra. Bisogna poi tener conto che i protoni hanno tutti carica positiva e dunque tenderanno a respingersi. Al contrario, gli elettroni dei materiali che compongono il tubo, verranno attratti, e alcuni di essi strappati da esso. Accade dunque che il fascio viene contaminato da questi elettroni. Per ovviare a questo problema, viene fatto circolare all’inizio un fascio particolarmente denso con l’unico scopo di strappare buona parte degli elettroni liberi. 4.3 Perchè costruire LHC In questa tesina mi sono concentrato quasi esclusivamente su come vengono accelerate le particelle; per parlare di cosa è stato scoperto e di cosa si sta cercando oggi sarebbe necessaria come minimo una tesina altrettanto lunga. Per questo mi limiterò a descrivere a grandi linee quello che stanno cercando oggi al CERN. Figura 5 Uno dei motivi principali per cui è stato necessario costruire questa macchina è la ricerca della fantomatica “particella di Dio”. Ipotizzata nel 1964 da ben 6 fisici diversi, il bosone di Higgs è il tassello mancante del Modello Standard, una teoria che descrive il comportamento di tutte le particelle elementari. In particolare esso spiega l’origine della diversa massa delle particelle descritte da questo modello. 5 questo innalzamento non è osservabile in quanto tutto il suolo si alza insieme e non vi è un punto di riferimento fermo. 24 Nel 2012, i due esperimenti CMS e ATLAS, hanno potuto finalmente annunciare la tanto ambita scoperta, che era sfuggita di pochissimo ai due grandi acceleratori precedenti: il Tevatron di Chicago e il LEP. Nell’esperimento LHCb si studiano invece in particolare gli adroni formati da quark b, per capire meglio il motivo della violazione della simmetria CP. Infine, come abbiamo visto, negli acceleratori si studia anche l’origine dell’Universo. Per questo, nell’esperimento ALICE, vengono analizzati gli urti tra nuclei di piombo, che creano situazioni simili a quelle del plasma primordiale (un plasma di quark e gluoni). Studiando questi eventi si cerca di capire come mai, nonostante nel Big Bang sia stata creata una quantità uguale di materia e antimateria, nell’universo odierno, vi sia quasi esclusivamente materia ordinaria. 5. Futuro Ma i fisici, insaziabili di alte energie, non si fermeranno all’LHC. Il passo successivo sarà un upgrade dell’LHC che intorno al 2020 cambierà nome in High Luminosity LHC, proponendosi di aumentare la luminosità di un fattore 10, con nuovi magneti in grado di arrivare a 13 Tesla (oggi arrivano a 8 T). In un futuro più lontano, potrebbe venir costruito, sempre a Ginevra, il Very Large Hadron Collider con una circonferenza di 100 km. Sul fronte collisori elettroni-positroni, torneranno ad essere costruiti acceleratori lineari, per ovviare al problema delle radiazioni di sincrotrone. I due progetti più importanti sono CLIC (Compact LInerar Collider) del CERN e ILC (International Linerar Collider) proposto da una collaborazione internazionale guidata da Stati Uniti e Giappone. Questi due acceleratori potrebbero raggiungere i 3 TeV di energia. 25 6. Fine del mondo e viaggi nel tempo Quando gli acceleratori iniziarono a raggiungere energie elevate, iniziarono a nascere problemi di sicurezza. Come accadde per la detonazione di prova del primo ordigno nucleare6, i fisici si chiesero se gli esperimenti che stavano portando avanti avessero potuto distruggere il pianeta, o addirittura l’Universo. Sono 4 i principali eventi catastrofici che presero in consideratone. 6.1 Buchi neri Uno degli scenari possibili è quello della formazione di un buco nero che in poco tempo inghiottisca l’intero pianeta. Per formare un buco nero è necessario comprimere un numero elevato di particelle in uno spazio talmente piccolo in modo che la gravità faccia collassare la pallina di materia su se stessa. Ma per riuscire in un impresa simile sarebbe necessaria un’energia di gran lunga superiore a quella ottenibile con gli acceleratori di oggi e dell'immediato futuro. Se anche venisse creato poi, sarebbe così piccolo da evaporare in pochissimo tempo, come dimostrò Stephen Hawking nel 1975. 6.2 Monopoli magnetici I monopoli magnetici non esistono in natura. Ma i fisici non escludono che in situazioni straordinarie possano essere creati. Un monopolo magnetico sarebbe potenzialmente pericoloso in quanto trasformerebbe protoni e neutroni in altre particelle, vaporizzando la materia ordinaria. Anche in questo caso però gli acceleratori artificiali non sarebbero mai in grado di produrli: la particella più pesante scoperta finora è il quark top la cui massa è 170 GeV, un monopolo magnetico, se esistesse, dovrebbe avere una massa di un milione di milioni di volte superiore. 6.3 Decadimento del vuoto Il vuoto per i fisici è tutt'altro che vuoto: esso infatti è pieno di campi e particelle che nascono e muoiono in continuazione. Tutte le interazioni e le leggi della Natura sono caratterizzate da questo tipo di vuoto in cui viviamo. Il problema è che non si sa se il vuoto che ci circonda sia sufficientemente stabile o meno. 6 I fisici in questo caso si chiesero se era possibile incendiare l’atmosfera terrestre in seguito all’energia scatenata della bomba. 26 Dal momento che la Natura tende sempre a raggiungere lo stato con la minore energia possibile, se ci fosse un altro tipo di vuoto più stabile, un impulso di elevata energia potrebbe scatenare il decadimento del vuoto che ”conosciamo” in questo nuovo vuoto. Questa potenziale spinta potrebbe essere data dall'energia di un urto tra particelle in un acceleratore. In un ipotesi simile, non sarebbe in pericolo solo il nostro pianeta ma l’intero universo, in quanto il nuovo vuoto (e le nuove leggi naturali) si propagherebbe in tutte le direzioni alla velocità della luce. 6.4 Varchi spaziotemporali Un’altra ipotesi, meno spaventosa e più affascinate, è la possibilità che un acceleratore renda possibili i viaggi nel tempo. I fisici ritengono infatti che una quantità di energia estremamente elevata, possa produrre onde d’urto in grado di distorcere un piccola porzione di spaziotempo. Verrebbe creato così un varco spazio-temporale. La più convincete confutazione a questi scenari ci viene data dalla Natura stessa. Come abbiamo visto infatti intorno a noi avvengono, ogni secondo, moltissimi urti dovuti ai raggi cosmici, molto più energetici di quelli che avvengono negli acceleratori. Inoltre questi urti non avvengono solo nel nostro pianeta ma anche in tutti gli altri corpi dell’Universo. È stato stimato che i raggi cosmici producono tanti urti quanti produrrà l’LHC per tutto il suo periodo di attività, 10 000 miliardi di volte al secondo. Un evento come quelli visti sopra, insomma, sarebbe già dovuto accadere. 7. I rilevatori: come vedere qualcosa che non si vede Lo sviluppo degli acceleratori sarebbe stato inutile se non ci fosse stato, parallelamente, lo sviluppo dei rilevatori di quello che accade negli urti. Il primo rilevatore fu l’occhio umano: Thomson vide la fluorescenza degli elettroni. Il passo successivo fu quello dei rilevatori a scintillazione, in cui uno schermo sensibile produce una piccola fluorescenza locale se colpito da una particella 7. Un rilevatore di questo tipo fu 7 La fluorescenza era molto flebile: i collaboratori di Rutherford impiegavano diverse ore per abituassi al buio e poterla osservare; è probabile che al giorno d’oggi non sarebbe possibile ripetere questo esperimento dal momento che i nostri occhi sono abituati a ricevere più luce, anche di notte. 27 utilizzato da Rutherford per conoscere l’angolo con cui le particelle alfa rimbalzavano contro la lamina d’oro. Un altro principio sfruttano invece le camere a nebbia e a bolle, e le lastre fotografiche. Questi rilevatori sono composti da un materiale sensibile che, se attraversato da una particella carica lascia una traccia (simile a quelle nella figura a fianco) che può essere fotografata e studiata. Nelle lastre fotografiche ci sono delle sostanze chimiche chiamate emulsioni nucleari che vengono impressionate. Nelle camere a nebbia invece c’è un gas sovrassaturo che si condensa lungo la traiettoria della particella lasciando una scia di goccioline. Nelle camere a bolle invece si usa come materiale sensibile un liquido in uno stato instabile sull’orlo dell’ebollizione; nel percorso della particella carica, il liquido bolle lasciando una scia di bollicine. Questi strumenti però si rivelarono insufficienti quando aumentò il numero di collisioni da analizzare. Un notevole passo avanti fu fatto nel 1959, grazie all'invenzione delle camere multifili da parte di Georges Charpak. Una camera a multifili è composta da tanti fili metallici paralleli immersi in un gas speciale. Al passaggio di una particella carica, il gas si ionizza e le nuvolette di elettroni vengono raccolte dai fili traducendosi in veloci segnali elettrici che vengono registrati da un computer. Si passa dunque dall’analogico al digitale. Anche negli enormi rilevatori di oggi, si utilizzano ancora le camere a multifili, accompagnate da rilevatori al silicio che misurano con precisione micrometrica la traiettoria della particelle. Nella foto a fianco è raffigurato un urto ricostruito tridimensionalmente da un computer. Un’altro componente dei rilevatori è un campo magnetico che fornisce alcune informazioni come la carica e l’energia di una particella: a seconda di come viene deviata una particelle essa avrà più o meno energia. 28 Nel rilevatore dell’LHC che abbiamo potuto vedere, il Compact Muon Solenoid (CMS) c’è il più grande solenoide superconduttore al mondo. Per riuscire ad incurvare in maniera significativa le particelle super-energetiche del LHC infatti servono campi magnetici intensissimi che agiscano in un tratto molto lungo. Il CMS con i suoi 16 metri di altezza e 22 di lunghezza è davvero impressionante visto dal vivo; anche in questo caso ci vorrebbe una tesina apposita per analizzarlo più nel dettaglio. 8. Come gli acceleratori hanno cambiato la nostra vita Lo sviluppo e le scoperte degli acceleratori hanno influenzato in maniera decisiva la nostra vita in diversi modi: sia direttamente, per quello che hanno scoperto; sia indirettamente per il solo fatto di essere costruiti. Gli acceleratori, nati per scopi di ricerca, sono oggi diffusissimi; il 60% è usato in ambito industriale, il 35% in campo medico mentre LHC e compagni rappresentano solo il 5%. Particolarmente importante è il loro utilizzo in campo medico; basti pensare che con il primo acceleratore, Roentgen scoprì i raggi X, oggi utilizzatissimi in tutti gli ospedali per le diagnosi dei pazienti (la famosa TAC). Un altro strumento di diagnosi nato grazie agli acceleratori è la Positron Emission Tomography (PET), che utilizzando fasci di positroni permette di analizzare il metabolismo interno del paziente. Ma gli acceleratori non si limitano alla diagnosi, sono molto utilizzati anche per la cura dei tumori. Con la radioterapia (che utilizza raggi X) e la protonterapia (che utilizza invece adroni) oggi vengono curati quasi il 50 % dei malati. Importantissimo è anche l’uso degli acceleratori in campo industriale. Per esempio, lo spettrometro di massa permette di conoscere la composizione di un materiale: accelerando particelle e immergendole in un campo magnetico uniforme (come avviene in un ciclotrone), si può risalire alla loro massa misurando il raggio della loro traiettoria (raggio di ciclotrone). Di portata straordinaria sono anche le conseguenze indirette che la costruzione degli acceleratori hanno portato all’umanità. La ricerca nel ben mirato campo della fisica subnucleare, ha infatti portato innovazioni tecnologiche rivoluzionare, in maniera simile a quello che avviene in campo militare, ma con scopi sicuramente più nobili. L’esempio più 29 eclatante è l’invenzione del Word Wilde Web (WWW)8 ad opera di Tim Berners Lee, un dipendente del CERN che cercava un modo per mettere in collegamento i fisici di tutto il mondo affinché potessero suddividersi l’immensa mole di dati prodotti dagli acceleratori. Altrettanto significativo è l’invenzione del touch screen avvenuta nel 1976, sempre al CERN, per gestire più velocemente i computer di controllo. Non è ancora chiaro invece quello che si potrà fare con la scoperta delle innumerevoli particelle subnucleari, per esempio, non si sa ancora quali potrebbero essere le applicazioni pratiche della scoperta del bosone di Higgs; d’altronde neanche Thomson aveva idea di cosa si potesse fare con la scoperta dell’elettrone. Non sapeva che l’elettrone avrebbe cambiato il mondo. Una delle proposte più fantascientifiche è quella di creare, tramite la manipolazione del campo di Higgs, armi di distruzione di massa, letteralmente parlando, che polverizzino cioè la materia. Concludo con le parole di Dario Menasce che nel libro “Diavolo di una particella” scrive in favore della ricerca pura: “se alla fine dell’Ottocento fosse invalso il principio di finanziare essenzialmente la ricerca industriale, oggi avremmo forse delle candele eccezionali, ma solo candele.” 8 Il sito del CERN è il primo sito web della storia! 30 Bibliografia Testi a stampa • Ian Sample, Higgs e il suo bosone, Milano, Mondadori, 2010, trad, Paolo Bartesaghi (Massive: the hunt for the God Particle). • Dario Menasce, Diavolo di una particella, Lavis, HOEPLI, 2012. • Amaldi, Sempre più veloci, Bologna, Zanichelli, 2012. • Stephen Howking, dal Big Bang ai buchi neri, Milano, Rizzoli, 1988. • Richard Feynman, Sei pezzi facili, ADELPHI, Milano, 2000. • J.R.R.Tolkien, The Lord of the Ring, HarperCollinsPublishers, London, 1954. Siti web • http://home.web.cern.ch/about, consultato il 27/05/14 • http://web.ihep.su/dbserv/compas/src/mcmillan45/eng.pdf, consultato il 27/05/14 • http://it.wikipedia.org/wiki/Acceleratore_di_particelle, consultato il 27/05/14 • http://cds.cern.ch/record/1092437/files/CERN-Brochure-2008-001-Eng.pdf, consultato il 27/05/14 • http://it.wikipedia.org/wiki/Large_Electron-Positron_Collider, consultato il 03/06/14 • http://it.wikipedia.org/wiki/Large_Hadron_Collider, consultato il 03/06/14 • http://en.wikipedia.org/wiki/High_Luminosity_Large_Hadron_Collider, consultato il 03/06/14 • http://hilumilhc.web.cern.ch/HiLumiLHC/index.html, consultato il 03/06/14 • http://www.borborigmi.org/2012/02/17/rivelatori-di-particelle-a-lhc-quarta-parte-solenoidi-etracciatori/, consultato il 03/06/14 • http://it.wikipedia.org/wiki/Compact_Muon_Solenoid, consultato il 03/06/14 • http://lhcitalia.infn.it/index.php/cms, consultato il 07/06/14 • http://it.wikipedia.org/wiki/Camera_a_bolle, consultato il 07/06/14 • http://it.wikipedia.org/wiki/Camera_a_nebbia, consultato il 07/06/14 • http://it.wikipedia.org/wiki/ALICE, consultato il 07/06/14 • http://www.pd.infn.it/masterclasses/2005/acceleratori&rivelatori.pdf, consultato il 07/06/14 • http://it.wikipedia.org/wiki/Relativit%C3%A0_ristretta, consultato il 07/06/14 • <Http://it.wikipedia.org/wiki/Strangelet>, consultato il 07/06/14 31 Un particolare ringraziamento a: • Nicolò Biancacci, ricercatore al CERN, consultazione via mail. 32
© Copyright 2024 Paperzz