Isaac Asimov. IL LIBRO DELLA FISICA. Arnoldo Mondadori Editore. SECONDO VOLUME. INDICE. Capitolo 7. LE PARTICELLE: pagina 4. L'atomo nucleare: Identificazione delle particelle - Il nucleo dell'atomo; Isotopi: Mattoni uniformi - Sulle tracce delle particelle - La trasmutazione degli elementi; Nuove particelle: Il neutrone - Il positrone - Elementi radioattivi - Acceleratori di particelle - Lo spin delle particelle - I raggi cosmici - La struttura del nucleo; I leptoni: Neutrini e antineutrini - La caccia al neutrino - L'interazione nucleare - Il muone - Il tauone - La massa del neutrino; Adroni e quark: Pioni e mesoni - Barioni - La teoria dei quark; I campi: L'interazione elettromagnetica - Le leggi di conservazione - Una teoria unitaria dei campi. Capitolo 8. LE ONDE: pagina 132. La luce: La natura della luce - La velocit… della luce - Il radar - La propagazione delle onde luminose attraverso lo spazio - I monopoli magnetici - Moto assoluto; Relativit…: Le equazioni di Lorentz- FitzGerald - La radiazione e la teoria dei quanti di Planck - Einstein e il dualismo onda-particella - La teoria della relativit… - Lo spazio-tempo e il paradosso degli orologi - La gravit… e la teoria della relativit… generale di Einstein - Verifiche della teoria della relativit… generale; II calore: Misurazione della temperatura - Due teorie del calore - Il calore come energia - Il calore e il moto molecolare; Massa ed energia; Onde e particelle: Microscopia elettronica - Gli elettroni come onde - Il principio di indeterminazione. Capitolo 9. LA MACCHINA: pagina 222. Fuoco e vapore: Tecnologia primitiva - La macchina a vapore; L'elettricit…: Elettricit… statica - Elettricit… dinamica - Produzione dell'elettricit… - Prime applicazioni tecnologiche dell'elettricit…; Tecnologia elettrica: Il telefono - Registrazione del suono - La luce artificiale prima dell'elettricit… - La luce elettrica - Fotografia; Motori a combustione interna: L'automobile - L'aeroplano; Elettronica: La radio - La televisione - Il transistor; Maser e laser: I maser - I laser. Capitolo 10. IL REATTORE: pagina 320. L'energia: Carbone e petrolio: combustibili fossili - Energia solare; Uso bellico del nucleo: La scoperta della fissione - La reazione a catena - La prima pila atomica - L'Era nucleare - La reazione termonucleare; Uso pacifico del nucleo: Navi a propulsione nucleare - Reattori nucleari per la produzione di elettricit… - Reattori autofertilizzanti - I pericoli della radiazione - Utilizzo dei prodotti di fissione - Ricaduta radioattiva; Fusione nucleare controllata. BIBLIOGRAFIA: pagina 399. Capitolo 7. LE PARTICELLE. L'ATOMO NUCLEARE. Come ho gi… detto nel capitolo precedente, attorno al 1900 si sapeva ormai che l'atomo non era una particella semplice e indivisibile, ma conteneva almeno una particella subatomica - l'elettrone, identificato da J. J. Thomson, il quale aveva suggerito l'idea che gli elettroni fossero immersi, come uvette in un dolce, nel corpo principale dell'atomo, dotato di carica positiva. Identificazione delle particelle. Ben presto, per•, si comprese che all'interno dell'atomo vi erano altre particelle. Becquerel, quando aveva scoperto la radioattivit…, si era reso conto che, mentre una parte della radiazione emessa dalle sostanze radioattive era costituita da elettroni, un'altra parte non lo era. I Curie in Francia ed Ernest Rutherford in Inghilterra avevano identificato una radiazione che era meno penetrante di un fascio di elettroni; Rutherford la denomin• "raggi alfa", e chiam• "raggi beta" l'emissione formata da elettroni; pertanto gli elettroni, quando entrano a far parte di una radiazione, sono denominati "particelle beta". I raggi alfa risultarono anch'essi costituiti di particelle che furono chiamate "particelle alfa". Nello stesso periodo il chimico francese Paul Ulrich Villard scoprŤ una terza forma di emissione radioattiva, cui fu dato il nome di "raggi gamma". (Alfa, beta e gamma sono le prime lettere dell'alfabeto greco.) Ben presto si comprese che i raggi gamma erano simili ai raggi X, ma avevano lunghezze d'onda inferiori. Rutherford verific• sperimentalmente che un campo magnetico deviava le particelle alfa assai meno delle particelle beta, e in direzione opposta. Ne dedusse che la particella alfa aveva carica positiva, cioŠ opposta a quella dell'elettrone, dotato di carica negativa. Misurando la deflessione, si pot‚ stabilire che le particelle alfa dovevano avere una massa almeno doppia di quella dello ione idrogeno, che possedeva la pi— piccola carica positiva nota. L'entit… della deflessione dipende tanto dalla massa quanto dalla carica della particella. Se la carica positiva della particella alfa fosse stata uguale a quella dello ione idrogeno, la sua massa avrebbe dovuto essere doppia di quella dello ione idrogeno; se la sua carica fosse stata doppia, la sua massa avrebbe dovuto essere quadrupla, e cosŤ via. Nel 1909, Rutherford chiarŤ la questione isolando le particelle alfa. Egli pose del materiale radioattivo in un tubo di vetro dalle pareti sottili, circondato da un tubo di vetro le cui pareti erano pi— spesse; tra i due tubi aveva fatto il vuoto. Le particelle alfa riuscivano ad attraversare la parete pi— sottile (quella interna), ma non quella pi— spessa (esterna), sulla quale rimbalzavano, perdendo energia, cosicch‚ non erano pi— in grado di attraversare nemmeno la parete sottile, e restavano intrappolate nell'intercapedine. A quel punto Rutherford eccit• le particelle alfa con una scarica elettrica, facendo sŤ che emettessero luce, e constat• che emettevano le righe spettrali dell'elio. (E' chiaro allora che le particelle alfa prodotte dalle sostanze radioattive del suolo sono la fonte dell'elio presente nei pozzi di gas naturale.) Se la particella alfa Š un atomo di elio, deve avere massa quadrupla di quella dell'idrogeno. Pertanto, la sua carica positiva ammonta a due unit…, ponendo pari a uno la carica dello ione idrogeno. Rutherford in seguito identific• un'altra particella positiva nell'atomo, che in realt… era stata gi… osservata parecchi anni prima, senza per• essere riconosciuta come tale. Nel 1886 il fisico tedesco Eugen Goldstein, usando un tubo a raggi catodici con un catodo perforato, aveva scoperto una nuova radiazione che passava attraverso i fori del catodo in direzione opposta ai raggi catodici, e l'aveva chiamata "Kanalstrahlen" (®raggi canaleŻ). Fu proprio questa radiazione, nel 1902, a dare l'opportunit… di osservare per la prima volta l'effetto Doppler-Fizeau (vedi capitolo secondo) in una sorgente luminosa terrestre. Il fisico tedesco Johannes Stark colloc• uno spettroscopio in posizione tale che i raggi si dirigessero verso di esso, e rese cosŤ osservabile lo spostamento verso il violetto. Per questa ricerca gli fu assegnato il premio Nobel per la fisica nel 1919. Dato che i raggi canale si muovono in direzione opposta a quella dei raggi catodici, che hanno carica negativa, Thomson propose di chiamarli "raggi positivi". Risult• che le particelle che costituivano i raggi positivi attraversavano facilmente la materia, e pertanto si suppose che il loro volume fosse molto inferiore a quello degli atomi o degli ioni ordinari. Misurando la deviazione subita da tali particelle in un campo magnetico, si giunse alla conclusione che la pi— piccola di esse aveva carica e massa uguali a quelle dello ione idrogeno, nell'ipotesi che quest'ultimo trasporti la pi— piccola quantit… possibile di carica positiva; se ne dedusse che la particella che costituiva i raggi positivi fosse la particella positiva fondamentale - l'opposto dell'elettrone. Rutherford la denomin• "protone" (dalla parola greca che significa ®primoŻ). Protone ed elettrone hanno effettivamente cariche elettriche uguali, bench‚ di segno opposto, tuttavia la massa del protone Š 1836 volte maggiore di quella dell'elettrone. A questo punto appariva verosimile che un atomo fosse composto di protoni ed elettroni, le cui cariche si controbilanciavano; sembrava anche probabile che i protoni stessero nell'interno dell'atomo, perch‚ non possono essere facilmente staccati da quest'ultimo, com'Š invece possibile per gli elettroni. Ora, per•, l'interrogativo fondamentale riguardava la struttura formata da queste particelle costitutive dell'atomo. Il nucleo dell'atomo. Fu lo stesso Rutherford a trovare il bandolo della matassa. Tra il 1906 e il 1908 egli seguit• a bombardare con le particelle alfa sottili lamine di metallo (d'oro o di platino, per esempio) per studiarne gli atomi: gran parte dei proiettili attraversavano la lamina senza essere deviati (cosŤ come delle pallottole possono passare tra le foglie di un albero indisturbate), ma non tutti. Rutherford aveva collocato dietro al metallo una lastra fotografica che fungeva da bersaglio, e trov•, intorno al suo centro, un'inaspettata rosa di colpi che si erano dispersi; alcune particelle, inoltre, erano rimbalzate all'indietro! Era come se alcune pallottole non fossero semplicemente passate tra le foglie, ma fossero rimbalzate su qualcosa di pi— solido. Rutherford giunse alla conclusione che esse avevano colpito qualcosa di simile a un nucleo compatto, che occupava solo una parte molto piccola dell'atomo. A quanto sembrava, la maggior parte del volume dell'atomo doveva essere occupata dagli elettroni. Le particelle alfa ®sparateŻ contro la lamina metallica incontravano perlopi— soltanto elettroni e attraversavano questo velo di particelle leggere senza venirne deviate; ogni tanto, per•, poteva accadere che una particella alfa colpisse il nucleo pi— denso dell'atomo, e venisse deflessa. Il fatto che ci• accadesse molto raramente mostrava quanto dovessero essere minuscoli i nuclei atomici, visto che una particella che attraversa un foglio di metallo deve incontrare parecchie migliaia di atomi. Era logico supporre che questo nucleo pi— compatto fosse fatto di protoni. Rutherford descrisse i protoni come una piccola folla addensata in un minuscolo "nucleo atomico" al centro dell'atomo. (In seguito Š stato dimostrato che il diametro del nucleo Š poco pi— di 1 su 100 mila di quello dell'atomo.) Questo, dunque, Š il modello fondamentale dell'atomo: un nucleo carico positivamente, che occupa uno spazio piccolissimo ma contiene quasi tutta la massa dell'atomo, circondato da una ®schiumaŻ di elettroni che occupa quasi tutto il volume dell'atomo, ma praticamente non contribuisce alla sua massa. Per questa ricerca straordinariamente pionieristica sulla natura ultima della materia Rutherford ricevette il premio Nobel per la chimica nel 1908. Divenne cosŤ possibile descrivere gli atomi dei vari elementi e il loro comportamento in termini pi— definiti. Per esempio, l'atomo d'idrogeno possiede un solo elettrone; se questo gli viene sottratto, il protone rimasto si lega immediatamente a una molecola vicina; se per• il nucleo nudo dell'idrogeno non trova un elettrone da condividere con un'altra molecola, si comporta come un protone - cioŠ, come una particella subatomica - e in tale forma pu• penetrare nella materia, reagendo con altri nuclei, se ha abbastanza energia. L'elio, che ha due elettroni, non ne cede uno tanto facilmente. Come gi… ho detto nel capitolo precedente, i suoi due elettroni formano un ®guscioŻ completo, e per questa ragione l'atomo Š inerte. Se si spoglia, per•, un atomo di elio di entrambi gli elettroni, esso diviene una particella alfa, cioŠ una particella subatomica avente due unit… di carica positiva. Il terzo elemento, il litio, ha tre elettroni; se si sottraggono al suo atomo uno o due elettroni, esso diventa uno ione; se invece si sottraggono tutti e tre, diventa anch'esso un nucleo nudo, avente una carica positiva di tre unit…. Il numero delle unit… di carica positiva del nucleo di un atomo deve essere esattamente uguale al numero degli elettroni che esso contiene normalmente, perch‚ l'atomo nel suo insieme Š solitamente neutro. In effetti i numeri atomici degli elementi sono basati sul numero delle cariche positive (e non di quelle negative), perch‚ il numero degli elettroni di un atomo pu• essere modificato con facilit…, dando origine a uno ione, mentre il numero dei protoni pu• essere alterato solo con grande difficolt…. Si era appena giunti a tracciare questo schema della struttura dell'atomo allorch‚ ci si imbatt‚ in un nuovo enigma. Il numero delle unit… di carica positiva di un nucleo, moltiplicato per la massa del protone, non dava affatto la massa del nucleo, salvo nel caso dell'idrogeno. Il nucleo dell'elio, per esempio, aveva una carica positiva pari a due, eppure si sapeva che la sua massa era quadrupla di quella del nucleo dell'idrogeno. E la situazione peggiorava sempre pi— via via che si percorreva la tavola periodica, fino a raggiungere l'uranio, con una massa pari a 238 protoni, ma una carica pari solo a 92. Come poteva un nucleo contenente quattro protoni (come si supponeva fosse il nucleo di elio) avere solo due unit… di carica positiva? La supposizione pi— semplice e pi— immediata era che due unit… della sua carica fossero neutralizzate dalla presenza nel nucleo di particelle cariche negativamente, aventi una massa trascurabile. Era naturale pensare agli elettroni. Si poteva risolvere l'enigma supponendo che il nucleo di elio consistesse di quattro protoni e di due elettroni che neutralizzavano due cariche positive, dando come risultato una carica positiva pari a due - e tale ipotesi poteva essere estesa a tutta la tavola periodica fino all'uranio, il cui nucleo avrebbe avuto quindi 238 protoni e 146 elettroni, il che d… come differenza una carica positiva pari a 92. Il fatto che, come si sapeva, i nuclei radioattivi emettessero elettroni, cioŠ particelle beta, rafforzava la plausibilit… di questa supposizione. Questa concezione della struttura della materia prevalse per pi— di dieci anni, fino al giorno in cui altre ricerche fornirono indirettamente una risposta pi— valida. Nel frattempo, per•, erano sorte alcune serie obiezioni a tale concezione. In primo luogo, se il nucleo era costituito essenzialmente da protoni, mentre gli elettroni, pi— leggeri, in pratica non contribuivano alla massa, come mai le masse relative dei vari nuclei non erano espresse da numeri interi? Per esempio, in base ai pesi atomici misurati, il nucleo dell'atomo di cloro aveva una massa pari a 35,5 volte quella del nucleo dell'idrogeno; conteneva forse 35 protoni e mezzo? Nessuno scienziato, n‚ allora n‚ oggi, potrebbe accettare l'idea di un mezzo protone. Questo problema in particolare ha avuto una risposta che fu trovata prima della soluzione del problema pi— generale. Vale la pena di raccontare tutta la storia. ISOTOPI. Mattoni uniformi. Gi… nel 1816 un medico inglese, William Prout, aveva proposto che tutti gli atomi fossero composti di atomi di idrogeno. In seguito, quando si arriv• a calcolare i pesi atomici, la teoria di Prout venne messa da parte, perch‚ si era scoperto che molti elementi avevano pesi frazionari (prendendo come base l'ossigeno posto uguale a 16). Il cloro ha peso atomico 35,453; altri esempi sono l'antimonio: 121,75; il bario: 137,34; il boro: 10,811; il cadmio: 112,40. Attorno alla fine del diciannovesimo secolo venne accumulandosi una serie di sconcertanti osservazioni, che dovevano portare alla spiegazione. L'inglese William Crookes (quello del tubo di Crookes) separ• dall'uranio una piccola quantit… di una sostanza che si dimostr• assai pi— radioattiva dell'uranio stesso; egli avanz• l'ipotesi che l'uranio in se stesso non fosse affatto radioattivo - lo sarebbe stata solo questa impurit…, che egli chiam• "uranio X". Henri Becquerel, d'altro canto, scoprŤ che l'uranio purificato, debolmente radioattivo, con il tempo sviluppava in qualche modo una radioattivit… crescente. Dopo averlo lasciato a se stesso per un po' di tempo, se ne poteva estrarre dell'uranio X attivo; e questo ripetutamente. In altri termini, l'uranio veniva trasformato dalla sua stessa radioattivit… nell'uranio X, ancora pi— attivo. Poi Rutherford separ• analogamente dal torio il "torio X", fortemente radioattivo, scoprendo che anche il torio col tempo produceva sempre pi— torio X. Gi… si sapeva che l'elemento radioattivo pi— famoso di tutti, il radio, si disintegrava, dando origine al gas radioattivo rado. CosŤ Rutherford e il suo assistente, il chimico Frederick Soddy, giunsero alla conclusione che gli atomi radioattivi, emettendo delle particelle, si trasformavano, in generale, in nuove variet… di atomi radioattivi. I chimici si misero ad analizzare queste trasformazioni e scoprirono una gran variet… di sostanze nuove, a cui diedero nomi come "radio A", "radio B", "mesotorio primo", "mesotorio secondo" e "attinio C". Queste sostanze vennero raggruppate in tre famiglie o serie, a seconda del loro capostipite radioattivo: una serie proveniva dalla disintegrazione dell'uranio, un'altra da quella del torio e una terza da quella dell'attinio (in seguito si trov• che lo stesso attinio aveva un predecessore, che fu chiamato "protoattinio"). In tutto venne identificata una quarantina di membri di queste famiglie, ciascuno contraddistinto dal suo tipo particolare di radiazione; ma il prodotto finale delle tre serie era lo stesso; ciascuna delle tre catene di sostanze finiva nello stesso elemento stabile: il piombo. Era ovvio che tutte queste sostanze non potevano essere elementi distinti, perch‚ tra l'uranio (92) e il piombo (82) vi erano solo dieci posti nella tavola periodica, e per di pi— questi, salvo due, erano gi… occupati da elementi noti. E infatti i chimici trovarono che alcune di queste sostanze, pur avendo una diversa radioattivit…, erano identiche dal punto di vista chimico. Per esempio, gi… nel 1907 i chimici americani Herbert Newby McCoy e William Horace Ross avevano mostrato che il "radiotorio", uno dei prodotti della disintegrazione del torio, presentava esattamente lo stesso comportamento chimico del torio. Il "radio D" si comportava dal punto di vista chimico esattamente come il piombo, tanto che spesso veniva chiamato "radiopiombo". Tutto ci• faceva pensare che le sostanze in questione fossero in realt… variet… di uno stesso elemento: il radiotorio, una forma di torio; il radiopiombo, una delle variet… del piombo; e cosŤ via. Nel 1913, Soddy espresse quest'idea in modo chiaro e la svilupp• ulteriormente, sostenendo che un atomo, quando emette una particella alfa, si trasforma in un elemento situato due posti pi— indietro nell'elenco degli elementi, mentre, quando emette una particella beta, si trasforma in un elemento situato un posto pi— in avanti. Su questa base, il radiotorio doveva effettivamente rientrare nella casella del torio, e altrettanto dovevano fare le sostanze che erano state denominate "uranio X1" e "uranio Y", essendo tutte e tre delle variet… dell'elemento 90. Analogamente, il radio D, il radio B, il torio B e l'attinio B dovevano rientrare tutti nella casella del piombo, in quanto variet… dell'elemento 82. Ai membri di un gruppo di sostanze che occupano una stessa casella nella tavola periodica, Soddy diede il nome di "isotopi" (dalle parole greche che significano ®stessa posizioneŻ); Soddy ricevette il premio Nobel per la chimica nel 1921. Il modello del nucleo protone-elettrone (che doveva invece in seguito risultare erroneo) concordava assai bene con la teoria degli isotopi avanzata da Soddy. Sottraendo una particella alfa a un nucleo, si riduceva di due unit… la sua carica positiva - esattamente quello che ci voleva per farlo retrocedere di due posti nella tavola. Se invece veniva emesso dal nucleo un elettrone (cioŠ una particella beta), rimaneva non neutralizzato un protone in pi—, il che faceva aumentare di un'unit… la carica positiva del nucleo. L'effetto era di elevare di uno il numero atomico, e quindi di far spostare l'elemento di un posto in avanti nella tavola periodica. Come pu• accadere, allora, che, quando il torio decade in radiotorio, dopo aver subŤto non una, ma tre disintegrazioni, il prodotto finale sia ancora torio? Vediamo di dare una spiegazione: in questo processo l'atomo di torio perde una particella alfa, poi una particella beta, poi una seconda particella beta. Se accettiamo l'idea del protone come mattone costitutivo del nucleo, l'atomo di torio ha perso quattro elettroni (supponendo che due ne fossero contenuti nella particella alfa) e quattro protoni. (La situazione reale Š un poco diversa da questa, ma non tanto da influire sul risultato finale.) Il nucleo di torio era partito con 232 protoni e 142 elettroni (almeno cosŤ si era supposto). Avendo perso quattro protoni e quattro elettroni, esso Š ridotto a 228 protoni e 138 elettroni; in entrambi i casi il numero dei protoni non controbilanciati Š sempre 90 (cioŠ 232 meno 142, oppure 228 meno 138), il che significa che il numero atomico rimane invariato, cioŠ 90. Pertanto il radiotorio, come il torio, ha novanta elettroni planetari che girano intorno al nucleo. Dato che le propriet… chimiche di un atomo sono condizionate dal numero dei suoi elettroni periferici, il torio e il radiotorio hanno lo stesso comportamento chimico, a prescindere dal loro diverso peso atomico (232 e 228 rispettivamente). Gli isotopi di un elemento sono identificati dal loro peso atomico, o "numero di massa". CosŤ, il torio ordinario viene chiamato "torio 232", mentre il radiotorio Š il "torio 228". Analogamente, gli isotopi radioattivi del piombo sono chiamati "piombo 210" (radio D), "piombo 214" (radio B), "piombo 212" (torio B) e "piombo 211" (attinio B). E' poi risultato che il concetto di isotopia vale anche per gli elementi stabili, e non solo per quelli radioattivi. Per esempio, si Š trovato che le tre famiglie radioattive che ho menzionato sopra terminavano in tre forme diverse di piombo. La famiglia dell'uranio terminava col piombo 206, quella del torio col piombo 208 e quella dell'attinio col piombo 207, ciascuno dei quali era un isotopo ®ordinarioŻ, stabile, del piombo, che differiva dagli altri due per il peso atomico. La dimostrazione dell'esistenza degli isotopi stabili si ottenne mediante un dispositivo inventato da un assistente di J. J. Thomson, Francis William Aston. Tale dispositivo separava molto selettivamente gli isotopi in virt— della diversa deflessione subita dai loro ioni per effetto di un campo magnetico; Aston lo chiam• "spettrografo di massa". Nel 1919, usando una prima versione di questo strumento, Thomson dimostr• che il neon era costituito di atomi di due variet…, una con numero di massa 20, l'altra con numero di massa 22. Il neon 20 era l'isotopo pi— comune, presente nel rapporto di 10 a 1 con il neon 22. (In seguito fu scoperto un terzo isotopo, il neon 21, presente nel neon dell'atmosfera nella proporzione di un solo atomo su 400.) Ora diventava finalmente chiara la ragione per cui i pesi atomici degli elementi erano frazionari. Il peso atomico del neon - 20,183 - rappresentava la massa media dei tre diversi isotopi che costituiscono l'elemento, cosŤ come si trova in natura. Ogni singolo atomo ha un numero di massa intero, ma il numero di massa medio - che Š poi il peso atomico - Š frazionario. Aston proseguŤ dimostrando che parecchi elementi stabili comuni in realt… erano miscugli di isotopi. ScoprŤ, per esempio, che il cloro, con un peso atomico frazionario di 35,453, era costituito di cloro 35 e cloro 37, le cui "abbondanze relative" sono nel rapporto di 3 a 1. Ad Aston per il suo lavoro fu assegnato il premio Nobel per la chimica nel 1922. Nel discorso tenuto in occasione del conferimento del premio, Aston prospett• chiaramente la possibilit… di far uso dell'energia contenuta nel nucleo dell'atomo, prevedendo sia le centrali nucleari che le bombe nucleari (vedi capitolo decimo). Nel 1935, il fisico canadese- americano Arthur Jeffrey Dempster, usando lo strumento ideato da Aston, compŤ un notevole passo avanti in tale direzione: egli mostr• che, su ogni 100 atomi di uranio, 993 erano di uranio 238, mentre gli altri 7 erano di uranio 235. Si trattava di una scoperta gravida di conseguenze, che si rivelarono a pieno poco tempo dopo. CosŤ, dopo un secolo di piste false, l'intuizione di Prout veniva alfine rivalutata. Gli elementi sono effettivamente costruiti con mattoni tutti uguali - se non proprio con atomi di idrogeno, con unit… aventi la massa dell'atomo di idrogeno. La ragione per cui gli elementi non manifestano in modo evidente questa realt… nei loro pesi atomici Š che essi sono miscele di isotopi, contenenti numeri differenti di ®mattoniŻ. Perfino l'ossigeno, il cui peso atomico, posto uguale a 16, era servito come riferimento per misurare i pesi relativi degli elementi, non costituisce un caso del tutto puro: su ogni 10 mila atomi del comune ossigeno 16, vi sono 20 atomi di un isotopo con numero di massa 18 e 4 con numero di massa 17. Esistono in realt… pochissimi elementi che sono costituiti da un "solo isotopo". (In questo caso la denominazione Š inappropriata, come se si parlasse di una donna che ha dato alla luce ®un solo gemelloŻ.) Tali elementi sono: il berillio, i cui atomi hanno tutti numero di massa 9; il fluoro, costituito esclusivamente da fluoro 19; l'alluminio, che Š solo alluminio 27, e pochi altri ancora. Un nucleo dotato di una data struttura oggi viene chiamato "nuclide", seguendo il suggerimento avanzato nel 1947 dal chimico americano Truman Paul Kohman. Sarebbe quindi appropriato dire che un elemento come l'alluminio Š fatto di un solo nuclide. Sulle tracce delle particelle. Fin da quando Rutherford aveva identificato la prima particella nucleare (la particella alfa), i fisici si erano messi a frugare all'interno del nucleo, nel tentativo o di trasformare un atomo in un altro atomo o di spezzarlo, per vedere di cosa fosse fatto. Sulle prime avevano solo la particella alfa con cui lavorare; Rutherford ne fece un uso eccellente. Uno degli esperimenti pi— fruttuosi di Rutherford e dei suoi assistenti consisteva nello sparare le particelle alfa contro uno schermo rivestito di solfuro di zinco: ogni impatto produceva una minuscola scintillazione (un effetto scoperto da Crookes nel 1903) e quindi l'arrivo di ogni singola particella poteva essere osservato e contato a occhio nudo. Sviluppando questa tecnica, gli sperimentatori collocarono un disco di metallo in modo che impedisse alle particelle alfa di raggiungere lo schermo, interrompendo la scintillazione. Quando introdussero idrogeno nell'apparecchiatura, sullo schermo comparvero delle scintillazioni, nonostante la presenza del disco di metallo; inoltre queste nuove scintillazioni avevano un aspetto differente da quelle prodotte dalle particelle alfa. Dato che il disco metallico bloccava le particelle alfa, doveva esser stata qualche altra radiazione ad attraversarlo, raggiungendo lo schermo. Si finŤ per concludere che tale radiazione doveva consistere di protoni veloci. In altri termini, ogni tanto qualche particella alfa centrava il nucleo di un atomo di idrogeno (che, si ricordi, Š fatto di un protone) proiettandolo in avanti, come una palla da biliardo che ne colpisca un'altra. I protoni colpiti, essendo relativamente leggeri, sfrecciavano in avanti a grande velocit…, riuscendo ad attraversare il disco metallico e a colpire lo schermo rivestito di solfuro di zinco. La rivelazione di singole particelle con il metodo appena descritto costituisce un esempio di "contatore a scintillazione". Per effettuare accuratamente i loro conteggi, Rutherford e i suoi assistenti dovevano prima star seduti una quindicina di minuti al buio per sensibilizzare gli occhi. I moderni contatori a scintillazione non dipendono pi— dall'occhio e dalla mente umani, ma convertono le scintillazioni in impulsi elettrici, che vengono poi contati elettronicamente. Il risultato finale si legge direttamente su un apposito quadrante. Quando le scintillazioni sono molto frequenti, si pu• semplificare l'operazione ricorrendo a circuiti elettrici che fanno in modo che venga registrata solo una scintillazione su due o su quattro (o anche pi—). Questi demoltiplicatori furono ideati dal fisico inglese Charles Eryl Wynn-Williams nel 1931. Dopo la seconda guerra mondiale, il solfuro di zinco Š stato sostituito da certe sostanze organiche che si sono dimostrate preferibili. Negli esperimenti originari di Rutherford con le scintillazioni si verific• uno sviluppo imprevisto. Quando venne usato l'azoto al posto dell'idrogeno come bersaglio per il bombardamento delle particelle alfa, lo schermo di solfuro di zinco diede origine a scintillazioni esattamente uguali a quelle prodotte dai protoni, obbligando Rutherford a dedurne che il bombardamento aveva espulso dei protoni dai nuclei di azoto. Per cercare di capire cosa esattamente fosse successo, Rutherford ricorse alla "camera a nebbia", o "camera di Wilson", un'apparecchiatura inventata nel 1895 dal fisico scozzese Charles Thomson Rees Wilson. Un recipiente di vetro in cui scorre a tenuta uno stantuffo viene riempito di aria satura di vapore; quando si solleva lo stantuffo, l'aria si espande di colpo, raffreddandosi; a causa della diminuzione di temperatura, essa risulta soprassatura di vapore: in queste condizioni, ogni particella carica far… condensare su di s‚ il vapore acqueo: una particella che attraversi velocemente la camera, ionizzando gli atomi contenuti, lascer… una scia formata da una linea nebbiosa di goccioline. La natura di questa traccia pu• dire molte cose sulla particella. Le particelle beta, che sono leggere, lasciano una traccia debole e sinuosa: una particella beta risente anche del semplice passaggio in vicinanza di altri elettroni. La particella alfa, di massa molto maggiore, lascia una traccia diritta e pi— spessa. Se colpisce un nucleo, la particella rimbalza e la traccia subisce una brusca deflessione; se cattura due elettroni, diventa un atomo neutro di elio, e la traccia termina. Oltre allo spessore e alle caratteristiche della sua traccia, vi sono altri fattori che permettono di identificare una particella nella camera a nebbia. La sua risposta a un campo magnetico dice se essa Š carica positivamente o negativamente, e la curvatura della traiettoria ne indica massa ed energia. Oggigiorno i fisici hanno una tale familiarit… con le fotografie di tutti i tipi di tracce che possono leggerle come se fossero scritte a chiare lettere. Per lo sviluppo della camera a nebbia, Wilson ricevette il premio Nobel per la fisica nel 1927. La camera a nebbia ha subŤto successivamente varie modificazioni, che hanno portato a strumenti che si possono comunque considerare come sue varianti. La camera a nebbia originale non era utilizzabile a lungo dopo l'espansione se non si ricreavano le condizioni di partenza; nel 1939, negli Stati Uniti, Alexander Langsdorf ide• una "camera di ionizzazione a diffusione", in cui vapore caldo di alcool veniva fatto diffondere in una regione pi— fredda, in modo che ci fosse sempre una regione soprassatura; cosŤ le tracce si potevano osservare con continuit…. Successivamente fu messa a punto la "camera a bolle", un'apparecchiatura che si basa sullo stesso principio: al posto del vapore soprassaturo si usano ora dei liquidi surriscaldati sotto pressione. Il percorso della particella carica Š indicato da una serie di bollicine di vapore nel liquido, anzich‚ da goccioline liquide nel vapore. Si dice che l'inventore, il fisico americano Donald Arthur Glaser, ne abbia avuto l'idea nel 1953, osservando un bicchiere di birra. Se cosŤ Š stato, si tratta di un bicchiere di birra davvero fortunato per il mondo della fisica e per Glaser stesso, che per tale invenzione ricevette il premio Nobel nel 1960. La prima camera a bolle aveva un diametro di pochi centimetri; dieci anni dopo erano in uso camere a bolle lunghe quasi due metri. Le camere a bolle, come le camere di ionizzazione a diffusione, sono sempre pronte all'uso; in pi—, siccome gli atomi presenti in un dato volume di liquido sono molto pi— numerosi di quelli presenti nello stesso volume di gas, in una camera a bolle vengono prodotti pi— ioni; pertanto essa Š particolarmente adatta per lo studio delle particelle veloci e a breve vita media. Nel giro di una decina di anni dalla loro invenzione, le camere a bolle producevano centinaia di migliaia di fotografie alla settimana. Negli anni sessanta sono state scoperte particelle dalla vita ultra-corta, che sarebbero passate inosservate senza la camera a bolle. L'idrogeno liquido Š eccellente per riempire le camere a bolle, perch‚ il nucleo dell'idrogeno, con il suo unico protone, comporta il minimo di complicazioni. Nel 1973 Š stata costruita a Wheaton, nell'lllinois, una camera a bolle del diametro di quasi cinque metri, che conteneva 33 mila litri di idrogeno liquido. Alcune camere a bolle contengono elio liquido. La camera a bolle, pur essendo pi— sensibile della camera a nebbia alle particelle di vita media breve, ha i suoi inconvenienti. A differenza della camera a nebbia, essa non Š selettiva, cioŠ registra indiscriminatamente tutti gli eventi che si verificano; pertanto si devono ricercare le tracce significative in mezzo a una gran quantit… di tracce inutili. Ci si mise allora alla ricerca di un metodo che combinasse la selettivit… della camera a nebbia con la sensibilit… della camera a bolle. Questi requisiti furono alfine assicurati dalla "camera a scintille", in cui le particelle in arrivo ionizzano il gas neon presente e, dal momento che questo Š attraversato da parecchi elettrodi metallici, vi generano delle correnti elettriche. Le correnti si rendono visibili come scie di scintille, che indicano il passaggio delle particelle; Š possibile fare in modo che l'apparecchio reagisca solo al tipo di particelle che si sta studiando. La prima camera a scintille efficiente fu costruita nel 1959 dai fisici giapponesi Saburo Fukui e Shotaro Miyamoto. Nel 1963, i fisici sovietici la perfezionarono, elevandone la sensibilit… e la flessibilit…. Si producono delle brevi scariche luminose, che, viste globalmente, formano una linea praticamente continua (e non pi— delle scintille isolate, come nel caso della camera a scintille). L'apparecchiatura cosŤ modificata Š una "camera a scarica", ed Š in grado di rivelare sia eventi che si verificano nella camera, sia particelle che saettano in tutte le direzioni, laddove la camera a scintille originaria era insoddisfacente sotto entrambi gli aspetti. La trasmutazione degli elementi. Lasciando da parte le tecniche sofisticate pi— moderne per lo studio delle tracce delle particelle subatomiche, ora dobbiamo tornare indietro di mezzo secolo per vedere cosa accadde quando Rutherford bombard• i nuclei di azoto con le particelle alfa in una delle originarie camere a nebbia di Wilson. La particella alfa lasciava una traccia che terminava improvvisamente con una biforcazione - evidentemente a causa di una collisione con un nucleo di azoto. Uno dei due rami era relativamente sottile, e rappresentava un protone sbalzato via. L'altro ramo, una traccia corta e grossa, rappresentava ci• che restava del nucleo di azoto che aveva subŤto la collisione. Ma della particella alfa stessa non vi era alcuna traccia. Sembrava che dovesse esser stata assorbita dal nucleo di azoto, supposizione che fu in seguito confermata dal fisico inglese Patrick Maynard Stuart Blackett; si dice che questi abbia effettuato pi— di ventimila fotografie per arrivare a mettere insieme otto di tali collisioni (certamente un esempio di pazienza, fede e tenacia sovrumane). Per questo e altri lavori nel campo della fisica nucleare, Blackett ricevette il premio Nobel per la fisica nel 1948. A quel punto era possibile ricostruire cosa fosse successo al nucleo di azoto: catturando una particella alfa, il suo numero di massa saliva da 14 a 18 e la sua carica positiva da 7 a 9; dato per• che la combinazione espelleva immediatamente un protone, il numero di massa ridiscendeva a 17 e la carica positiva a 8. Ora, l'elemento di carica positiva 8 Š l'ossigeno, mentre il numero di massa 17 individua l'isotopo dell'ossigeno 17. In altri termini, Rutherford, nel 1919, aveva trasmutato l'azoto in ossigeno. Si trattava della prima trasmutazione artificiale della storia umana. Il sogno degli alchimisti era stato realizzato, anche se in una maniera che essi non avrebbero potuto n‚ prevedere n‚ attuare con le loro tecniche primitive. Come proiettili, le particelle alfa ottenute dalle sorgenti radioattive presentavano dei limiti: non avevano certo abbastanza energia per riuscire a penetrare nei nuclei degli elementi pi— pesanti, le cui elevate cariche positive esercitano una forte repulsione sulle particelle cariche positivamente. Ma la fortezza del nucleo era stata violata, e attacchi pi— energici sarebbero seguiti. NUOVE PARTICELLE. Il problema dell'attacco al nucleo ci riporta all'altra questione, quella della struttura del nucleo stesso. L'ipotesi protone-elettrone, pur spiegando perfettamente l'isotopia, era in contrasto con alcuni altri fatti. Le particelle subatomiche in generale hanno una propriet… che viene chiamata "spin", in qualche modo analoga alla rotazione assiale degli oggetti astronomici. Questo spin viene misurato in unit… scelte in modo che protoni ed elettroni risultino avere spin o + 1 su 2 o meno 1 su 2. Pertanto, un numero pari di elettroni o di protoni (o di entrambi), contenuti tutti in uno stesso nucleo, gli conferir… uno spin uguale a zero o a un numero intero: + 1, meno 1, + 2, meno 2 e cosŤ via. Se il nucleo Š invece formato da un numero dispari di elettroni, di protoni o di entrambi, lo spin totale sar… un numero semintero, come + 1 su 2, meno 1 su 2, + 1 e mezzo, meno 1 e mezzo, + 2 e mezzo, meno 2 e mezzo, e cosŤ via. Se provate a fare la somma prima di un numero pari e poi di un numero dispari di met… positive e/o negative, vedrete che le cose vanno per forza cosŤ. Ora si dava il caso che il nucleo di azoto avesse carica positiva + 7 e massa 14. Secondo la teoria protone-elettrone, il suo nucleo avrebbe dovuto contenere 14 protoni per render conto della massa e 7 elettroni per neutralizzare met… della carica, in modo che essa risultasse + 7. Pertanto il numero complessivo delle particelle in tale nucleo sarebbe dovuto essere pari a 21, e lo spin totale sarebbe dovuto essere un numero semintero. Ma non Š cosŤ. Lo spin del nucleo dell'atomo di azoto Š un numero intero. Analoghe discrepanze furono riscontrate anche in altri nuclei, cosicch‚ la teoria protone-elettrone apparve decisamente inadeguata. Ma fintantoch‚ i fisici non conoscevano altre particelle subatomiche, era assai difficile che potessero escogitare una teoria sostitutiva. Il neutrone. Tuttavia, nel 1930, due fisici tedeschi, Walther Bothe e Herbert Becker, riferirono di aver causato l'emissione da parte del nucleo di una nuova radiazione misteriosa, eccezionalmente penetrante. Tale radiazione era stata ottenuta bombardando atomi di berillio con particelle alfa. L'anno prima, Bothe aveva ideato dei metodi per usare due o pi— contatori congiuntamente nei "conteggi a coincidenza". Grazie a essi si potevano individuare eventi nucleari che avvenivano in un milionesimo di secondo. Per questo e altri contributi egli ebbe il premio Nobel per la fisica nel 1954. Due anni dopo la scoperta di Bothe e Becker, una scoperta analoga fu fatta dai fisici francesi Fr‚d‚ric e IrŠne Joliot-Curie. (IrŠne era la figlia di Pierre e Marie Curie, e Joliot, sposandola, aveva aggiunto al proprio il cognome Curie.) Essi avevano usato la radiazione scoperta di recente, emessa dal berillio, per bombardare la paraffina, una sostanza simile alla cera, composta di idrogeno e carbonio. La radiazione espelleva protoni dalla paraffina. Il fisico inglese James Chadwick pens• subito che la radiazione fosse costituita di particelle. Per determinare le loro dimensioni, bombard• degli atomi di boro con tali particelle e calcol•, in base all'aumento della massa del nuovo nucleo formatosi, che la massa della particella aggiunta al boro sarebbe dovuta essere circa uguale a quella del protone. Eppure tale particella non era osservabile in una camera di Wilson. Chadwick giunse alla conclusione che la particella fosse priva di carica elettrica; infatti in tal caso non avrebbe prodotto ionizzazione e per questa ragione non si sarebbe verificata la condensazione delle goccioline di acqua. CosŤ Chadwick stabilŤ che si era in presenza di una particella completamente nuova - che aveva circa la stessa massa del protone, ma era priva di carica, ossia elettricamente neutra. Da tempo era stata presa in considerazione la possibilit… che esistesse una simile particella, per la quale era stato anche proposto un nome: "neutrone". Chadwick accett• tale nome. Per la scoperta del neutrone gli fu conferito il premio Nobel per la fisica nel 1935. La nuova particella risolse subito vari problemi che avevano indotto i fisici teorici a dubitare del modello protone-elettrone proposto per il nucleo. Il fisico teorico tedesco Werner Heisenberg conferm• che l'idea di un nucleo costituito da protoni e neutroni, anzich‚ da protoni ed elettroni, forniva uno schema esplicativo molto pi— soddisfacente; per esempio, si poteva concepire il nucleo dell'azoto come costituito di sette protoni e sette neutroni, il che avrebbe dato come numero di massa 14 e come carica totale (numero atomico) + 7. Inoltre, il numero totale delle particelle del nucleo sarebbe stato quattordici - un numero pari - anzich‚ ventuno (un numero dispari), com'era nella teoria precedente. Dato che il neutrone, come il protone, ha spin + 1 su 2 o meno 1 su 2, un numero pari di neutroni e protoni avrebbe comportato per il nucleo dell'azoto uno spin intero, in accordo con i fatti osservati. Tutti i nuclei con spin che non si potevano spiegare con la teoria protone-elettrone, risultarono dotati di spin in accordo con la teoria protone-neutrone. La teoria protoneneutrone fu subito accettata e nessuno l'ha pi— messa seriamente in discussione; all'interno del nucleo non ci sono dunque elettroni. Inoltre, il nuovo modello offriva - al pari del vecchio - un ottimo accordo con la tavola periodica degli elementi. Il nucleo dell'elio, per esempio, veniva ora a essere costituito da due protoni e due neutroni, il che spiegava la sua massa uguale a 4 e la sua carica nucleare pari a 2 unit…. Il modello spiegava anche l'esistenza degli isotopi nel modo pi— semplice: per esempio, il nucleo del cloro 35, secondo la nuova teoria, era formato da 17 protoni e 18 neutroni, e quello del cloro 37 da 17 protoni e 20 neutroni. Entrambi avevano, quindi, la stessa carica nucleare, e il peso aggiuntivo dell'isotopo pi— pesante era spiegato dai due neutroni in pi—. Analogamente, i tre isotopi dell'ossigeno differivano solo per il numero di neutroni: l'ossigeno 16 aveva 8 protoni e 8 neutroni, l'ossigeno 17 ne aveva rispettivamente 8 e 9; l'ossigeno 18 aveva 8 protoni e 10 neutroni. In breve, ogni elemento poteva essere definito semplicemente dal numero dei protoni del suo nucleo, che Š equivalente al numero atomico. Ma tutti gli elementi, salvo l'idrogeno, contenevano nel nucleo anche dei neutroni: il numero di massa del nuclide era pari alla somma dei suoi protoni e dei suoi neutroni. CosŤ, il neutrone si aggiungeva al protone come mattone costitutivo fondamentale della materia. Per comodit…, oggi li si indica con la comune denominazione di "nucleoni", termine che fu usato per la prima volta nel 1941 dal fisico danese Christian Moller, e dal quale Š poi derivato anche il termine "nucleonica", proposto nel 1944 dall'ingegnere americano Zay Jeffries per la scienza e la tecnologia relative al nucleo. Questa nuova comprensione della struttura nucleare ha portato a una nuova classificazione dei nuclidi. Come abbiamo visto, nuclidi aventi un numero uguale di protoni sono isotopi; nuclidi con lo stesso numero di neutroni sono "isotoni". (Ne sono un esempio l'idrogeno 2 e l'elio 3, che hanno ciascuno un solo neutrone nel nucleo.) Nuclidi che hanno lo stesso numero totale di nucleoni e pertanto uguale numero di massa - come il calcio 40 e l'argo 40 - sono "isobari". La teoria protone-neutrone, in un primo tempo, lasciava per• inspiegato il fatto che i nuclei radioattivi potessero emettere particelle beta, cioŠ elettroni. Da dove venivano questi elettroni, se nel nucleo non ce n'erano? Ma anche questo problema trov• la sua soluzione, come chiarir• brevemente. Il positrone. La scoperta del neutrone deluse i fisici sotto un aspetto molto importante. Prima, essi avevano potuto concepire l'universo come costituito di due sole particelle fondamentali - il protone e l'elettrone -; ora se ne doveva aggiungere una terza. E ogni rinuncia alla semplicit… Š spiacevole per gli scienziati. Ma questo non era che il principio, come risult• in seguito. Quel passo indietro sulla strada della semplicit… si tramut• ben presto in una rotta precipitosa: molte altre particelle dovevano essere scoperte. I fisici studiavano gi… da parecchi anni i misteriosi "raggi cosmici" provenienti dallo spazio, scoperti nel 1911 dal fisico austriaco Victor Francis Hess durante i suoi voli in pallone nell'alta atmosfera. La presenza di tale radiazione fu rivelata con uno strumento la cui estrema semplicit… potrebbe rincuorare chi crede che la scienza necessiti sempre di apparecchiature terribilmente complicate. Lo strumento era un comune "elettroscopio", costituito di due sottili foglie d'oro sospese a un'asta metallica all'interno di una scatola pure metallica dotata di finestre. (Tale strumento si pu• considerare una derivazione di quello costruito dal fisico inglese Francis Hauksbee, addirittura nel 1706.) Se si carica l'asta metallica dell'elettroscopio di elettricit… statica, le due lamine d'oro si allontanano. In teoria, dovrebbero restare cosŤ per sempre, ma gli ioni presenti nell'atmosfera circostante, rendendo quest'ultima conduttrice, fanno lentamente perdere la carica all'oro, e le due lamine si riavvicinano. Le radiazioni ad alta energia - come i raggi X, i raggi gamma o i fasci di particelle cariche - producono gli ioni necessari per questa dispersione di carica. Anche se l'elettroscopio Š ben schermato, sussiste una perdita lenta, che indica la presenza di una radiazione molto penetrante, non direttamente associata alla radioattivit…. Era questa radiazione penetrante a crescere d'intensit… via via che Hess ascendeva nell'atmosfera. Per questa scoperta, Hess ebbe il premio Nobel per la fisica nel 1936. Il fisico americano Robert Andrews Millikan, che raccolse un gran numero di informazioni su queste radiazioni (e diede loro il nome di "raggi cosmici", stabilŤ che doveva trattarsi di una forma di radiazione elettromagnetica. Il suo potere di penetrazione era tale che parte di essa avrebbe potuto attraversare perfino lastre di piombo spesse qualche metro. A Millikan ci• fece pensare che la radiazione doveva essere simile ai penetranti raggi gamma, sebbene con una lunghezza d'onda ancora inferiore. Altri, soprattutto il fisico americano Arthur Holly Compton, sostenevano invece che i raggi cosmici fossero costituiti da particelle. Esisteva un modo per risolvere il dilemma. Se si fosse trattato di particelle cariche, esse avrebbero dovuto essere deviate dal campo magnetico terrestre via via che, dallo spazio esterno, si avvicinavano alla terra. Compton analizz• le misurazioni della radiazione cosmica fatte a varie latitudini, e trov• che essa seguiva effettivamente il campo magnetico, essendo pi— debole vicino all'equatore magnetico e pi— forte vicino ai poli, dove le linee di forza magnetiche si immergono nella terra. Quando penetrano nell'atmosfera, le particelle cosmiche primarie hanno energie eccezionalmente alte. Perlopi— si tratta di protoni, ma alcune sono nuclei di elementi pi— pesanti. In generale, pi— il nucleo Š pesante, pi— esso Š raro tra le particelle cosmiche. Nuclei complessi come quelli del ferro furono scoperti abbastanza presto; nel 1968, si trovarono anche nuclei complessi come quelli dell'uranio; questi ultimi erano nella proporzione di uno su 10 milioni di particelle. Si trovarono anche alcuni elettroni con energia molto elevata. Quando le particelle primarie colpiscono gli atomi e le molecole dell'aria, mandano in pezzi i loro nuclei, dando origine a ogni sorta di particelle secondarie. E la radiazione secondaria (ancora molto energetica) quella che rileviamo in vicinanza della terra, mentre i palloni inviati negli strati superiori dell'atmosfera sono riusciti a registrare anche la radiazione primaria. Ora, fu proprio in conseguenza della ricerca sui raggi cosmici che venne individuata (dopo il neutrone) un'altra nuova particella. Questa scoperta in realt… era stata prevista da un fisico teorico: Paul Adrien Maurice Dirac aveva concluso, in base a un'analisi matematica delle propriet… delle particelle subatomiche, che ogni particella doveva avere un'"antiparticella". (Gli scienziati vorrebbero che la natura fosse, oltre che semplice, anche simmetrica.) Dovevano dunque esistere un "antielettrone", esattamente uguale all'elettrone ma dotato di carica positiva anzich‚ negativa, e un "antiprotone" con una carica negativa anzich‚ positiva. La teoria di Dirac non fece grande scalpore nel mondo scientifico quando egli la propose, nel 1930. Ma, due anni dopo, l'antielettrone salt• fuori davvero. Il fisico americano Carl David Anderson stava studiando con Millikan la questione se i raggi cosmici fossero radiazione elettromagnetica o particelle. A quell'epoca quasi tutti i fisici erano disposti ad accettare le prove portate da Compton a favore dell'ipotesi delle particelle cariche, ma Millikan non amava perdere, e faceva di tutto perch‚ la questione non fosse considerata chiusa. Anderson decise di verificare se i raggi cosmici, introdotti in una camera a nebbia, venissero deviati da un intenso campo magnetico. Per rallentare i raggi a sufficienza perch‚ fosse osservabile una curvatura - se c'era - Anderson mise nella camera una barriera di piombo dello spessore di circa 6 millimetri: scoprŤ che la radiazione cosmica che attraversava la camera, dopo essere passata attraverso il piombo, presentava effettivamente una traccia curva. Ma scoprŤ anche qualcosa d'altro. Nell'attraversare la barriera, i raggi cosmici ad alta energia facevano schizzare fuori dagli atomi di piombo alcune particelle: una di esse diede origine a una traccia che era del tutto simile a quella di un elettrone, per• s'incurvava nella direzione sbagliata! La stessa massa, ma carica opposta. Eccolo dunque, l'antielettrone di Dirac. Anderson diede alla particella appena scoperta il nome di "positrone": esso costituisce un esempio di radiazione secondaria prodotta dai raggi cosmici; nel 1963, per•, si scoprŤ che i positroni si trovano anche nella radiazione primaria. Lasciato a se stesso, il positrone Š altrettanto stabile dell'elettrone (e perch‚ non dovrebbe esserlo, visto che Š identico, salvo per la carica elettrica?): esso pu• sussistere indefinitamente. Tuttavia, non viene affatto lasciato a se stesso, perch‚ viene a trovarsi in un universo pieno di elettroni; non appena sfreccia nello spazio, quasi immediatamente (diciamo, entro un milionesimo di secondo) si trova in vicinanza di uno di questi. Per un istante pu• sussistere un'associazione elettrone-positrone, una situazione in cui le due particelle girano l'una intorno all'altra e attorno a un centro di forza comune. Nel 1945, il fisico americano Arthur Edward Ruark propose di chiamare questo sistema a due particelle "positronio", e nel 1951 il fisico austro-americano Martin Deutsch riuscŤ a rivelare la presenza del positronio in virt— della caratteristica radiazione gamma da esso emessa. Tuttavia, il positronio, anche se si forma, resta in vita solo per un decimilionesimo di secondo, al massimo. La danza termina in un abbraccio fra elettrone e positrone. Quando questi due frammenti opposti di materia si combinano, si annullano reciprocamente, senza lasciare alcun residuo materiale ("mutua annichilazione"): ci• che resta Š solo energia, sotto forma di raggi gamma. Veniva cosŤ confermata l'idea di Albert Einstein che si potesse convertire la materia in energia e viceversa. E infatti Anderson riuscŤ ben presto a osservare anche il fenomeno inverso, cioŠ l'improvvisa scomparsa di raggi gamma, con immediata formazione di una coppia elettrone- positrone. Questo fenomeno viene chiamato "produzione di una coppia". (Anderson condivise con Hess il premio Nobel per la fisica nel 1936.) Poco tempo dopo, i Joliot-Curie si imbatterono nel positrone in un'altra situazione, facendo a loro volta un'importante scoperta. Bombardando atomi di alluminio con particelle alfa, essi videro che si ottenevano non solo dei protoni, ma anche dei positroni - cosa certo interessante, ma in se stessa non eccessivamente emozionante. Ma quando fecero cessare il bombardamento, l'alluminio seguit• a emettere positroni! L'emissione svanŤ lentamente col passare del tempo. Sembrava dunque che i due scienziati avessero creato nel bersaglio una nuova sostanza radioattiva. I Joliot-Curie diedero la seguente interpretazione di quanto era successo: quando un nucleo di alluminio assorbiva una particella alfa, l'aggiunta di due protoni trasmutava l'alluminio (numero atomico 13) in fosforo (numero atomico 15). Dato che la particella alfa conteneva in tutto quattro nucleoni, il numero di massa era salito di quattro unit…: si era cioŠ passati da alluminio 27 a fosforo 31. Ora, se la reazione espelleva un protone da questo nucleo, esso doveva trasformarsi in un altro elemento, cioŠ in silicio 30, in seguito alla riduzione di un'unit… tanto del numero atomico che del numero di massa. Dato che una particella alfa Š un nucleo di elio e un protone Š un nucleo di idrogeno, possiamo scrivere come segue l'equazione di questa reazione nucleare: alluminio 27 + elio 4 genera silicio 30 + idrogeno 1. Si noti la conservazione del numero di massa: 27 + 4 = 30 + 1. Altrettanto dicasi per i numeri atomici: 13 per l'alluminio, 2 per l'elio, totale 15; il numero atomico del silicio Š 14 e quello dell'idrogeno 1, il che d… ancora un totale di 15. Questa conservazione sia del numero di massa che del numero atomico Š una regola generale delle reazioni nucleari. I Joliot-Curie supposero che nella reazione si fossero formati neutroni oltre che protoni. Se il fosforo 31 emettesse un neutrone anzich‚ un protone, il numero atomico non cambierebbe, ma quello di massa scenderebbe di un'unit…. In tal caso l'elemento, pur restando fosforo, diventerebbe fosforo 30. L'equazione corrispondente sarebbe la seguente: alluminio 27 + elio 4 genera fosforo 30 + neutrone 1. Dato che il numero atomico del fosforo Š 15 e quello del neutrone Š 0, anche qui i numeri atomici hanno somma costante nei due membri dell'equazione. I due processi - l'assorbimento alfa seguito dall'emissione di un protone, e l'assorbimento alfa seguito dall'emissione di un neutrone - avvengono entrambi quando si bombarda l'alluminio con particelle alfa: ma nei due casi i prodotti finali sono assai differenti. Il silicio 30 Š un ben noto isotopo del silicio, e ne costituisce in natura poco pi— del 3 per cento, mentre il fosforo 30 non esiste in natura. L'unica forma naturale nota del fosforo Š il fosforo 31; in poche parole, il fosforo 30 Š un isotopo radioattivo con vita media breve, che oggi esiste solo se lo si produce artificialmente; anzi, esso Š stato il primo isotopo radioattivo prodotto in laboratorio. I Joliot-Curie ricevettero il premio Nobel per la chimica nel 1935 per la loro scoperta della radioattivit… artificiale. Il fosforo 30 instabile prodotto dai Joliot-Curie bombardando l'alluminio si disintegrava rapidamente, emettendo positroni. Dato che questi ultimi, come gli elettroni, non hanno, in pratica, massa, questa emissione non cambiava il numero di massa del nucleo; ma la perdita di una carica positiva riduceva di uno il suo numero atomico, convertendo l'elemento da fosforo in silicio. Da dove veniva il positrone? Era forse anch'esso un componente del nucleo? La risposta Š negativa. Ci• che accade invece Š che un protone del nucleo diventa un neutrone perdendo la sua carica positiva, che viene liberata sotto forma di un positrone veloce. Ora l'emissione di particelle beta - l'enigma che abbiamo gi… incontrato in questo capitolo - poteva essere spiegata. Essa Š il risultato di un processo che Š esattamente l'inverso di quello con cui un protone decade in un neutrone. CioŠ in questo caso Š un neutrone che diventa un protone. Il decadimento protone-neutrone libera un positrone, e, per mantenere la simmetria, il decadimento neutrone- protone libera un elettrone, cioŠ una particella beta. Perdere una carica negativa equivale ad acquistare una carica positiva, e ci• spiega la formazione di un protone carico positivamente a partire da un neutrone privo di carica. Come fa, per•, il neutrone privo di carica a procurarsi una carica negativa da emettere poi verso l'esterno? In effetti, se si trattasse solo di una carica negativa, il neutrone non potrebbe produrla. Due secoli di esperienza hanno insegnato ai fisici che non si pu• creare dal nulla n‚ una carica positiva n‚ una carica negativa, cosŤ come non si pu• distruggere una carica dell'uno o dell'altro segno. E' la legge di "conservazione della carica elettrica". Ma il neutrone non crea soltanto un elettrone in questo decadimento beta: crea anche un protone. Il neutrone privo di carica scompare, e al suo posto restano un protone carico positivamente e un elettrone carico negativamente: "prese insieme", le due nuove particelle hanno una carica elettrica complessiva uguale a zero. A conti fatti, dunque, non Š stata creata alcuna carica. Analogamente, quando un positrone e un elettrone si incontrano annichilandosi a vicenda, la loro carica "complessiva" Š uguale a zero fin dall'inizio. Quando un protone emette un positrone diventando un neutrone, la particella originaria (il protone) ha carica positiva e le particelle finali (il neutrone e il positrone), prese insieme, hanno carica positiva. E' anche possibile che un nucleo assorba un elettrone; quando ci• accade, un protone del nucleo si trasforma in un neutrone. Un elettrone pi— un protone (che insieme hanno carica zero) formano un neutrone, anch'esso con carica zero. L'elettrone catturato proviene dallo strato pi— interno dell'atomo, dato che gli elettroni di quello strato, essendo i pi— prossimi al nucleo, sono i pi— facili da catturare. E poich‚ lo strato pi— interno Š quello K (vedi capitolo sesto), il processo viene detto "cattura K". In tal caso un elettrone dello strato L cade nel posto vacante, e viene emesso un raggio X. Sono proprio questi raggi X a consentire di rivelare la cattura K, e questo fenomeno fu osservato per la prima volta nel 1938 dal fisico americano Luis Walter Alvarez. Le ordinarie reazioni nucleari interessano solo il nucleo e solitamente non sono influenzate dai cambiamenti chimici, i quali riguardano i soli elettroni. Dato che la cattura K interessa, oltre al nucleo, anche gli elettroni, la probabilit… che si verifichi pu• essere in qualche misura alterata in seguito a mutamenti chimici. Tutte queste interazioni tra particelle soddisfano la legge di conservazione della carica elettrica, e devono soddisfare anche altre leggi di conservazione. Qualsiasi interazione tra particelle che non violi alcuna legge di conservazione si verificher…, prima o poi - pensano i fisici - e un osservatore munito di strumenti opportuni e della necessaria pazienza finir… per rilevarla. Invece gli eventi che violano una legge di conservazione sono ®proibitiŻ e non avranno luogo. Purtuttavia, i fisici di quando in quando scoprono con sorpresa che quella che era sembrata una legge di conservazione non Š poi cosŤ ferrea o cosŤ universale come era parsa in un primo tempo. Su questo torneremo in seguito. Elementi radioattivi. Dopo che i Joliot-Curie ebbero creato il primo isotopo radioattivo artificiale, i fisici si misero allegramente a produrne a legioni. Ormai sono state realizzate in laboratorio variet… radioattive di ogni elemento della tavola periodica. Nella versione moderna di tale tavola, ogni elemento Š, in realt…, una famiglia, con membri stabili e instabili, alcuni dei quali esistono in natura, mentre altri sono solo prodotti di laboratorio. Per esempio, l'idrogeno esiste in tre variet…. Prima di tutto vi Š l'idrogeno ordinario, quello che contiene solo un protone; nel 1932, il chimico Harold Urey riuscŤ a isolarne una seconda variet…, facendo evaporare lentamente una grande quantit… d'acqua, nella convinzione che alla fine vi si sarebbe concentrata una forma di idrogeno pi— pesante, di cui si sospettava l'esistenza. E infatti, quando esamin• allo spettroscopio le ultime goccioline di acqua non evaporata, trov• una debole riga spettrale esattamente nella posizione prevista per l'"idrogeno pesante". Il nucleo dell'idrogeno pesante Š fatto di un protone e di un neutrone. Avendo numero di massa 2, l'isotopo Š l'idrogeno 2, a cui Urey diede il nome di "deuterio", che in greco significa ®secondoŻ, mentre chiam• "deutone" il suo nucleo. Una molecola d'acqua contenente deuterio viene detta "acqua pesante". Dato che il deuterio ha massa doppia di quella dell'idrogeno ordinario, l'acqua pesante ha punti di ebollizione e di congelamento pi— elevati di quelli dell'acqua ordinaria. Mentre l'acqua ordinaria bolle a 100 gradi C e congela a 0 gradi C, l'acqua pesante bolle a 101,42 gradi C e congela a 3,79 gradi C. Lo stesso deuterio ha una temperatura di ebollizione di 23,7 gradi K, a fronte dei 20,4 gradi K dell'idrogeno ordinario. In natura il deuterio Š presente nel rapporto di una parte su 6000 parti di idrogeno ordinario. Urey ricevette il premio Nobel per la chimica nel 1934, per la scoperta del deuterio. Risult• che il deutone era una particella molto utile per il bombardamento dei nuclei. Nel 1934, il fisico australiano Marcus Lawrence Elwin Oliphant e il chimico austriaco Paul Harteck, bombardando lo stesso deuterio con deutoni, produssero una terza forma di idrogeno, fatta di un protone e di due neutroni. La reazione era la seguente: idrogeno 2 + idrogeno 2 genera idrogeno 3 + idrogeno 1. Il nuovo idrogeno ®superpesanteŻ venne chiamato "tritio", dalla parola greca che significa ®terzoŻ, e il suo nucleo "tritone". Il suo punto di ebollizione Š 25,0 gradi K e il suo punto di fusione 20,5 gradi K. E' stato ottenuto anche ossido di tritio puro ("acqua superpesante"), il cui punto di fusione Š a 4,5 gradi C. Il tritio Š radioattivo e decade piuttosto rapidamente; esiste in natura, dato che si forma come prodotto del bombardamento dell'atmosfera da parte dei raggi cosmici. Decadendo, esso emette un elettrone e si trasforma in elio 3, un isotopo stabile ma raro dell'elio, di cui abbiamo parlato nel capitolo precedente. Nell'elio atmosferico, solo un atomo su 800 mila Š elio 3; questo ha indubbiamente origine dal decadimento dell'idrogeno 3, cioŠ del tritio, che a sua volta si forma nelle reazioni nucleari causate dall'impatto dei raggi cosmici sugli atomi dell'atmosfera. Il tritio presente come tale in un qualsiasi istante Š ancora pi— scarso: Š stato calcolato che in tutta l'atmosfera e in tutti gli oceani ve ne sarebbero meno di due chilogrammi. Il contenuto di elio 3 nell'elio estratto dai pozzi di gas naturale, in cui i raggi cosmici hanno avuto minor opportunit… di dare origine al tritio, Š percentualmente ancora pi— basso. Questi due isotopi, elio 3 ed elio 4, non sono gli unici esistenti: i fisici hanno creato due forme radioattive di elio: elio 5, uno dei nuclei pi— instabili che si conoscano, ed elio 6, anch'esso molto instabile. E si potrebbe continuare: oggi l'elenco degli isotopi noti ha raggiunto un totale di circa 1400, pi— di 1100 dei quali sono radioattivi; molti di essi sono stati creati mediante nuove forme di bombardamento nucleare, assai pi— potenti di quello effettuato con le particelle alfa provenienti dalle sorgenti radioattive, che erano gli unici proiettili a disposizione di Rutherford e dei Joliot-Curie. Il genere di esperimento effettuato dai Joliot-Curie all'inizio degli anni trenta sembrava a quel tempo destinato a rimanere confinato nella torre d'avorio della scienza, senza particolari applicazioni pratiche. I fatti dovevano dimostrare il contrario. Supponiamo di bombardare con neutroni un insieme di atomi di un solo tipo, o di pi— tipi: una certa percentuale di ogni tipo di atomi assorbir… un neutrone, producendo, in genere, un atomo radioattivo; questo decadr…, emettendo radiazione sotto forma di particelle o di raggi gamma. Ogni tipo di atomo assorbir… i neutroni dando luogo a un tipo differente di atomo radioattivo, che emetter… radiazione diversa e caratteristica. Tale radiazione pu• essere rivelata con grande sensibilit… e selettivit…: dalle caratteristiche della radiazione e dalla velocit… con cui diminuisce la sua produzione, si pu• identificare l'atomo radioattivo che la emette, e da esso si pu• risalire all'atomo originario, qual era prima dell'assorbimento del neutrone. In tal modo Š possibile analizzare le sostanze con una precisione senza precedenti ("analisi per attivazione da neutroni"): si possono rivelare quantit… minime, dell'ordine di un trilionesimo di grammo, di un particolare nuclide. L'analisi per attivazione da neutroni pu• essere usata per determinare piccolissime differenze nelle impurit… contenute in campioni di particolari pigmenti che risalgono a secoli diversi; si pu• cosŤ stabilire, per esempio, l'autenticit… di un quadro antico, usando solo un minuscolo frammento del suo colore. Altre applicazioni altrettanto raffinate sono possibili: sono stati esaminati perfino alcuni capelli del cadavere di Napoleone, sepolto da un secolo e mezzo, e si Š trovato che contenevano piccole quantit… di arsenico - bench‚ sia difficile stabilire se esso provenisse da un medicinale, da un veleno, o vi si trovasse casualmente. Acceleratori di particelle. Dirac aveva previsto non solo un antielettrone (il positrone), ma anche un antiprotone. Ma per produrre un antiprotone ci voleva molta pi— energia; infatti l'energia necessaria Š proporzionale alla massa della particella in questione. Dato che la massa del protone Š 1836 volte quella dell'elettrone, la formazione di un antiprotone richiedeva almeno 1836 volte l'energia necessaria per la formazione di un positrone. L'impresa dovette quindi attendere l'invenzione di un'apparecchiatura capace di accelerare le particelle subatomiche imprimendo loro energie sufficientemente alte. Ai tempi della previsione di Dirac erano appena stati fatti i primi passi in questa direzione. Nel 1928, i fisici inglesi John Douglas Cockcroft e Ernest Thomas Sinton Walton, lavorando nel laboratorio di Rutherford, svilupparono un "moltiplicatore di tensione", uno strumento capace di creare elevati potenziali elettrici, e quindi di conferire al protone un'energia di quasi 400 mila elettronvolt. (Un "elettronvolt" Š pari all'energia acquisita da un elettrone accelerato in un campo elettrico con una differenza di potenziale di 1 volt.) Con protoni accelerati in tale macchina, i due fisici riuscirono a spezzare il nucleo del litio, risultato per cui ricevettero il premio Nobel per la fisica nel 1951. Nel frattempo il fisico americano Robert Jemison Van de Graaff stava realizzando un altro tipo di macchina acceleratrice, che opera essenzialmente una separazione degli elettroni dai protoni, depositandoli agli estremi opposti dell'apparecchio mediante un nastro trasportatore. Il "generatore elettrostatico di Van de Graaff" riusciva cosŤ a sviluppare una differenza di potenziale elettrico molto alta tra i due estremi opposti; Van de Graaff raggiunse gli 8 milioni di volt. I generatori elettrostatici oggi sono in grado di accelerare facilmente i protoni fino a una velocit… corrispondente a 24 milioni di elettronvolt (i milioni di elettronvolt vengono indicati con l'abbreviazione "Mev"). Le immagini sensazionali delle enormi scintille prodotte nel generatore elettrostatico di Van de Graaff suscitarono nel grosso pubblico molto interesse e resero popolare questa macchina per ®frantumare gli atomiŻ, immaginata spesso come un congegno capace di produrre ®fulmini artificialiŻ; naturalmente, era molto di pi—. (Un generatore destinato a produrre nient'altro che fulmini artificiali era stato effettivamente costruito nel 1922 dall'ingegnere elettrotecnico tedesco-americano Charles Proteus Steinmetz.) L'energia che si pu• raggiungere con tale macchina trova un limite superiore nel fatto che le differenze di potenziale, in pratica, non possono essere aumentate indefinitamente. Ben presto, per•, si trov• un altro sistema: si supponga di accelerare le particelle con una serie di piccole spinte, anzich‚ con un unico, forte colpo. Distanziando nel tempo in modo appropriato tali spinte, si pu• aumentare ogni volta la velocit…, proprio come si pu• far salire sempre pi— in alto un bambino in altalena imprimendogli delle spinte ®in faseŻ con le sue oscillazioni. Nacque da quest'idea, nel 1931, l'"acceleratore lineare", in cui le particelle sono introdotte in un tubo suddiviso in sezioni: la forza acceleratrice Š un campo elettrico alternato, predisposto in modo da impartire una nuova spinta alle particelle ogni volta che esse entrano in una successiva sezione. Ciascuna sezione deve pertanto essere pi— lunga della precedente perch‚ le particelle, pur acquistando una velocit… sempre maggiore, impieghino lo stesso tempo a percorrere ogni sezione, mantenendosi in fase con le spinte. Non Š facile ottenere l'indispensabile sincronizzazione; e comunque esiste un limite alla lunghezza che, in pratica, un tubo pu• avere; pertanto l'acceleratore lineare non ebbe grande successo negli anni trenta. Una delle ragioni che contribuirono a farlo passare in secondo piano fu il fatto che Ernest Orlando Lawrence dell'Universit… di California ebbe un'idea migliore. Invece di obbligare le particelle a percorrere un tubo rettilineo, perch‚ non farle girare lungo un percorso circolare, ricorrendo a un magnete per incurvarne la traiettoria? Ogni volta che avessero descritto una semicirconferenza, avrebbero ricevuto una spinta dal campo alternato; non sarebbe pi— stato cosŤ difficile, allora, controllare la sincronizzazione. Via via che le particelle avessero acquistato una maggior velocit…, il magnete ne avrebbe incurvato meno il percorso, in modo da far loro descrivere circonferenze sempre pi— ampie, impiegando verosimilmente un tempo uguale per ogni giro. Alla fine della loro corsa a spirale, le particelle sarebbero uscite dalla camera circolare (suddivisa, in realt…, in due met… semicircolari, a forma di ®DŻ), colpendo il bersaglio. La nuova apparecchiatura di Lawrence, pi— compatta delle precedenti, prese il nome di "ciclotrone". Il suo primo modello, del diametro di una trentina di centimetri, riusciva ad accelerare i protoni fino a circa 1,25 Mev. Nel 1939 l'Universit… di California disponeva di un ciclotrone con un magnete del diametro di un metro e mezzo, capace di accelerare le particelle fino a circa 20 Mev, cioŠ a una velocit… doppia di quella delle particelle alfa pi— energetiche emesse dagli atomi radioattivi. In quello stesso anno Lawrence ricevette il premio Nobel per la fisica per la sua invenzione. Il ciclotrone per• dovette arrestarsi attorno ai 20 Mev, perch‚ a tale energia le particelle viaggiavano cosŤ velocemente che l'aumento della massa con la velocit… - effetto previsto dalla teoria della relativit… di Einstein - diventava apprezzabile. Questo aumento della massa faceva ritardare le particelle, provocandone lo sfasamento rispetto agli impulsi elettrici. Era per• possibile correre ai ripari, come fecero, indipendentemente, il fisico sovietico Vladimir Iosifovic' Veksler e il fisico californiano Edwin Mattison McMillan nel 1945. Bastava sincronizzare il campo elettrico alternato con l'aumento di massa delle particelle: questa versione modificata del ciclotrone venne chiamata "sincrociclotrone"; nel 1946 l'Universit… di California ne aveva costruito uno che accelerava le particelle fino a un'energia compresa tra i 200 e i 400 Mev. In seguito sincrociclotroni ancora pi— grandi, negli Stati Uniti e in Unione Sovietica, elevarono le energie fino a 700-800 Mev. Nel frattempo il problema dell'accelerazione degli elettroni era stato affrontato separatamente: per riuscire a frantumare gli atomi, i leggeri elettroni dovevano essere portati a velocit… molto superiori a quelle dei protoni (proprio come una pallina da ping-pong, per fare altrettanti danni di una palla da golf, dovrebbe avere una velocit… molto maggiore). Il ciclotrone non andava bene per gli elettroni perch‚, alle alte velocit… necessarie per renderli efficaci, essi subivano un aumento troppo forte della massa. Nel 1940, il fisico americano Donald William Kerst ide• un sistema per accelerare gli elettroni che ne compensava l'aumento di massa con un aumento di intensit… del campo elettrico: anzich‚ descrivere una spirale verso l'esterno, gli elettroni descrivevano una traiettoria circolare costante. La nuova macchina venne chiamata "betatrone", dal nome delle particelle beta. Oggi i betatroni consentono di conferire agli elettroni energie che raggiungono i 340 Mev. Un'altra macchina, basata su un'idea leggermente diversa, il "sincrotrone per elettroni" (o elettrosincrotrone) fu costruita per la prima volta in Inghilterra nel 1946 da F. K. Goward e D. E. Barnes. Queste macchine consentono di ottenere energie fino ai 1000 Mev, ma non possono superare tale soglia perch‚ gli elettroni, muovendosi su una traiettoria circolare, irraggiano sempre pi— energia al crescere della velocit…. La radiazione prodotta da una particella accelerata viene chiamata "Bremsstrahlung", che in tedesco significa ®radiazione di frenamentoŻ. Ispirandosi tanto al betatrone quanto al sincrotrone per elettroni, i fisici che lavoravano con i protoni cominciarono, intorno al 1947, a costruire "sincrotroni per protoni", che mantenevano anch'essi le particelle su un'unica traiettoria circolare. Questa soluzione consentiva anche di ridurre le dimensioni dei magneti: infatti, quando le particelle descrivono un percorso a spirale diretto verso l'esterno, il magnete deve abbracciare tale spirale in tutta la sua ampiezza per mantenere uniforme ovunque l'intensit… del campo magnetico; se, invece, la traiettoria descritta Š una circonferenza, basta che il magnete ricopra una superficie pi— ristretta. Dato che il protone, avendo una massa maggiore, perde energia meno rapidamente dell'elettrone quando percorre una traiettoria circolare, i fisici si posero l'obiettivo di superare la soglia dei 1000 Mev con un protosincrotrone (sincrotrone per protoni). 1000 Mev sono pari a 1 miliardo di elettronvolt (abbreviazione Gev, dove G sta per ®gigaŻ e indica appunto un miliardo di volte. Negli Stati Uniti Š usata anche l'abbreviazione Bev = billion electron volts). Nel 1952, il Laboratorio Nazionale di Brookhaven a Long Island termin• la costruzione di un sincrotrone per protoni che raggiungeva i 2-3 Gev, e che venne chiamato "cosmotrone", perch‚ l'energia raggiunta dalle particelle era dell'ordine di grandezza di quella dei raggi cosmici. Due anni dopo, l'Universit… di California inaugur• il suo "bevatrone", capace di produrre particelle con energia tra i 5 e i 6 Bev. Poi, nel 1957, l'Unione Sovietica annunci• che il suo "fasotrone" aveva raggiunto i 10 Gev. Ma oggi queste macchine sembrano dei gingilli in confronto agli acceleratori di un tipo nuovo, chiamati "sincrotroni a focalizzazione forte". Negli acceleratori tipo bevatrone il limite veniva dal fatto che le particelle del fascio si allargavano, perdendosi contro le pareti del tubo. Nel nuovo tipo questo inconveniente Š ovviato mediante campi magnetici alternati di varia forma, che focalizzano le particelle entro un fascio ristretto. Questa era un'idea gi… venuta a Christofilos che, anche in questo caso, super• con il suo acume da dilettante i professionisti, come era successo nel caso dell'effetto che da lui prese il nome. Tra parentesi, questa soluzione permette anche di diminuire ulteriormente le dimensioni del magnete necessario per raggiungere un determinato livello di energia. L'aumento di cinquanta volte dell'energia delle particelle fu ottenuto con un magnete di massa neppure doppia. Nel novembre 1959, il CERN, Consiglio Europeo per la Ricerca Nucleare, un'organizzazione nella quale collaborano dodici nazioni, mise in funzione a Ginevra un sincrotrone a focalizzazione forte che raggiungeva i 24 Gev e produceva grandi ondate di particelle (contenenti 10 miliardi di protoni) ogni 3 secondi. Questo sincrotrone ha un diametro lungo come tre isolati: il percorso circolare al suo interno Š di circa 650 metri. Nell'intervallo di 3 secondi durante il quale si forma l'ondata, i protoni percorrono questa traiettoria circolare mezzo milione di volte. Il magnete pesa 3500 tonnellate ed Š costato 30 milioni di dollari. Ma i progressi non ebbero sosta. Si cerc• di raggiungere energie sempre maggiori allo scopo di produrre interazioni sempre pi— insolite, che dessero origine a particelle di massa sempre maggiore, per conoscere sempre pi— cose sulla struttura ultima della materia. Per esempio, anzich‚ accelerare un fascio di particelle e farle collidere con un bersaglio fisso, si pens• di produrre due fasci, facendoli circolare in direzioni opposte entro "anelli di accumulazione", in cui la velocit… viene facilmente mantenuta per un certo periodo di tempo. In istanti appropriati i due fasci vengono orientati in modo da farli collidere frontalmente. L'energia efficace della collisione Š quadrupla di quella che si ha nella collisione con un bersaglio fisso. Al Fermi National Accelerator Laboratory (Fermilab) vicino a Chicago, Š entrato in funzione nel 1982 un acceleratore che opera in base a questo principio e dovrebbe essere in grado di raggiungere i 1000 Gev; viene chiamato "tevatrone" (t Š qui ovviamente l'iniziale di trilione). Altri acceleratori sono in corso di progettazione, e si spera di raggiungere i 20 000 Gev. Anche l'"acceleratore lineare", o "linac", Š ritornato in auge. Progressi tecnologici hanno permesso di superare le difficolt… che affliggevano i primi modelli: per energie estremamente elevate un acceleratore lineare presenta alcuni vantaggi rispetto a quelli circolari. Dato che gli elettroni non emettono energia quando viaggiano in linea retta, un linac pu• accelerare pi— efficacemente gli elettroni e mettere a fuoco i fasci sui bersagli con maggior precisione. L'Universit… di Stanford ha costruito un acceleratore lineare lungo pi— di 3 chilometri, che pu• raggiungere anche energie di 45 Gev. Solo con il bevatrone gli uomini sono riusciti a rendere possibile la creazione dell'antiprotone. I fisici californiani si diedero come obiettivo quello di produrlo e di rilevarne la presenza. Nel 1955, Owen Chamberlain ed Emilio SegrŠ, dopo aver bombardato per ore un bersaglio di rame con protoni da 6,2 Gev, riuscirono finalmente a catturare l'antiprotone - anzi, a catturarne una sessantina. La loro identificazione fu tutt'altro che facile. Per ogni antiprotone prodotto nascevano 40 mila particelle di altro tipo. Tuttavia i due fisici riuscirono a riconoscere al di l… di ogni dubbio la particella di cui andavano in cerca, mediante un elaborato sistema di rivelatori progettati e sistemati in modo tale che solo un antiprotone potesse interagire con tutti. Per la loro impresa Chamberlain e SegrŠ ricevettero il premio Nobel per la fisica nel 1959. L'antiprotone Š altrettanto evanescente quanto il positrone - almeno nel nostro universo; nel giro di una frazione infinitesima di secondo dopo la sua creazione, la particella viene catturata da un normale nucleo, carico positivamente: l'antiprotone e uno dei protoni del nucleo si annichilano a vicenda, trasformandosi in energia e in altre particelle pi— piccole. Nel 1965 si riuscŤ a concentrare energia sufficiente per realizzare il processo inverso e produrre una coppia protone-antiprotone. Pu• anche capitare, molto raramente, che un protone e un antiprotone abbiano solo una quasi-collisione, in cui neutralizzano mutuamente le rispettive cariche. Il protone si trasforma in un neutrone, e fin qui tutto bene; ma l'antiprotone diventa un "antineutrone"! Cosa pu• essere un antineutrone? Il positrone Š l'opposto dell'elettrone in virt— della sua carica opposta; analogamente, l'antiprotone Š un'antiparticella in virt— della sua carica. Ma nel caso dell'antineutrone, che Š privo di carica, in cosa consiste la qualit… di antiparticella? Lo spin delle particelle. Questo ci obbliga a tornare sulla questione dello spin, che fu introdotto per la prima volta, nel 1925, dai fisici olandesi George Eugene Uhlenbeck e Samuel Abraham Goudsmit. Ruotando su se stesse, le particelle generano piccolissimi campi magnetici; tali campi sono stati misurati e studiati a fondo, soprattutto dal fisico tedesco Otto Stern e dal fisico americano Isidor Isaac Rabi, che ricevettero il premio Nobel, rispettivamente nel 1943 e nel 1944, per le loro ricerche su questo fenomeno. Le particelle - come il protone, il neutrone e l'elettrone - che hanno uno spin espresso da un numero semintero, obbediscono a un sistema di regole che furono enunciate indipendentemente, nel 1926, da Fermi e da Dirac, e che pertanto vanno sotto il nome di "statistica di Fermi- Dirac". Tali particelle sono dette "fermioni": quindi, protone, elettrone e neutrone sono tutti fermioni. Ma esistono anche particelle il cui spin Š espresso da un numero intero; queste vanno descritte in base a un altro insieme di regole, elaborate da Einstein e dal fisico indiano Satyendranath Bose. Le particelle che seguono la cosiddetta "statistica di Bose-Einstein" vengono chiamate "bosoni"; la particella alfa, per esempio, Š un bosone. Queste due classi di particelle hanno propriet… diverse; per esempio, il principio di esclusione di Pauli (vedi capitolo quinto) vale non solo per gli elettroni, ma anche per tutti i fermioni. Esso, invece, non vale per i bosoni. E' facile capire come faccia una particella carica a dare origine a un campo magnetico, ma non altrettanto si pu• dire nel caso del neutrone, che non ha carica. Eppure ci• accade al di l… di ogni dubbio. La prova pi— immediata Š la seguente: quando un fascio di neutroni colpisce del ferro magnetizzato, esso si comporta in modo ben diverso che nel caso di ferro non magnetizzato. Le propriet… magnetiche del neutrone si spiegano con il fatto (su cui torneremo in seguito) che esso Š molto probabilmente costituito da altre particelle, dotate di carica elettrica; le cariche di tali particelle si controbilancerebbero l'un l'altra nel neutrone, riuscendo purtuttavia a dare origine a un campo magnetico allorch‚ la particella Š in rotazione. Comunque stiano le cose, lo spin del neutrone ci fornisce la risposta che cercavamo a proposito dell'antineutrone: quest'ultimo altro non Š che un neutrone con lo spin rovesciato, cioŠ con il polo magnetico sud situato, per esempio, in alto anzich‚ in basso. Spin antiparalleli caratterizzano effettivamente anche la coppia protone-antiprotone e quella elettrone-positrone. Le antiparticelle possono indubbiamente combinarsi, dando origine all'"antimateria", proprio come le particelle normali danno origine alla materia. Il primo esempio concreto di antimateria fu prodotto a Brookhaven nel 1965: bombardando un bersaglio di berillio con protoni di energia pari a 7 Gev, si ottennero combinazioni di un antiprotone e di un antineutrone, cioŠ degli "antideutoni". In seguito venne prodotto l'"antielio 3"; senza dubbio sarebbe possibile ottenere, volendo, antinuclei ancora pi— complessi. Comunque il principio Š chiaro e nessun fisico lo mette in dubbio: l'antimateria pu• esistere. Ma esiste, nella realt…? Esistono masse di antimateria nell'universo? Se esistessero, non rivelerebbero la propria presenza a grande distanza: gli effetti gravitazionali e luminosi da esse prodotti sarebbero esattamente uguali a quelli prodotti dalla materia ordinaria; tuttavia, se grandi quantit… di antimateria si incontrassero con la materia ordinaria, ne risulterebbero reazioni di annichilazione di massa che si farebbero - e come! - notare. Si tratta di una possibilit…, finora per• non verificata. Gli astronomi non sono riusciti a scoprire in alcuna parte del cielo vampate di energia attribuibili con certezza a una annichilazione materia-antimateria. Si pu• allora affermare che l'universo Š costituito esclusivamente di materia, senza affatto antimateria, o con pochissima antimateria? E se cosŤ fosse, quale ne sarebbe la ragione? Dato che materia e antimateria si equivalgono sotto ogni aspetto, salvo quello di avere propriet… opposte dal punto di vista elettromagnetico, qualsiasi forza tale da creare l'una dovrebbe creare anche l'altra, e l'universo dovrebbe essere fatto di uguali quantit… dell'una e dell'altra. E' un bel dilemma: la teoria ci dice che dovrebbe esserci dell'antimateria nello spazio, e l'osservazione rifiuta di confermarlo. Siamo poi sicuri che manchino le osservazioni? Cosa sappiamo veramente dei nuclei attivi delle galassie e, peggio ancora, delle quasar? Non potrebbe darsi che questi fenomeni ad alte energie siano dovuti all'annichilazione materia-antimateria? Probabilmente no! Anche tale annichilazione non appare sufficiente a spiegarli, tanto che gli astronomi preferiscono ammettere l'esistenza di collassi gravitazionali e buchi neri, che sono gli unici meccanismi noti capaci di produrre l'energia necessaria. I raggi cosmici. Che dire, poi, dei raggi cosmici? Gran parte delle particelle dei raggi cosmici hanno energie comprese tra 1 e 10 Gev, che potrebbero essere spiegate con l'interazione materia-antimateria; ma alcune raggiungono energie molto pi— elevate, di 20 Bev, 30 Bev o 40 Bev. I fisici del MIT (Istituto di Tecnologia del Massachussets) ne hanno addirittura trovate alcune con la colossale energia di 20 miliardi di Gev. Numeri siffatti superano le possibilit… di intuizione della nostra mente, ma possiamo tuttavia farcene un'idea calcolando che la quantit… di energia rappresentata da 20 miliardi di Gev basterebbe a una singola particella submicroscopica per sollevare di 5 centimetri un peso di quasi 2 chilogrammi. Da quando sono stati scoperti i raggi cosmici, ci si Š sempre chiesto da dove vengano e cosa dia loro origine. La risposta pi— semplice Š che in qualche luogo imprecisato della galassia - forse nel nostro sole, forse molto pi— lontano - avvengano delle reazioni nucleari che ®sparanoŻ particelle dotate delle altissime energie che noi rileviamo. In effetti, ondate di raggi cosmici ®molliŻ (cioŠ con energia relativamente bassa) si manifestano circa ogni due anni (come si Š scoperto nel 1942), in corrispondenza dei brillamenti solari. Cosa potrebbero fare, allora, sorgenti come le supernovae, le pulsar, le quasar? Ma non esiste reazione nucleare nota capace di produrre qualcosa di simile a 20 miliardi di Gev. La mutua annichilazione dei nuclei pi— pesanti di materia e antimateria libererebbe particelle veloci con energie di 250 Gev al massimo. Una spiegazione alternativa consiste nel supporre, come fece Fermi, che nello spazio qualche forza acceleri le particelle cosmiche; queste potrebbero essere prodotte con energie inizialmente moderate da esplosioni come quelle delle supernovae, ed essere accelerate poi gradualmente mentre attraversano lo spazio. Oggi, la teoria pi— ampiamente accettata Š quella secondo cui le particelle verrebbero accelerate da campi magnetici cosmici, che agirebbero come giganteschi sincrotroni. Campi magnetici esistono effettivamente nello spazio, e si ritiene che la nostra galassia nel suo insieme ne possieda uno, anche se la sua intensit… potrebbe essere al massimo 1 su 20 mila di quella del campo magnetico associato alla terra. Viaggiando in questo campo, le particelle cosmiche subirebbero una lenta accelerazione lungo una traiettoria curva; acquistando energia, le loro traiettorie si allargherebbero sempre pi— e a un certo punto le particelle pi— energetiche riuscirebbero a sfuggire all'esterno della galassia. La maggior parte delle particelle non riuscirebbero mai a raggiungere una di queste traiettorie di fuga, perch‚ perderebbero parte della loro energia nelle collisioni con altre particelle o con corpi di grosse dimensioni; alcune, tuttavia, vi riuscirebbero. In effetti potrebbe darsi che le particelle cosmiche pi— energetiche che ci raggiungono attraversino la nostra galassia dopo esser state scagliate fuori da altre galassie in questo modo. La struttura del nucleo. Ora che sappiamo tante cose sulla costituzione generale e sulla natura del nucleo, vorremmo saperne molte di pi— sulla sua struttura e soprattutto sui particolari del suo interno. Per prima cosa, che forma ha? Dato che Š tanto piccolo e che neutroni e protoni vi si addensano cosŤ compatti, naturalmente i fisici l'hanno ritenuto sferico. Studiando nei particolari gli spettri atomici, si Š indotti a pensare che molti nuclei abbiano effettivamente una distribuzione di carica sferica; altri si comportano invece come se contenessero due coppie di poli magnetici; pertanto si usa dire che tali nuclei hanno un "momento di quadrupolo". La loro deviazione dalla forma sferica non Š, tuttavia, grande: il caso pi— estremo Š quello dei nuclei dei lantanidi, in cui la distribuzione delle cariche assume la forma di un ellissoide allungato (simile a quella di un pallone da rugby). Anche in questo caso l'asse maggiore non supera per pi— del 20 per cento l'asse minore. Quanto alla struttura interna del nucleo, il modello pi— semplice lo rappresenta come un aggregato di particelle molto pigiate, alquanto simile a una goccia di liquido, in cui le particelle (molecole) sono vicinissime tra loro, in cui la densit… Š pressoch‚ uniforme e vi Š una superficie di separazione ben marcata. Questo "modello a goccia liquida" fu elaborato dettagliatamente nel 1936 da Niels Bohr; esso offre una possibile spiegazione dell'assorbimento e dell'emissione di particelle da parte di alcuni nuclei; si potrebbe supporre che, al momento in cui una particella entra in un nucleo, essa distribuisca la propria energia cinetica tra tutte le particelle molto ammassate, cosicch‚ nessuna di esse riceve abbastanza energia per poter uscire immediatamente dal nucleo; dopo circa un quadrilionesimo di secondo, quando c'Š stato il tempo per miliardi di collisioni casuali, alcune particelle accumulano sufficiente energia per sfuggire dal nucleo. Il modello riesce anche a spiegare l'emissione di particelle alfa da parte dei nuclei pesanti. Questi grossi nuclei possono vibrare, proprio come fa una goccia di liquido, se le particelle che li costituiscono si muovono qua e l…, scambiandosi energia. Tutti i nuclei vibrano in questo modo, ma quelli pi— grossi sono meno stabili e hanno maggior probabilit… di spezzarsi. Per tale ragione porzioni di nucleo, sotto forma di particelle alfa, costituite da due protoni e due neutroni (una combinazione molto stabile), possono staccarsi spontaneamente dalla superficie del nucleo: di conseguenza questo diventa pi— piccolo e meno esposto a rotture dovute alla vibrazione, e raggiunge la stabilit…. La vibrazione pu• tuttavia portare a un'altra forma di instabilit…. Quando una grossa goccia di liquido sospesa in un altro liquido viene posta in oscillazione dalle correnti esistenti nel liquido circostante, essa tende a spezzarsi in due gocce pi— piccole, spesso approssimativamente uguali. Si Š poi scoperto, nel 1939 (ne riparleremo nel capitolo decimo), che si possono davvero spezzare certi grossi nuclei in questo modo, bombardandoli con neutroni: Š questa la "fissione nucleare". Le fissioni nucleari dovrebbero in realt… verificarsi talvolta anche senza l'intervento di una particella proveniente dall'esterno che turbi l'equilibrio del nucleo. La vibrazione interna dovrebbe causare una volta ogni tanto la spaccatura del nucleo in due parti. Nel 1940, i fisici sovietici G. N. Flerov e K. A. Petrjak osservarono effettivamente questa "fissione spontanea" in nuclei di uranio. L'instabilit… dell'uranio si manifesta soprattutto attraverso l'emissione di particelle alfa, ma in un chilogrammo di uranio avvengono 8 fissioni spontanee al secondo, mentre circa 16 milioni di nuclei (sempre ogni secondo) emettono particelle alfa. La fissione spontanea avviene anche nel protoattinio, nel torio e, pi— frequentemente, negli elementi transuranici. Al crescere delle dimensioni dei nuclei, la probabilit… di fissione spontanea aumenta. Negli elementi pi— pesanti di tutti questo diventa il pi— importante processo di decadimento, assai pi— frequente dell'emissione di particelle alfa. Un altro modello molto usato del nucleo stabilisce un parallelo tra esso e l'intero atomo: in tale analogia, i nucleoni contenuti nel nucleo sono paragonati agli elettroni orbitali; anche i nucleoni occuperebbero strati e sottostrati, che si influenzerebbero tra loro solo debolmente. Questo viene chiamato "modello a strati". Per analogia con gli strati elettronici dell'atomo, si potrebbe supporre che i nuclei con strati nucleonici esterni saturi fossero pi— stabili di quelli con strati esterni non saturi. Secondo la teoria pi— semplice, sarebbero particolarmente stabili i nuclei con 2, 8, 20, 40, 70 o 112 protoni o neutroni. Tale supposizione, comunque, non Š suffragata dall'osservazione. Il fisico tedesco-americano Maria Goeppert Mayer prese in considerazione lo spin di protoni e neutroni, mostrando come questo influisse sulla situazione. Risult• che i nuclei contenenti 2, 8, 20, 50, 82 o 126 protoni o neutroni sarebbero dovuti essere particolarmente stabili - il che concorda con l'osservazione. I nuclei con 28 o 40 protoni o neutroni sarebbero abbastanza stabili; tutti gli altri, invece, sarebbero meno stabili o addirittura instabili. Questi numeri vengono talvolta chiamati "numeri magici" (e "semimagici" vengono talora detti i numeri 28 e 40). Tra i nuclei aventi numeri magici vi sono l'elio 4 (2 protoni e 2 neutroni), l'ossigeno 16 (8 protoni e 8 neutroni) e il calcio 40 (20 protoni e 20 neutroni), tutti particolarmente stabili e pi— abbondanti nell'universo di altri nuclei di grandezza simile. Quanto ai numeri magici pi— alti, lo stagno ha dieci isotopi stabili, ognuno con 50 protoni, il piombo ne ha quattro, ciascuno con 82 protoni. Vi sono cinque isotopi stabili (di elementi differenti) con 50 neutroni, e sette isotopi stabili con 82 neutroni ciascuno. In generale, le previsioni particolareggiate della teoria del nucleo a strati funzionano meglio in vicinanza dei numeri magici. A met… strada tra l'uno e l'altro (per esempio per i lantanidi e gli attinidi), le cose vanno maluccio. Tuttavia, proprio in tali regioni a met… strada, i nuclei si allontanano maggiormente dalla forma sferica, essendo pi— decisamente ellissoidali (e la teoria del nucleo a strati presuppone proprio la forma sferica). Il premio Nobel per la fisica del 1963 venne assegnato a Goeppert Mayer e agli altri due fisici, Eugene Wigner e il tedesco Johannes Hans Daniel Jensen, che avevano contribuito a elaborare questa teoria. In generale, man mano che aumenta la complessit… dei nuclei aumenta anche la loro rarit… nell'universo, o la loro instabilit…, o entrambe. Gli isotopi stabili pi— complessi sono il piombo 208 e il bismuto 209, ciascuno con il numero magico di 126 neutroni, e il piombo con in pi— il numero magico di 82 protoni. Di qui in avanti tutti i nuclidi sono instabili e, in genere, lo diventano sempre di pi— al crescere delle dimensioni del nucleo. I numeri magici, per•, spiegano il fatto che il torio e l'uranio posseggano degli isotopi molto pi— prossimi alla stabilit… rispetto ad altri nuclidi di dimensioni analoghe. La teoria prevede anche che alcuni isotopi degli elementi 110 e 114 possano essere (come si Š gi… accennato) considerevolmente meno instabili di altri nuclidi di pari dimensioni. Per questi ultimi, dobbiamo aspettare per saperne di pi—. I LEPTONI. L'elettrone e il positrone sono degni di nota per la piccolezza della loro massa - solo 1 su 1836 di quella del protone, del neutrone, dell'antiprotone o dell'antineutrone - quindi vengono indicati con l'unico termine di "leptoni" (dal greco ®lept•sŻ, che significa ®leggeroŻ). Anche se Š passato quasi un secolo dalla scoperta dell'elettrone, non si Š ancora trovata una particella che abbia una massa minore della sua (o di quella del positrone) e che tuttavia sia dotata di una carica elettrica; anzi, neppure ci si aspetta di trovarla. Potrebbe darsi che la carica elettrica, qualsiasi cosa essa sia (sappiamo, infatti, come essa si comporti e come misurare le sue propriet…, ma non sappiamo cosa "sia"), risulti associata a una massa minima e che si tratti proprio di quella dell'elettrone. Anzi, potrebbe darsi che nell'elettrone non vi sia "altro che" la carica; quando l'elettrone si comporta come una particella, la carica elettrica di tale particella risulta priva di estensione, puramente puntiforme. Certo, esistono particelle a cui non Š associata alcuna massa (o, per essere pi— precisi, alcuna "massa di riposo", come spiegher• nel prossimo capitolo); ma esse non hanno neppure carica elettrica. Per esempio, le onde luminose e le altre forme di radiazione elettromagnetica possono comportarsi come particelle (vedi ancora il prossimo capitolo). L'aspetto corpuscolare di qualcosa che solitamente concepiamo come onda viene chiamato "fotone" (dal termine greco che indica la luce). Il fotone ha massa zero, carica elettrica zero, ma spin 1; Š quindi un bosone. Come facciamo a definire il suo spin? I fotoni partecipano alle reazioni nucleari: in alcuni casi vengono assorbiti, in altri emessi; in tali reazioni nucleari, lo spin totale delle particelle interessate deve restare immutato prima della reazione e dopo ("conservazione dello spin"); l'unico modo perch‚ questo avvenga nelle reazioni nucleari a cui partecipano i fotoni Š che essi abbiano spin pari a 1. Il fotone non viene considerato un leptone, perch‚ questo termine Š riservato ai soli fermioni. Esistono ragioni teoriche che fanno pensare che, quando una massa viene accelerata (per esempio quando si muove in un'orbita ellittica intorno a un'altra massa o quando subisce un collasso gravitazionale), ceda energia sotto forma di onde gravitazionali; queste dovrebbero possedere anch'esse un aspetto corpuscolare; una siffatta particella gravitazionale viene chiamata "gravitone". La forza gravitazionale Š molto, molto pi— debole di quella elettromagnetica. Un protone e un elettrone esercitano una mutua attrazione gravitazionale che Š solo 1 su 10 alla trentanovesima della loro attrazione elettromagnetica. Lo stesso rapporto deve sussistere tra l'energia del gravitone e quella del fotone; rivelare la presenza del gravitone Š quindi compito incredibilmente difficile. Nonostante ci•, il fisico americano Joseph Weber nel 1957 si accinse al compito formidabile di tentare di osservare il gravitone. Dopo vari tentativi, egli ricorse a due cilindri di alluminio, lunghi 153 centimetri e larghi 66, sospesi a un filo metallico in una camera in cui era stato fatto il vuoto. I gravitoni (che sarebbero stati rivelati nella loro forma ondulatoria) avrebbero dovuto provocare un leggero spostamento dei cilindri: era stato apprestato un sistema capace di rivelare uno spostamento di un centesimo di trilionesimo di centimetro. Le deboli onde associate ai gravitoni, provenienti dalle profondit… dello spazio, avrebbero dovuto investire l'intero pianeta, e cilindri separati da grandi distanze avrebbero dovuto risentirne simultaneamente. Nel 1969 Weber annunci• di aver registrato gli effetti delle onde gravitazionali. Il suo annuncio suscit• enorme interesse, perch‚ costituiva una conferma di una teoria particolarmente importante, quella einsteiniana della relativit… generale. Purtroppo non tutte le storie nella scienza sono a lieto fine. Altri scienziati non riuscirono a riottenere i risultati di Weber, nonostante i molti sforzi; l'impressione diffusa nella comunit… scientifica Š che i gravitoni non siano ancora stati osservati; tuttavia, i fisici confidano abbastanza nella teoria per esser sicuri che i gravitoni esistono davvero: sono particelle di massa zero, carica zero e spin 2; inoltre sono bosoni e neppure loro fanno parte dei leptoni. Fotoni e gravitoni non possiedono antiparticelle; o, per meglio dire, coincidono con la propria antiparticella. Per capire cosa intendiamo dire, si immagini di piegare un foglio per il lungo e poi di riaprirlo; ora vi Š un solco lungo la sua mediana: tracciando un cerchietto alla sinistra della piega e un altro cerchietto alla sua destra, alla stessa distanza, possiamo rappresentare un elettrone e un positrone; fotone e gravitone si troverebbero esattamente sulla piega. Neutrini e antineutrini. Fino a qui sembrerebbe che vi siano due leptoni: l'elettrone e il positrone. Sarebbe piaciuto molto ai fisici che cosŤ stessero le cose: non sembrava che vi fosse alcun particolare bisogno di altri leptoni - eppure tale bisogno esisteva. La questione nacque da alcune difficolt… a proposito dell'emissione di particelle beta da parte dei nuclei radioattivi. La particella emessa da un nucleo radioattivo in genere trasporta una considerevole quantit… di energia. Da dove viene tutta questa energia? Essa Š il risultato della conversione di una piccola frazione della massa del nucleo; in altri termini, il nucleo perde sempre una piccola percentuale della propria massa quando espelle una particella. Orbene, i fisici da tempo si chiedevano come mai l'energia di una particella beta emessa nel corso del decadimento radioattivo spesso non fosse sufficiente a spiegare la perdita di massa nel nucleo. In realt…, il deficit non era uguale per tutti gli elettroni: essi presentavano un ampio spettro di energie, la massima delle quali (raggiunta da pochissimi elettroni) era quasi sufficiente a spiegare la perdita di massa, mentre tutte le altre erano troppo scarse, in minore o maggiore misura. Questa non era una caratteristica necessaria di tutti i processi di emissione delle particelle subatomiche: le particelle alfa emesse da un dato nuclide avevano tutte ugual energia, nella quantit… prevista. Cosa non andava, dunque, nell'emissione delle particelle beta? Cosa era avvenuto dell'energia mancante? Lise Meitner, nel 1922, fu la prima a porre questa domanda con conveniente vigore; e attorno al 1930 Niels Bohr era, per parte sua, disposto ad abbandonare il fondamentale principio di conservazione dell'energia, perlomeno per quanto riguardava la sua applicazione alle particelle subatomiche. Ma nel 1931 Wolfgang Pauli, in un tentativo di salvare la conservazione dell'energia (vedi capitolo ottavo), propose una soluzione all'enigma dell'energia mancante; era una soluzione molto semplice: dal nucleo doveva uscire, insieme alla particella beta, un'altra particella fornita dell'energia mancante; questa seconda e misteriosa particella doveva avere delle propriet… piuttosto strane: non avrebbe avuto n‚ carica n‚ massa: dotata solo di una certa quantit… di energia, si sarebbe spostata con la velocit… della luce. Questa particella appariva in realt… come una creazione artificiosa, inventata per far quadrare il bilancio energetico. Eppure, non appena fu proposta l'idea di una siffatta particella, i fisici furono sicuri della sua esistenza. Quando poi fu scoperto il neutrone e si vide che decadeva dando origine a un protone e a un elettrone, anch'esso con un deficit di energia analogo a quello riscontrato nel decadimento beta, la sicurezza dei fisici aument•. Enrico Fermi, in Italia, diede alla ipotetica particella un nome: "neutrino". Il neutrone offrŤ ai fisici un'altra prova a favore dell'esistenza del neutrino. Quasi tutte le particelle, infatti, hanno uno spin, come gi… ho detto. A seconda della sua direzione, esso Š espresso da multipli positivi o negativi di 1 su 2: orbene, il protone, il neutrone e l'elettrone hanno tutti spin 1 su 2; ma se il neutrone, con spin 1 su 2, d… origine a un protone e a un elettrone, che ne Š della legge di conservazione dello spin? I conti non tornano. La somma degli spin del protone e dell'elettrone pu• essere pari a 1 (quando le due particelle hanno spin nella stessa direzione) o a zero (se la direzione degli spin Š opposta); ma mai potr… essere pari a 1 su 2, comunque voi giriate la cosa. Di nuovo Š il neutrino a salvare la situazione. Supponiamo che lo spin del neutrone sia + 1 su 2. Supponiamo inoltre che lo spin del protone sia + 1 su 2 e quello dell'elettrone meno 1 su 2, con un totale pari a zero. Ora, basta dare al neutrino lo spin + 1 su 2, in modo che anch'esso sia un fermione (e quindi un leptone) - ed ecco che i conti tornano perfettamente: + 1 su 2(n) = + 1 su 2(p) meno 1 su 2(e) + 1 su 2 (neutrino). C'Š ancora qualcosa da sistemare. Una sola particella (il neutrone) ha dato origine a due particelle (il protone e l'elettrone); anzi, se teniamo conto anche del neutrino, ne ha prodotte tre. Appare pi— ragionevole supporre che il neutrone si sia convertito in due particelle e un'antiparticella, cioŠ, al netto, in una sola particella. In altri termini, ci• di cui veramente abbiamo bisogno per far tornare i conti non Š un neutrino, ma un antineutrino. Il neutrino, a sua volta, risulterebbe dalla conversione di un protone in un neutrone. I prodotti del decadimento sarebbero allora un neutrone (particella), un positrone (antiparticella) e un neutrino (particella). Anche in questo caso i conti tornano. In altri termini, l'esistenza di neutrini e antineutrini salverebbe non una soltanto, ma tre importanti leggi di conservazione: la conservazione dell'energia, la conservazione dello spin e la conservazione della differenza tra numero delle particelle e numero delle antiparticelle. E' importante salvare queste leggi, perch‚ esse sembrano essere valide in tutte le reazioni nucleari in cui non compaiono elettroni e positroni, e sarebbe auspicabile che lo fossero anche nelle reazioni in cui tali particelle compaiono. Le conversioni protone-neutrone pi— importanti sono quelle che hanno luogo nelle reazioni nucleari che avvengono nel sole e nelle altre stelle. Pertanto le stelle emettono flussi costanti di neutrini, ed Š in tal modo che cedono, si stima, dal 6 all'8 per cento della loro energia. Ci• vale per• solo per stelle come il nostro sole. Nel 1961, il fisico americano Hong Yee Chiu avanz• l'ipotesi che, allorch‚ la temperatura centrale di una stella sale, diventino importanti anche altre reazioni in cui vengono prodotti neutrini. Quando cioŠ il nucleo della stella, progredendo nella sua evoluzione, raggiunge temperature pi— elevate (vedi capitolo secondo), una frazione ancora maggiore della sua energia viene emessa sotto forma di neutrini. Questa concezione contiene qualcosa di estremamente importante. Il sistema con cui viene comunemente trasmessa l'energia, cioŠ per mezzo dei fotoni, Š lento. I fotoni interagiscono con la materia, e dal centro del sole riescono a raggiungere la sua superficie solo dopo innumerevoli miriadi di assorbimenti e di riemissioni; Š per questo che la temperatura superficiale del sole Š di soli 6000 gradi C, mentre quella del suo centro raggiunge i 15 milioni di gradi. Si pu• insomma dire che la materia che forma il sole Š un buon isolante termico. I neutrini, invece, in pratica non interagiscono con la materia. Si Š calcolato che un neutrino potrebbe attraversare in media 100 anni luce di piombo massiccio con solo il 50 per cento di probabilit… di venire assorbito. Pertanto tutti i neutrini che si formano nel nucleo del sole si dirigono subito, alla velocit… della luce, verso la superficie, raggiungendola senza interferenze e in meno di tre secondi, per poi proseguire nello spazio. (I neutrini diretti verso di noi attraversano il nostro corpo senza produrre alcun effetto e senza che ce ne accorgiamo, di giorno come di notte; infatti, anche se di notte la massa della terra Š interposta tra noi e il sole, i neutrini l'attraversano senza difficolt….) Chiu ha calcolato che, quando al centro di una stella la temperatura ha raggiunto i 6 miliardi di gradi K, la maggior parte dell'energia della stella viene pompata via dai neutrini; essi si allontanano immediatamente dal centro, portandosi via tutta quanta l'energia, e il nucleo della stella si raffredda drasticamente. E' questo, forse, che provoca la catastrofica contrazione che si manifesta sotto forma di supernova. La caccia al neutrino. Si producono antineutrini in tutte le conversioni neutrone-protone; queste, per•, non si verificano, per quanto se ne sa, su scala cosŤ vasta come le reazioni che generano i flussi di neutrini che provengono da qualsiasi stella. Le sorgenti pi— importanti di antineutrini sono la radioattivit… naturale e la fissione dell'uranio (di cui parler• pi— in dettaglio nel capitolo decimo). I fisici, naturalmente, non poterono mettersi il cuore in pace finch‚ non ebbero scovato il neutrino; gli scienziati non amano accettare i fenomeni, o le leggi di natura, solo in virt— di un atto di fede. Ma come rivelare un'entit… cosŤ sfuggente come il neutrino - un oggetto senza massa, senza carica, praticamente senza alcuna propensione a interagire con la materia ordinaria? C'era, per•, una tenue speranza: la probabilit… che un neutrino interagisca con una particella qualsiasi Š bassissima, ma non del tutto nulla. Quando si dice che i neutrini possono attraversare senza interagire 100 anni luce di piombo, si parla solo della media; un singolo neutrino, per•, pu• reagire con qualche particella prima di arrivare cosŤ lontano, e ve ne sar… un certo numero - una frazione inconcepibilmente piccola del numero totale - che sar… fermata anche da pochi millimetri di piombo. Nel 1953, un gruppo di fisici, diretto da Clyde Lorrain Cowan e Frederick Reines del Laboratorio Scientifico di Los Alamos, decise di tentare l'impossibile. Essi installarono la loro apparecchiatura rivelatrice di neutrini vicino a un reattore nucleare della Commissione per l'energia atomica sul fiume Savannah, in Georgia. Il reattore avrebbe fornito fasci di neutroni che a loro volta - si sperava - avrebbero rilasciato grandi quantit… di antineutrini; per catturarli, i ricercatori intendevano usare grandi vasche di acqua. Il piano consisteva nel far sŤ che gli antineutrini bombardassero i protoni (nuclei di idrogeno) dell'acqua, nella speranza di osservare gli effetti della cattura di un antineutrino da parte di un protone. Cosa poteva succedere? Quando un neutrone si disintegra, d… origine a un protone, un elettrone e un antineutrino; ora, l'assorbimento di un antineutrino da parte di un protone doveva produrre sostanzialmente l'inverso, cioŠ il protone doveva convertirsi in un neutrone, emettendo nel contempo un positrone. Vi erano quindi due cose di cui andare in cerca: 1) la creazione di neutroni; 2) la creazione di positroni. I neutroni potevano essere rivelati sciogliendo nell'acqua un composto di cadmio; infatti, quando il cadmio assorbe neutroni, emette raggi gamma di un'energia caratteristica. Quanto ai positroni, potevano essere identificati attraverso la loro interazione di annichilazione con gli elettroni, che avrebbe prodotto altri ben definiti raggi gamma. Se gli strumenti avessero rivelato raggi gamma esattamente delle due energie previste, separati da intervalli di tempo appropriati, gli sperimentatori avrebbero potuto essere certi di aver catturato degli antineutrini. Gli ingegnosi strumenti di rivelazione furono approntati e si attese pazientemente; nel 1956, esattamente un quarto di secolo dopo che Pauli aveva ipotizzato l'esistenza della particella, l'antineutrino cadde finalmente in trappola. I giornali (e perfino qualche rivista di alto livello) lo chiamarono semplicemente "neutrino". Per arrivare al vero neutrino, occorreva una sorgente che ne fosse ricca. Quella pi— ovvia era il sole. Che sistema si poteva usare per rivelare il neutrino, distinguendolo dall'antineutrino? Una possibilit… (seguendo un suggerimento del fisico italiano Bruno Pontecorvo) la dava il cloro 37, che costituisce circa un quarto di tutti gli atomi di cloro. Il suo nucleo contiene 17 protoni e 20 neutroni; se uno di questi ultimi assorbe un neutrino, diventa un protone (emettendo un elettrone). Il nucleo avr… allora 18 protoni e 19 neutroni, e sar… argo 37. Per ottenere un bersaglio sufficientemente esteso di nuclei di cloro si potrebbe far ricorso al cloro liquido, che per• Š una sostanza molto corrosiva e tossica, che pone problemi di refrigerazione per essere mantenuta allo stato liquido. Al suo posto si possono usare composti organici che contengono cloro; particolarmente adatto allo scopo Š il composto che va sotto il nome di "tetracloroetilene". Il fisico americano Raymond R. Davis fece uso di questa trappola per neutrini nel 1956, allo scopo di dimostrare che c'era una differenza tra neutrino e antineutrino. Supponendo che le due particelle fossero diverse, la trappola avrebbe catturato solo i neutrini e non gli antineutrini. Quando fu collocata vicino a un reattore nucleare, nel 1956, in condizioni tali in cui avrebbe certamente rivelato la presenza di antineutrini, qualora essi fossero stati identici ai neutrini, la trappola non cattur• alcun antineutrino. Il passo successivo consisteva nel cercare di rivelare i neutrini provenienti dal sole. Un enorme serbatoio contenente circa 400 mila litri di tetracloroetilene venne usato allo scopo, collocandolo in una profonda miniera del Sud Dakota. La terra sovrastante era sufficiente ad assorbire qualsiasi particella proveniente dal sole, salvo i neutrini. (Siamo di fronte alla strana situazione che, per studiare il sole, dobbiamo scendere a grande profondit… nelle viscere della terra.) La vasca rimase esposta ai neutrini solari per parecchi mesi, affinch‚ si accumulasse abbastanza argo 37 da essere osservabile. Poi la si ripulŤ con elio per ventidue ore, e si determin• la piccolissima quantit… di argo 37 presente nell'elio gassoso. In tal modo. nel 1968 i neutrini solari furono osservati, ma in una quantit… pari solo a un terzo di quella prevista dalle teorie correnti sui fenomeni che avvengono all'interno del sole: questo fatto era fonte di grave perplessit…; ci ritorneremo in questo stesso capitolo. L'interazione nucleare. Il nostro elenco delle particelle subatomiche ora ne contiene dieci: quattro particelle di massa elevata (o "barioni", dalla parola greca che significa ®pesanteŻ) - il protone, il neutrone, l'antiprotone e l'antineutrone; quattro leptoni - l'elettrone, il positrone, il neutrino e l'antineutrino; e due bosoni - il fotone e il gravitone. Eppure non bastano, come compresero i fisici in base alle seguenti considerazioni. L'ordinaria attrazione tra protoni ed elettroni isolati e l'ordinaria repulsione tra due protoni o tra due elettroni possono essere spiegate facilmente come conseguenze delle "interazioni elettromagnetiche". Anche il legame che tiene uniti due atomi o due molecole pu• essere spiegato in termini di interazioni elettromagnetiche - cioŠ dell'attrazione tra i nuclei carichi positivamente e gli elettroni esterni. Finch‚ si pensava che il nucleo atomico fosse fatto di protoni e di elettroni sembrava ragionevole supporre che l'interazione elettromagnetica - l'attrazione complessiva tra protoni ed elettroni - bastasse a spiegare anche come il nucleo potesse stare insieme; quando, per•, dopo il 1930, venne accettata la teoria protone-neutrone sulla struttura nucleare, si dovette riconoscere con sgomento che non si sapeva spiegare cosa tenesse insieme il nucleo. Se i protoni erano le uniche particelle cariche presenti, l'interazione elettromagnetica doveva consistere in una forte repulsione tra i protoni stessi, tutti ammassati all'interno del nucleo, a cosŤ breve distanza. Il nucleo di qualsiasi atomo avrebbe dovuto esplodere con forza dirompente nell'istante stesso in cui si fosse formato (sempre che fosse riuscito, in qualche modo, a formarsi). Evidentemente doveva esserci in gioco qualche altro tipo d'interazione, qualcosa di assai pi— forte dell'interazione elettromagnetica, qualcosa che fosse capace di superare quest'ultima. Nel 1930, l'unica altra interazione nota era l'"interazione gravitazionale", che Š talmente pi— debole di quella elettromagnetica da autorizzare a trascurarla quando si considerano eventi subatomici. No, doveva esistere un'"interazione nucleare", un'interazione ancora sconosciuta, ma molto intensa. Il fatto che l'interazione nucleare debba essere molto pi— intensa si pu• dimostrare con il seguente ragionamento: si possono allontanare dal nucleo di un atomo di elio i suoi due elettroni con un'energia di 54 elettronvolt: tale quantit… di energia Š sufficiente a controllare una rilevante manifestazione dell'interazione elettromagnetica. D'altra parte, per separare il protone e il neutrone che costituiscono un deutone (un nucleo che presenta un legame tra i pi— deboli), occorrono 2 milioni di elettronvolt: pur tenendo conto del fatto che le particelle all'interno del nucleo sono molto pi— vicine tra loro di quanto non siano gli atomi in una molecola, si pu• ugualmente concludere che l'interazione nucleare Š circa 130 volte pi— intensa dell'interazione elettromagnetica. Ma qual Š la natura di questa interazione nucleare? La prima indicazione proficua si ebbe nel 1932, allorch‚ Werner Heisenberg avanz• l'ipotesi che i protoni fossero tenuti insieme da "forze di scambio". Egli immagin• che i protoni e i neutroni nel nucleo si scambiassero in continuazione le identit…, talch‚ una particella sarebbe prima un protone, poi un neutrone, poi ancora un protone e cosŤ via. Questo processo sarebbe in grado di mantenere stabile il nucleo, un po' come accade quando, per tenere una patata bollente, la si passa rapidamente da una mano all'altra. Prima che un protone si potesse (per cosŤ dire) ®render contoŻ di essere un protone e cercasse di allontanarsi dai protoni suoi vicini, era diventato un neutrone e poteva restare l… dove si trovava. Ovviamente il trucco poteva funzionare solo se gli scambi avevano luogo con una rapidit… eccezionale, diciamo entro un trilionesimo di trilionesimo di secondo. Un altro modo di considerare questa interazione Š quello di immaginare due particelle che se ne scambiano una terza. Ogni volta che una particella A emette la particella di scambio, deve rinculare per conservare la quantit… di moto; ogni volta che una particella B riceve la particella di scambio, anch'essa viene respinta all'indietro, per la stessa ragione. Mentre la particella di scambio rimbalza avanti e indietro, le particelle A e B si allontanano sempre pi— l'una dall'altra, proprio come accadrebbe se subissero una mutua repulsione. Se, invece, la particella di scambio segue un percorso simile a quello di un boomerang, spostandosi da dietro la particella A a dietro la particella B, allora le due particelle vengono avvicinate, come se subissero un'attrazione. In base alla teoria di Heisenberg tutte le forze di attrazione e di repulsione sarebbero il risultato di scambi di particelle. Nel caso dell'attrazione e della repulsione elettromagnetiche, la particella di scambio sarebbe il fotone, mentre nel caso dell'attrazione gravitazionale (in cui non sembra esservi repulsione) la particella Š il gravitone. Tanto il fotone quanto il gravitone sono privi di massa, e sembra questa la ragione per cui l'elettromagnetismo e la gravitazione sono forze che diminuiscono solo con il quadrato della distanza, il che consente di avvertirle anche a distanze enormi. Le interazioni elettromagnetica e gravitazionale sono "interazioni a lungo raggio d'azione"; per quanto ne sappiamo fino a oggi, sono le uniche esistenti di questo tipo. L'interazione nucleare - ammesso che esistesse - non poteva essere di questo tipo: essa doveva essere molto intensa all'interno del nucleo, se si voleva che il nucleo fosse stabile; ma era praticamente inosservabile all'esterno del nucleo, altrimenti sarebbe stata scoperta molto tempo prima. Pertanto, l'intensit… dell'interazione nucleare doveva diminuire molto rapidamente con la distanza: per ogni raddoppio della distanza, tale forza si riduceva forse a meno di 1 su 100 del suo valore precedente, anzich‚ ridursi a 1 su 4 come avveniva per le interazioni elettromagnetica e gravitazionale. Per questa ragione, si doveva respingere l'ipotesi di una particella di scambio priva di massa. Il muone. Nel 1935, il fisico giapponese Hideki Yukawa analizz• da un punto di vista matematico il problema: una particella di scambio dotata di massa avrebbe prodotto un campo di forze a breve raggio. La massa sarebbe stata inversamente proporzionale al raggio: maggiore la massa, minore il raggio. Risult• che la massa appropriata per tale particella doveva essere compresa tra quella del protone e quella dell'elettrone; Yukawa stim• che dovesse essere tra 200 e 300 volte quella dell'elettrone. Appena un anno dopo, fu scoperta proprio una particella di questo tipo. Carl Anderson (lo scopritore del positrone), mentre studiava al California Institute of Technology le tracce dei raggi cosmici secondari, s'imbatt‚ in una traccia breve, che era troppo curva per appartenere a un protone e troppo poco curva per essere di un elettrone. In altre parole, si trattava di una particella di massa intermedia. Ben presto vennero scoperte molte altre tracce simili, e le particelle vennero denominate "mesotroni", o pi— brevemente "mesoni". In seguito furono scoperte altre particelle aventi masse intermedie di questo ordine di grandezza: quella scoperta per prima fu chiamata "mesone mu", o "muone". (®MuŻ Š una lettera dell'alfabeto greco; oggi sono state ormai usate quasi tutte le lettere greche per indicare le particelle subatomiche.) Come nel caso delle particelle menzionate in precedenza, il muone esiste in due variet…, positivo e negativo. Il muone negativo, la cui massa Š 206,77 volte quella dell'elettrone (e quindi circa 1 su 9 di quella del protone), Š la particella; il muone positivo Š l'antiparticella; essi corrispondono rispettivamente all'elettrone e al positrone; anzi, attorno al 1960 era ormai evidente che il muone negativo era identico all'elettrone in tutto, fuorch‚ nella massa: era dunque un elettrone pesante, cosŤ come il muone positivo era un "positrone pesante". I muoni positivo e negativo si annichilano a vicenda; prima che ci• avvenga, essi possono per breve tempo girare intorno a un comune centro di forza, cosŤ come fanno l'elettrone positivo e quello negativo. Una variante di questa situazione fu scoperta nel 1960 dal fisico americano Vernon Willard Hughes, che riuscŤ a osservare un sistema formato da un elettrone che girava intorno a un muone positivo; egli denomin• tale sistema "muonio" (mentre un positrone che gira intorno a un muone negativo costituirebbe un "antimuonio"). L'atomo del muonio (se cosŤ Š lecito chiamarlo) Š assai simile all'idrogeno 1, in cui un elettrone gira intorno a un protone (positivo); i due hanno anche molte propriet… analoghe. Anche se muoni ed elettroni appaiono identici salvo che per la massa, questa differenza di massa Š sufficiente perch‚ l'elettrone e il muone positivo non siano degli autentici opposti: pertanto essi non si annichilano tra loro. Per questa ragione, il muonio non ha il tipo di instabilit… che caratterizza il positronio; il muonio ha vita media pi— lunga, anzi sarebbe stabile (se non perturbato dall'esterno), se non fosse per il fatto che proprio il muone Š molto instabile (come spiegher• tra breve). Un'altra analogia tra muoni ed elettroni Š la seguente: le particelle pesanti, cosŤ come possono produrre elettroni pi— antineutrini (come nel caso in cui un neutrone decade in un protone) o positroni pi— neutrini (come nel caso in cui un protone decade in un neutrone), possono anche interagire formando muoni negativi pi— antineutrini o muoni positivi pi— neutrini. Per anni i fisici considerarono cosa certa che i neutrini che accompagnano elettroni e positroni e i neutrini che accompagnano muoni negativi e positivi fossero identici; ma nel 1962 si scoprŤ invece che i neutrini non sono, per cosŤ dire, interscambiabili: cioŠ il neutrino dell'elettrone non partecipa ad alcuna interazione in cui si produca un muone, mentre il neutrino del muone non partecipa ad alcuna interazione che dia origine a un elettrone o a un positrone. In breve, i fisici si ritrovarono con due coppie di particelle senza carica e senza massa: l'antineutrino dell'elettrone e il neutrino del positrone, pi— l'antineutrino del muone negativo e il neutrino del muone positivo. Quale sia la differenza tra i due neutrini e quella tra i due antineutrini Š qualcosa che nessuno oggi saprebbe spiegare; ma tale differenza c'Š. I muoni differiscono dall'elettrone e dal positrone sotto un altro aspetto, quello della stabilit…. L'elettrone o il positrone, lasciati a se stessi, restano inalterati indefinitamente; il muone, invece, Š instabile, e si disintegra dopo una vita media di due milionesimi di secondo. Il muone negativo decade in un elettrone (pi— un antineutrino elettronico e un neutrino muonico); il muone positivo a sua volta d… origine a un positrone, un neutrino elettronico e un antineutrino muonico. Quando un muone si disintegra, quindi, d… origine a un elettrone (o a un positrone) con meno di 1 su 200 della sua massa, e a due neutrini privi di massa. Che accade, allora, del rimanente 99,5 per cento della sua massa? Evidentemente si trasforma in energia, che pu• essere emessa sotto forma di fotoni, oppure spesa nella formazione di altre particelle. Inversamente, se si concentra abbastanza energia in un volume molto piccolo, invece di dare origine a una coppia elettrone-positrone, si pu• dare origine a una coppia pi— ®gonfiaŻ: una coppia simile a quella elettrone-positrone, salvo per l'eccesso di energia che si manifesta come massa. La massa in pi— non ha un'®adesioneŻ molto forte all'elettrone o al positrone; pertanto il muone Š instabile, si libera ben presto dalla massa addizionale, diventando un elettrone o un positrone. Il tauone. Naturalmente, se in un piccolissimo volume si concentra ancora pi— energia, si former… un elettrone di massa ancora maggiore. In California, Martin L. Perl, facendo scontrare frontalmente in un acceleratore elettroni e positroni di alta energia, nel 1974 trov• traccia dell'esistenza di un siffatto elettrone superpesante, a cui Š stato dato il nome di "elettrone tau", o, pi— brevemente, "tauone" (®tauŻ Š un'altra lettera dell'alfabeto greco). Come c'era da aspettarsi, esso ha una massa che Š circa 17 volte quella del muone e, pertanto, circa 3500 volte quella dell'elettrone. In pratica, il tauone ha massa doppia di quella del protone e del neutrone. Nonostante ci•, esso Š un leptone, perch‚ ha tutte le propriet… dell'elettrone, salvo la massa e la stabilit…. Era prevedibile che fosse assai pi— instabile del muone, data la sua massa; cosŤ infatti Š; il tauone ha una vita media di solo un trilionesimo di secondo circa, poi decade in un muone (e quindi in un elettrone). Ovviamente esistono un tauone positivo e uno negativo, e i fisici sono sicuri che a essi siano associati un neutrino e un antineutrino di un terzo tipo, anche se per il momento questi non sono ancora stati osservati. La massa del neutrino. Dunque ora conosciamo dodici leptoni: l'elettrone negativo e positivo (quest'ultimo chiamato positrone), il muone negativo e positivo, il tauone negativo e positivo, il neutrino e l'antineutrino elettronici, il neutrino e l'antineutrino muonici e il neutrino e l'antineutrino tauonici. Evidentemente sono suddivisi in tre livelli o, come usano dire oggi i fisici, in tre ®saporiŻ ("flavors"). Ci sono l'elettrone e il neutrino associato, con le loro antiparticelle; il muone e il neutrino associato, con le loro antiparticelle; e il tauone e il neutrino associato, con le loro antiparticelle. Se vi sono tre sapori, non c'Š ragione per cui non debbano essercene altri. Forse, se si potesse aumentare indefinitamente l'energia utilizzabile, si formerebbero leptoni di sempre nuovi sapori, ciascuno dotato di massa maggiore e stabilit… minore del precedente. Anche se forse non esiste un limite teorico al numero dei sapori, naturalmente ne esiste uno pratico. Al limite, potrebbe occorrere tutta l'energia dell'universo per formare un leptone di livello particolarmente alto, oltre al quale non sarebbe possibile andare; e una siffatta particella sarebbe talmente instabile che la sua esistenza sarebbe priva di significato da tutti i punti di vista. Anche limitandosi a considerare i tre sapori oggi noti, ci si trova di fronte al mistero dei neutrini. Come possono esistere tre coppie di fermioni senza massa, senza carica, nettamente differenti agli effetti delle interazioni tra particelle, eppure privi di propriet… che li diversifichino, almeno per quanto ne sappiamo? Forse una propriet… che li distingua esiste, ma non l'abbiamo cercata nel modo giusto. Per esempio, si ritiene che i neutrini dei tre sapori abbiano tutti massa zero, e pertanto viaggino sempre alla velocit… della luce. Ma supponiamo ora che il neutrino di ciascun sapore abbia una massa, anche piccolissima, che sia diversa da quella degli altri due. In tal caso, le propriet… dell'uno sarebbero naturalmente un poco diverse da quelle dell'altro. Per esempio, ciascuno di loro viaggerebbe a una velocit… inferiore, anche se di pochissimo, a quella della luce, e tale scarto differirebbe da un neutrino all'altro. In questo caso si potrebbe sostenere a livello teorico che un qualsiasi neutrino, muovendosi, cambia la propria identit…, passando da neutrino elettronico a neutrino muonico e quindi tauonico; questi mutamenti rappresentano le cosiddette "oscillazioni del neutrino" - un'ipotesi avanzata per la prima volta nel 1963 da un gruppo di fisici giapponesi. Verso la fine degli anni settanta Frederik Reines, uno degli scopritori del neutrino, insieme a Henry W. Sobel e a Elaine Pasierb dell'Universit… di California, volle controllare questa ipotesi. Essi bombardarono circa 270 chili di acqua pesante molto pura con neutrini provenienti dalla fissione dell'uranio: questo processo avrebbe dovuto produrre "solo" neutrini elettronici. I neutrini possono avere due tipi di effetti: in primo luogo, un neutrino pu• colpire la combinazione protone-neutrone del nucleo del deuterio presente nell'acqua pesante, scindendola e seguitando poi la propria corsa. Questa Š una "interazione di corrente neutra", e pu• essere prodotta da un neutrino di qualsiasi sapore. In secondo luogo, un neutrino, colpendo la combinazione protone-neutrone, pu• indurre un decadimento del protone in un neutrone, producendo un elettrone; in questo caso, il neutrino cessa di esistere; Š questa una "interazione di corrente carica", e sono solo i neutrini elettronici che possono provocarla. Si pu• calcolare il numero di eventi di ciascuna classe che dovrebbero verificarsi sia nel caso in cui i neutrini non oscillassero, rimanendo neutrini elettronici, sia in quello in cui oscillassero, cambiando la propria identit…. Nel 1980, Reines annunci• che il suo esperimento sembrava dimostrare l'esistenza dell'oscillazione del neutrino. (Dico ®sembravaŻ perch‚ si tratta di un esperimento al limite del possibile e perch‚ altri analoghi esperimenti hanno dato risultati opposti.) La questione resta dunque sospesa, ma esperimenti effettuati da fisici moscoviti a proposito di tutt'altro problema sembrano aver dimostrato che il neutrino elettronico avrebbe una massa che potrebbe aggirarsi sui 40 elettronvolt, il che significa 1 su 13 mila della massa dell'elettrone; non c'Š dunque da meravigliarsi se si era creduto che la particella fosse priva di massa. Se Reines Š nel giusto, cioŠ se esiste l'oscillazione del neutrino, sarebbe spiegata la scarsit… dei neutrini provenienti dal sole, di cui ho fatto gi… cenno in questo capitolo, e che tanto sconcerta i fisici. Il sistema escogitato da Davis per rivelare i neutrini solari catturerebbe solo neutrini elettronici. Se i neutrini emessi dal sole oscillano, arrivando sulla terra sotto forma di un miscuglio dei tre sapori, magari in quantit… uguali, non fa meraviglia che troviamo solo un terzo dei neutrini previsti. Inoltre, se i neutrini hanno una sia pur piccolissima massa, anche solo 1 su 13 mila di quella dell'elettrone, essi sono talmente numerosi nello spazio che si pu• calcolare che nell'insieme superino la massa di tutti i protoni e i neutroni. Pi— del 99 per cento della massa dell'universo sarebbe in tal caso fatta di neutrini; essi potrebbero senz'altro rappresentare la ®massa mancanteŻ di cui ho parlato nel capitolo secondo. In effetti, ci sarebbe nell'universo una massa di neutrini sufficiente a renderlo chiuso, assicurando che l'espansione prima o poi cesser…, e l'universo ricomincer… a contrarsi. Tutto ci•, per•, solo se Reines Š nel giusto: cosa che ancora non sappiamo. ADRONI E QUARK. Il muone, essendo una sorta di elettrone pesante, non pu• essere quel cemento nucleare di cui andava alla ricerca Yukawa; e siccome non ci sono elettroni nel nucleo, non ci dovrebbe essere neppure il muone. Questo fatto fu stabilito su basi puramente sperimentali assai prima che si sospettasse la quasi identit… di muoni ed elettroni; semplicemente, i muoni non mostravano alcuna tendenza a interagire con i nuclei. Per un certo periodo, la teoria di Yukawa sembr• vacillare. Pioni e mesoni. Nel 1947, per•, il fisico inglese Cecil Frank Powell scoprŤ un altro tipo di mesone nelle fotografie delle tracce dei raggi cosmici; esso aveva una massa leggermente superiore a quella del muone, e pari a 273 volte la massa dell'elettrone. Al nuovo mesone venne dato il nome di "mesone pi", o "pione". Si verific• che il pione interagiva fortemente con il nucleo, ed era esattamente la particella prevista da Yukawa. (Yukawa ricevette il premio Nobel per la fisica nel 1949, mentre Powell lo ricevette nel 1950.) In realt…, esisteva un pione positivo che fungeva da particella di scambio tra protoni e neutroni, ed esisteva anche l'antiparticella corrispondente, il pione negativo, che svolgeva una funzione analoga con antiprotoni e antineutroni. Entrambi hanno vite medie ancora pi— brevi di quelle dei muoni: dopo una vita media di circa 1 su 40 di microsecondo, si disintegrano dando origine a muoni pi— neutrini muonici. (Naturalmente, in seguito il muone si disintegra dando origine a elettroni e ad altri neutrini.) Esiste anche un pione neutro, che Š l'antiparticella di se stesso. (In altre parole, si tratta di una particella della quale esiste una sola variet….) E' estremamente instabile, e si disintegra in meno di un quintilionesimo di secondo, formando una coppia di fotoni gamma. Anche se Š vero che il pione ®fa parteŻ del nucleo, a volte gli gira fuggevolmente intorno prima di interagire con esso: in tal caso si forma un atomo pionico, come si scoprŤ nel 1952. In realt… per qualsiasi coppia di particelle (o di sistemi di particelle) di segno opposto si pu• fare in modo che l'una si metta a girare intorno all'altra; negli anni sessanta i fisici si accinsero allo studio di parecchi ®atomi esoticiŻ, dal carattere evanescente, sperando di riuscire a saperne di pi— sulla struttura delle particelle. I pioni furono i primi a essere scoperti di un'intera classe di particelle, che vengono raggruppate sotto la denominazione di "mesoni". Di esse "non" fa parte il muone, anche se in origine era stata proprio questa la prima particella a essere denominata cosŤ. I mesoni interagiscono intensamente con i protoni e i neutroni; i muoni invece no, ed Š questa la ragione per cui hanno perso il diritto di essere inclusi in tale classe. Un altro esempio di particella - oltre al pione - che faccia parte del gruppo Š il "mesone K", o "kaone", che fu scoperto nel 1952 da due fisici polacchi, Marian Danysz e Jerzy Pniewski. La sua massa Š 970 volte quella dell'elettrone, e quindi circa la met… della massa del protone o del neutrone. Esistono due variet… di kaoni, una positiva e una neutra, ciascuna con la propria antiparticella. Naturalmente sono instabili, e decadono dando origine a pioni in circa un microsecondo. Barioni. Per masse superiori a quelle dei mesoni si hanno i barioni (di cui ho gi… parlato). Di questi ultimi fanno parte i protoni e i neutroni, che ne costituirono gli unici esempi noti fino agli anni cinquanta. Tuttavia, a partire dal 1954 si scoprŤ una serie di particelle di massa ancora maggiore, che talora vengono chiamate "iperoni". Sono stati proprio i barioni le particelle che pi— hanno proliferato negli ultimi anni; il protone e il neutrone non sono che le due particelle pi— leggere di una classe molto ampia. I fisici hanno scoperto una "legge di conservazione del numero barionico": in tutti i processi di decadimento delle particelle il numero totale dei barioni (cioŠ la differenza tra numero dei barioni e numero degli antibarioni) resta sempre lo stesso. Il decadimento porta sempre da una particella di maggior massa a una di massa minore, il che spiega come mai il protone sia stabile, anzi sia l'"unico" barione a esserlo. Il fatto Š che il protone Š il barione pi— leggero: se si disintegrasse, dovrebbe cessare di essere un barione, venendo meno alla legge di conservazione del numero barionico. Anche l'antiprotone Š stabile per questa stessa ragione, essendo il pi— leggero antibarione esistente. Naturalmente, un protone e un antiprotone possono invece dar luogo a un processo di mutua annichilazione, perch‚, presi insieme (essendo un barione e un antibarione), hanno come numero barionico totale zero. (Esiste anche una "legge di conservazione del numero leptonico", che spiega perch‚ elettrone e positrone sono gli "unici" leptoni a essere stabili; essi sono i leptoni di massa pi— piccola e non possono disintegrarsi in nulla di pi— semplice senza violare la legge di conservazione. In realt… c'Š una seconda ragione che impedisce a elettroni e positroni di decadere: essi sono le particelle di massa pi— piccola che possano avere una carica elettrica. Se decadessero in qualcosa di pi— semplice, perderebbero tale carica - ma questa perdita Š vietata dalla "legge di conservazione della carica elettrica". Quest'ultima Š una legge di conservazione pi— fondamentale di quella della conservazione del numero barionico, come vedremo; pertanto elettroni e positroni sono, sotto un certo aspetto, pi— stabili di protoni e antiprotoni - o, almeno, "pu•" darsi che lo siano.) I primi barioni scoperti dopo il protone e il neutrone sono stati indicati con le lettere dell'alfabeto greco: ci furono cosŤ una "particella lambda", una "particella sigma" e una "particella csi". La prima di queste si presentava in una sola variet…, neutra; la seconda in tre variet…, positiva, negativa e neutra; la terza in due variet…, negativa e neutra. Ciascuna di queste particelle aveva la propria antiparticella, cosŤ che in tutto facevano dodici particelle. Tutte quante erano estremamente instabili: nessuna poteva vivere per pi— di un centesimo di microsecondo circa; qualcuna poi, come la particella sigma neutra, si disintegrava dopo un centesimo di trilionesimo di microsecondo. La particella lambda, essendo neutra, pu• sostituire un neutrone nel nucleo, formando un "ipernucleo" - un'entit… che dura meno di un miliardesimo di secondo: il primo oggetto del genere a essere scoperto fu un nucleo di ipertrizio, costituito di un protone, un neutrone e una particella lambda: esso fu individuato tra i prodotti della radiazione cosmica da Danysz e Pniewski nel 1952. Danysz, nel 1963, riferŤ di aver trovato ipernuclei che contenevano due particelle lambda. Inoltre, si pu• fare in modo di sostituire con iperoni negativi alcuni elettroni della struttura atomica: ci• fu realizzato nel 1968: Queste particelle di massa elevata che sostituiscono gli elettroni girano intorno al nucleo cosŤ da presso che si pu• dire che passino la loro vita in pratica entro le regioni pi— esterne del nucleo stesso. Tutte queste sono comunque particelle relativamente stabili, che vivono abbastanza a lungo da consentire di rivelarne la presenza, stabilendone l'identit… e la vita media. Negli anni sessanta venne scoperta da Alvarez (che ricevette per questo il premio Nobel per la fisica nel 1968) la prima di una serie di particelle che avevano vita cosŤ breve che la loro esistenza poteva solo essere postulata per spiegare i prodotti della loro disintegrazione: le loro vite medie sono dell'ordine di pochi trilionesimi di un trilionesimo di secondo, tanto che ci si pu• chiedere se sono realmente singole particelle, o non piuttosto una combinazione di due o tre particelle, che per un breve istante sostano per farsi un cenno di saluto, per poi riprendere subito la loro fuga. Queste entit… dalla vita ultrabreve vengono chiamate "risonanze"; man mano che i fisici poterono disporre di energie sempre maggiori, continuarono a produrre sempre nuove particelle, finch‚ queste salirono a 150 e pi—, tutte appartenenti alle famiglie dei mesoni e dei barioni; questi due gruppi vennero poi conglobati in uno solo, detto degli "adroni" (dalla parola greca che significa ®forteŻ). I leptoni invece non andarono al di l… dei tre sapori, ciascuno composto di particella, antiparticella, neutrino e antineutrino. I fisici cominciarono a sentirsi a disagio a causa del gran numero di adroni, cosŤ come lo erano stati i chimici un secolo prima a causa del moltiplicarsi degli elementi. Si cominci• a sospettare che gli adroni dovessero esser fatti di particelle pi— semplici. A differenza dei leptoni, gli adroni non erano puntiformi, ma avevano un diametro definito - non molto grande, certo, dell'ordine del trilionesimo di millimetro - il che, comunque, li rendeva ben diversi da un punto. Negli anni cinquanta il fisico americano Robert Hofstadter indag• la struttura dei nuclei usando elettroni di energia estremamente alta, i quali non interagivano con i nuclei stessi, ma rimbalzavano via; in base alle loro traiettorie, Hofstadter riuscŤ a formulare alcune ipotesi sulla struttura degli adroni; le sue conclusioni, pur dimostrandosi in seguito inadeguate, costituirono tuttavia un buon punto di partenza; egli ricevette il premio Nobel per la fisica nel 1961. La teoria dei quark. Ci• che sembrava necessario era una sorta di tavola periodica delle particelle subatomiche - qualcosa che riuscisse a raggrupparle in famiglie, formate da uno o pi— membri fondamentali e da altre particelle che rappresentassero lo stato di eccitamento di uno o pi— membri fondamentali. Qualcosa del genere venne proposto nel 1961 dal fisico americano Murray Gell-Mann e dal fisico israeliano Yuval Ne'emen, che avevano lavorato in modo indipendente. Le particelle vennero riunite in gruppi, in base alle loro propriet…, secondo uno schema perfettamente simmetrico, cui Gell-Mann diede il nome di "eightfold way" (ottuplice via), ma che in linguaggio formale si indica con la sigla SU(3). Per completare uno di questi raggruppamenti mancava una particella, la quale, per andar bene, doveva avere una data massa e un dato insieme di altre propriet…, che non costituivano una combinazione molto probabile per una particella; ciononostante nel 1964 fu scoperta una particella, la "omega meno", che aveva appunto l'insieme di propriet… previsto; negli anni successivi, essa fu osservata ancora decine di volte. Nel 1971 fu poi scoperta la sua antiparticella, l'"antiomega meno". Anche se i barioni erano stati suddivisi in gruppi, ottenendo una sorta di tavola periodica subatomica, restavano ancora abbastanza particelle diverse perch‚ i fisici sentissero l'urgenza di trovare qualcosa di ancora pi— semplice e fondamentale. Nel 1964 Gell-Mann - che era alla ricerca del modo pi— semplice di render conto di tutti i barioni con un numero minimo di "particelle sub-barioniche" pi— fondamentali - propose il concetto di "quark". Scelse questo nome perch‚ era giunto alla conclusione che per fare un barione bastava una combinazione di tre quark e che le diverse combinazioni dei tre quark erano sufficienti per costituire tutti i barioni noti, il che gli aveva richiamato alla mente un verso del "Finnegan's Wake" di James Joyce: ®Three quarks for Muster MarkŻ. Per spiegare le propriet… note dei barioni, i tre quark dovevano avere a loro volta certe propriet… ben definite, la pi— sorprendente delle quali era una carica elettrica frazionaria. Tutte le particelle note, o non avevano carica elettrica, o ne avevano una esattamente uguale a quella dell'elettrone (o del positrone), o infine avevano una carica esattamente multipla di quella dell'elettrone (o del positrone). In altre parole, le cariche note erano 0, + 1, meno 1, +2, meno 2 eccetera. L'idea di una carica frazionaria era cosŤ strana, che la proposta di Gell-Mann incontr• all'inizio una forte resistenza. Ma il fatto che con questo concetto Gell-Mann riuscisse a spiegare tante cose gli valse dapprima un ascolto rispettoso, poi un seguito sempre pi— vasto, infine un premio Nobel per la fisica, nel 1969. Gell-Mann partiva, per esempio, da due quark, che sono noti oggi come "quark up" e "quark down", dove "up" (su) e "down" (gi—) non vanno intesi in senso realistico, ma sono solo una denominazione di fantasia. (Non si deve credere che gli scienziati, e tanto meno quelli pi— giovani, siano macchine pensanti senza anima e senza emozioni; al contrario, amano scherzare, e talora dire sciocchezze, proprio come possono fare un romanziere o un camionista.) Solitamente, essi vengono chiamati "quark u" e "quark d". Il quark u ha carica + 2 su 3 e il quark d ha carica meno 1 su 3; non basta: c'Š anche un "antiquark u", con carica meno 2 su 3 e un "antiquark d", con carica + 1 su 3. Due quark u e un quark d avranno cariche + 2 su 3, + 2 su 3 e meno 1 su 3, cioŠ in totale + 1, cosŤ che formeranno, in combinazione, un protone; d'altra parte, due quark d e un quark u avranno cariche meno 1 su 3, meno 1 su 3 e + 2 su 3, cioŠ in totale 0, e formeranno in combinazione un neutrone. Tre quark si combineranno sempre in modo che la carica totale sia un numero intero: cosŤ, due antiquark u e un antiquark d avranno una carica totale pari a meno 1, formando un antiprotone, mentre due antiquark d e un antiquark u avranno carica totale 0 e formeranno un antineutrone. Inoltre, i quark si uniscono cosŤ saldamente, grazie all'interazione nucleare, che fino a oggi gli scienziati non sono riusciti a spezzare protoni e neutroni nei singoli quark. Sembra, anzi, che l'attrazione tra quark cresca con la distanza, cosŤ che non ci sarebbe alcun sistema per scindere un protone o un neutrone nei quark che lo compongono; in tal caso, le cariche frazionarie potranno anche esistere, ma non potranno mai essere osservate, il che rende pi— facile accettare l'idea dissacratoria di Gell-Mann. Tuttavia questi due quark non bastano da soli a rendere ragione di tutti i barioni o di tutti i mesoni (che sono costituiti da combinazioni di "due" quark). Gell-Mann aveva ipotizzato originariamente l'esistenza di un terzo quark, che oggi viene chiamato "quark s", dove s si potrebbe dire sia l'iniziale di "sideways" (di lato) per analogia con up e down; pi— spesso, per•, si spiega la s come iniziale di "strangeness" (stranezza), perch‚ il quark s Š stato usato per spiegare la struttura delle cosiddette "particelle strane" - che devono il loro nome al fatto di avere vita media superiore a quella per esse prevista. Comunque, i fisici che studiavano l'ipotesi dei quark finirono per stabilire che questi dovevano esistere a coppie: se c'era un quark s, doveva esserci anche un suo compagno, che chiamarono "quark c" (dove peraltro c non Š l'iniziale di ®compagnoŻ, ma di "charm", incanto). Nel 1974 i fisici americani Burton Richter e Samuel Chao Chung Ting, lavorando indipendentemente e usando energie molto elevate, isolarono delle particelle che avevano propriet… che richiedevano il quark c. (Erano particelle dotate di "charm".) I due scienziati condivisero il premio Nobel per la fisica nel 1976. Ciascuna coppia di quark costituisce un sapore, e, sotto certi aspetti, tali sapori corrispondono a quelli dei leptoni. Ogni sapore dei quark ha quattro membri - per esempio, il quark u, il quark d, l'antiquark u e l'antiquark d - esattamente come ogni sapore dei leptoni ha quattro membri - per esempio l'elettrone, il neutrino, il positrone e l'antineutrino. In entrambi i casi i sapori noti, comunque, sono tre: elettrone, muone e tauone tra i leptoni, i quark u e d, i quark s e c, e infine i "quark t" e "b". Qui "t" sta per "top" (cima) e "b" sta per "bottom" (fondo); esiste per• una versione fantasiosa, secondo cui le due lettere starebbero per "truth" (verit…) e "beauty" (bellezza). I quark, come i leptoni, sembrano essere particelle fondamentali, puntiformi e prive di struttura (cosa per• di cui Š meglio non essere tanto certi, visto che siamo gi… stati giocati a questo proposito prima dall'atomo, poi dal protone). Potrebbe inoltre darsi che per entrambi i gruppi vi sia un numero di sapori indefinito, e che potremmo osservarli tutti, se avessimo sempre maggior energia da impiegare a questo scopo. Una differenza enorme tra leptoni e quark Š evidenziata dal fatto che i leptoni hanno cariche intere o non ne hanno affatto, e non si combinano, mentre i quark hanno cariche frazionarie e, a quanto pare, esistono solo in combinazione. I quark si combinano secondo regole determinate: ogni sapore di quark si presenta in tre diverse variet… - cosa che non avviene per i leptoni. La propriet… che differenzia queste tre variet… Š chiamata "colore" (ma la cosa va intesa solo metaforicamente); le tre variet… sono indicate con i colori "rosso", "blu" e "verde". Quando i quark si combinano a tre a tre per formare un barione, uno di essi deve essere rosso, uno blu e uno verde; la combinazione non ha colore, ossia Š "bianca". (Ed Š proprio per questo che sono stati scelti il rosso, il blu e il verde; perch‚ nel mondo che ci circonda, come pure sugli schermi televisivi, questa combinazione d… il bianco.) Quando i quark si combinano a due a due per formare un mesone, uno di essi sar… di un dato colore e l'altro del colore complementare, talch‚ di nuovo daranno come risultato il bianco. (Quanto ai leptoni, non hanno colore, essendo di per s‚ bianchi.) Lo studio delle combinazioni dei quark tali che il prodotto finale sia sempre privo di colore e dotato di carica intera viene chiamato "cromodinamica quantistica" (da "chroma", ®coloreŻ in greco). Questa espressione richiama il nome di una moderna e feconda teoria delle interazioni elettromagnetiche, l'"elettrodinamica quantistica". Quando i quark si combinano, lo fanno mediante una particella di scambio che, seguitando a muoversi avanti e indietro, serve a tenerli insieme; tale particella di scambio viene chiamata "gluone", da ®glueŻ (colla). Anche i gluoni hanno un colore, il che complica le cose; essi possono anche saldarsi l'uno all'altro, formando un prodotto chiamato "palla gluonica" ("glueball"). Anche se non Š possibile spezzare gli adroni ottenendo dei singoli quark (due nel caso dei mesoni, tre nel caso dei barioni), vi sono modi pi— indiretti per dimostrare l'esistenza dei quark. E' forse possibile ottenere dei quark dal nulla concentrando sufficiente energia in un piccolo volume, per esempio facendo scontrare tra loro fasci di elettroni e positroni di altissima energia (come nel caso della produzione del tauone). I quark cosŤ ottenuti si combinerebbero istantaneamente in adroni e antiadroni, che schizzerebbero via in direzioni opposte. Se l'energia fosse "sufficiente", i getti sarebbero tre e formerebbero un trifoglio, fatto di adroni, antiadroni e gluoni. Una figura a due foglie Š stata effettivamente realizzata; e, nel 1979, Š stato annunciato che in alcuni esperimenti si stava cominciando a formare una rudimentale terza foglia. Questa viene considerata una importante conferma alla teoria dei quark. I CAMPI. Qualsiasi particella che possegga una massa Š sorgente di un campo gravitazionale che si estende indefinitamente in tutte le direzioni e la cui intensit… diminuisce proporzionalmente al quadrato della distanza dalla sorgente. L'intensit… del campo Š incredibilmente piccola nel caso di particelle singole; cosŤ piccola che, quando si studiano le interazioni tra particelle, si pu• ignorare il campo a tutti gli effetti. Esiste comunque un solo tipo di massa, e l'interazione gravitazionale tra due particelle Š sempre, a quanto se ne sa, di tipo attrattivo. Inoltre il campo gravitazionale associato a un sistema di pi— particelle appare, da un punto esterno al sistema, come la somma di tutti i campi associati alle singole particelle. Il campo gravitazionale di un corpo come il sole o la terra Š identico a quello previsto nel caso di un'unica particella dotata di tutta la massa del corpo e situata nel centro di gravit… del corpo stesso. (Ci• Š rigorosamente vero solo se il corpo Š perfettamente sferico e ha densit… uniforme, oppure se ha una densit… che varia dal centro alla periferia, mantenendo una simmetria sferica: condizioni queste suppergi— soddisfatte per oggetti simili al sole e alla terra.) Ne consegue che il sole e, in misura minore, la terra hanno campi gravitazionali di intensit… enorme, cosŤ che possono interagire, attraendosi reciprocamente e restando saldamente legati, anche se sono alla distanza di 150 milioni di chilometri. Sistemi di galassie possono mantenersi uniti anche se sono dispersi a distanze di milioni di anni luce; e, se mai l'universo ricomincer… a contrarsi, lo far… in virt— dell'attrazione di gravit… che agisce anche a distanza di miliardi di anni luce. Ogni particella che abbia una carica elettrica Š sorgente di un campo elettromagnetico che si estende indefinitamente in tutte le direzioni e la cui intensit… diminuisce proporzionalmente al quadrato della distanza dalla sorgente. Se poi una particella possiede massa e carica elettrica (e non esiste carica elettrica senza massa), essa Š sorgente di entrambi i campi. L'interazione elettromagnetica. L'intensit… del campo elettromagnetico Š molti trilioni di trilioni di trilioni di volte maggiore di quella del campo gravitazionale per qualsiasi singola particella; esistono, per•, due tipi di cariche elettriche, positiva e negativa, cosŤ che il campo elettromagnetico presenta tanto il fenomeno dell'attrazione che quello della repulsione. Quando le cariche dei due tipi sono presenti in numero uguale, esse tendono a neutralizzarsi reciprocamente; allora fuori dal sistema non vi Š campo elettromagnetico. CosŤ, gli atomi in condizioni normali sono costituiti da un numero uguale di cariche negative e positive, e risultano quindi elettricamente neutri. Quando la carica positiva o negativa Š presente in eccesso si ha un campo elettromagnetico, ma la reciproca attrazione delle cariche opposte garantisce che qualsivoglia eccesso in un senso o nell'altro sar… di entit… microscopica; i campi elettromagnetici eventualmente presenti non possono quindi competere per intensit… con i campi gravitazionali di corpi grandi come un grosso asteroide, o pi—. Per questo Isaac Newton, che si occup• soltanto di campi gravitazionali, fu in grado di costruire una spiegazione soddisfacente dei moti dei corpi del sistema solare, spiegazione che pot‚ poi essere estesa ai moti delle stelle e delle galassie. Le interazioni elettromagnetiche, per•, non possono essere ignorate del tutto: esse svolgono un ruolo nella formazione del sistema solare, nel trasferimento del momento angolare dal sole ai pianeti e probabilmente in alcune delle strane manifestazioni collegate agli anelli di minuscole particelle che circondano Saturno; si tratta, tuttavia, di effetti di secondaria importanza. Ogni adrone (mesone o barione o quark costitutivo) Š sorgente di un campo che si estende in tutte le direzioni indefinitamente; l'intensit… di tale campo diminuisce tanto rapidamente con la distanza che non Š possibile avvertirlo a distanze superiori a un diametro di nucleo atomico: in tal caso si pu• ignorare questo campo, che pure ha un'importanza preponderante all'interno del nucleo o quando due particelle a grande velocit… si sfiorano a distanze nucleari; tale campo, quindi, non svolge alcuna parte per quanto riguarda i moti generali dei corpi astronomici, ma acquista importanza, per esempio, quando si indaga sui nuclei delle stelle. Anche i leptoni sono sorgenti di un campo che pu• essere avvertito solo a distanze nucleari; esso ha addirittura un raggio minore di quello del campo degli adroni; pur essendo entrambi campi nucleari, essi sono molto diversi, non solo per il tipo di particelle a cui sono associati, ma anche per intensit…. Il campo degli adroni ha, per ogni particella, un'intensit… 137 volte maggiore di quella del campo elettromagnetico, mentre l'intensit… del campo dei leptoni Š soltanto un centomiliardesimo circa di quella del campo elettromagnetico. Per tali ragioni si definisce solitamente il campo degli adroni come "interazione forte", e quello dei leptoni come "interazione debole". (Si ricordi comunque che l'interazione debole Š tale in confronto all'interazione forte e all'interazione elettromagnetica, ma Š ancora 10 mila trilioni di trilioni di volte pi— intensa dell'interazione gravitazionale.) Queste quattro interazioni, per quanto ne sappiamo fino a oggi, rendono ragione di tutti i comportamenti delle particelle, e quindi, indirettamente, di tutti i comportamenti misurabili, di qualsiasi sorta. Nulla per ora fa pensare che esista una quinta interazione, o che possa esistere. (Naturalmente, la frase precedente non equivale affatto a dire che, in base a queste quattro interazioni, noi possiamo oggi effettivamente capire tutti i comportamenti misurabili: sapere che una complessa equazione matematica ha una soluzione non significa essere sicuramente capaci di trovarla.) L'interazione debole fu descritta matematicamente per la prima volta da Fermi nel 1934, ma rest• poi per decenni la meno conosciuta delle quattro interazioni. Per esempio, tutte e quattro le interazioni dovrebbero avere particelle di scambio che mediano le interazioni stesse: per l'interazione elettromagnetica c'Š il fotone, per quella gravitazionale il gravitone, per l'interazione forte a livello protone-neutrone il pione e per l'interazione forte a livello dei quark il gluone. Dovrebbe esistere una particella del genere anche per l'interazione debole, una "particella W" (dall'iniziale di ®weakŻ, debole), ma, per pi— di mezzo secolo, questa particella Š riuscita a eludere ogni ricerca. Le leggi di conservazione. Vi Š poi la questione delle leggi di conservazione, da cui dipendono le regole che consentono di dire quali interazioni tra particelle siano possibili e quali no, e quindi, pi— in generale, che cosa pu• accadere nell'universo e che cosa no. Senza le leggi di conservazione, gli eventi dell'universo sarebbero anarchici e totalmente incomprensibili. I fisici nucleari hanno a che fare con una dozzina di leggi di conservazione: alcune sono quelle ben note della fisica del diciannovesimo secolo: la conservazione dell'energia, quella della quantit… di moto, quella del momento angolare e quella della carica elettrica. Vi sono poi leggi di conservazione meno familiari: la conservazione della stranezza, la conservazione del numero barionico, quella dello spin isotopico, e altre ancora. A quanto pare, le interazioni forti obbediscono a tutte queste leggi di conservazione, tanto che negli anni cinquanta i fisici consideravano cosa sicura che tali leggi fossero universali e irrevocabili. Ma non era cosŤ. Nel caso delle interazioni deboli, alcune delle leggi di conservazione vengono violate. In particolare, la legge di conservazione che fu demolita per prima Š quella di "conservazione della parit…". La parit… Š una propriet… strettamente matematica, che non si pu• descrivere con esempi concreti; baster… dire che tale propriet… si riferisce a una funzione matematica che ha a che fare con le caratteristiche ondulatorie di una particella e con la sua posizione nello spazio. La parit… ha due valori possibili - "pari" e "dispari". Ci• che qui importa Š il fatto che la parit… veniva considerata una propriet… fondamentale soggetta, come l'energia o la quantit… di moto, a una legge di conservazione: in qualsiasi interazione o mutamento, la parit… doveva essere conservata. Ci• equivale a dire che si pensava che, quando le particelle interagendo danno origine a nuove particelle, nei due membri dell'equazione la parit… deve essere uguale, proprio come accade per i numeri di massa, i numeri atomici o i momenti angolari. Facciamo un esempio. Se una particella di parit… pari e una di parit… dispari interagiscono dando origine ad altre due particelle, una delle nuove particelle deve avere parit… pari e l'altra parit… dispari. Se due particelle di parit… dispari danno luogo a due nuove particelle, queste devono essere o entrambe pari o entrambe dispari; inversamente, se una particella di parit… pari si disintegra dando origine a due particelle, entrambe devono avere parit… pari o parit… dispari; se decade in tre particelle, tutte e tre devono avere parit… pari o una parit… pari e le altre due parit… dispari. (La cosa risulta pi— chiara considerando cosa accade con i numeri pari e dispari, che seguono regole analoghe: per esempio, un numero pari pu• solo essere la somma di due numeri pari o di due numeri dispari, ma non di un numero pari e un numero dispari.) I guai cominciarono quando ci si avvide che i mesoni K a volte si disintegravano in due mesoni pi (avendo il mesone pi parit… dispari, la parit… totale era pari) e altre volte davano origine a tre mesoni pi (parit… totale dispari). I fisici ne conclusero che vi erano due tipi di mesoni K, uno di parit… pari e uno di parit… dispari, e li chiamarono rispettivamente "mesone theta" e "mesone tau". Ora, i due mesoni, sotto tutti gli aspetti salvo la parit…, erano identici: stessa massa, stessa carica, stessa stabilit…, uguali sotto ogni aspetto. Era difficile da mandar gi— l'idea di due particelle distinte con tutte le propriet… esattamente uguali. Era forse possibile che si trattasse in realt… di una stessa particella, e che ci fosse invece qualcosa di sbagliato nel concetto di conservazione della parit…? Nel 1956, due giovani fisici cinesi che lavoravano negli Stati Uniti, Tsung Dao Lee e Chen Ning Yang, avanzarono esattamente questa ipotesi: essi proposero che la conservazione della parit… fosse valida per le interazioni forti, ma potesse venir meno nelle interazioni deboli, come quelle coinvolte nel decadimento del mesone K. Mentre analizzavano matematicamente questa possibilit…, parve loro chiaro che, nel caso in cui la conservazione della parit… fosse venuta meno, le particelle implicate nelle interazioni deboli avrebbero dovuto avere "chiralit…", cioŠ presentare una simmetria speculare come quella delle mani, un'idea gi… avanzata nel 1927 dal fisico ungherese Eugene Wigner. Spieghiamoci meglio. La mano destra e quella sinistra sono speculari, cioŠ possono essere considerate come immagini speculari l'una dell'altra; riflessa in uno specchio la mano destra sembra la sinistra. Se le mani fossero completamente simmetriche, l'immagine riflessa non sarebbe diversa dall'immagine diretta, e non esisterebbe per principio la distinzione tra ®mano sinistraŻ e ®mano destraŻ. Bene; ora, applichiamo questo principio a un gruppo di particelle che emettano elettroni. Se gli elettroni sono emessi in ugual numero in tutte le direzioni, la particella in questione non ha chiralit…; ma se la maggior parte degli elettroni tende ad andare in una direzione preferenziale - diciamo verso l'alto anzich‚ verso il basso - la particella non Š simmetrica. La particella presenta allora una chiralit…: se guardiamo l'emissione in uno specchio, la direzione preferenziale sar… invertita. Pertanto, l'unica cosa da fare era osservare un insieme di particelle che emettono elettroni in un'interazione debole (qualche particella, per esempio, che decadesse emettendo particelle beta) e controllare se gli elettroni uscivano preferenzialmente in una direzione. Lee e Yang chiesero a un fisico sperimentale della Columbia University, la signora Chien-Shiung Wu, di effettuare l'esperimento. Costei predispose le condizioni sperimentali necessarie: tutti gli atomi che emettevano gli elettroni dovevano essere orientati in una stessa direzione, perch‚ fosse possibile vedere se la direzione di emissione era uniforme; ci• fu ottenuto ricorrendo a un campo magnetico e mantenendo il materiale a una temperatura prossima allo zero assoluto. Nel giro di 48 ore l'esperimento diede la risposta attesa: gli elettroni venivano effettivamente emessi in modo asimmetrico. La conservazione della parit… era violata nelle interazioni deboli. Il "mesone theta" e il "mesone tau" erano un'unica particella, che talora decadeva con parit… pari, talora con parit… dispari. Altri esperimenti confermarono ben presto la violazione della parit…; per la loro audace intuizione, i fisici teorici Lee e Yang ricevettero il premio Nobel per la fisica nel 1957. Se la simmetria viene rotta nel caso delle interazioni deboli, forse viene meno anche in altri casi. Dopo tutto, potrebbe darsi che l'universo fosse globalmente sinistrorso (oppure destrorso). Oppure, gli universi potrebbero essere due, uno sinistrorso, l'altro destrorso, uno fatto di materia, l'altro di antimateria. Oggi i fisici considerano le leggi di conservazione in generale con un certo scetticismo; ciascuna di esse potrebbe risultare valida in certe condizioni e non in altre, come si Š scoperto per la conservazione della parit…. Dopo la scoperta della sua violazione, la parit… fu combinata con la "coniugazione di carica", un'altra propriet… matematica assegnata alle particelle subatomiche, da cui dipendeva il loro status di particella o di antiparticella: l'insieme delle due leggi di conservazione era indicato come "simmetria C.P.", e costituiva una legge pi— generale e pi— basilare sia di quella di conservazione della parit… ("P") sia di quella di conservazione della coniugazione di carica ("C"). (Esistono altri casi analoghi; come vedremo nel prossimo capitolo, la legge di conservazione della massa ha ceduto il passo alla pi— generale e pi— profonda legge di "conservazione della massa-energia".) Eppure, anche la simmetria C.P. si Š dimostrata inadeguata: nel 1964, due fisici americani, Val Logsden Fitch e James Watson Cronin, dimostrarono che anche la simmetria C.P. veniva, in rare occasioni, violata nelle interazioni deboli. Si dovette perci• introdurre anche la questione della direzione del tempo (T): oggi si parla infatti di "simmetria C.P.T.". Per i loro contributi Fitch e Cronin condivisero il premio Nobel per la fisica del 1980. Una teoria unitaria dei campi. Perch‚ dovrebbero esistere quattro campi diversi, quattro modi diversi in cui possono interagire le particelle? Naturalmente potrebbe esserci un numero qualsiasi di campi, ma l'esigenza della semplicit… Š profondamente radicata nella mentalit… scientifica. Se esistono quattro campi (o un numero qualsiasi) non potrebbe darsi che essi fossero aspetti differenti di un unico campo, di un'unica interazione? In tal caso, il miglior modo di dimostrarlo sarebbe quello di trovare una relazione matematica capace di descriverli tutti, che illuminasse anche qualche aspetto delle loro propriet… che altrimenti rimarrebbe oscuro. Per esempio, pi— di un secolo fa, Maxwell trov• un insieme di equazioni matematiche che descrivono il comportamento sia dell'elettricit… sia del magnetismo, dimostrando che questi non erano che due aspetti di un unico fenomeno, che oggi chiamiamo "campo elettromagnetico". Non potremmo proseguire in questa direzione? Einstein cominci• a lavorare su una "teoria unitaria dei campi" in un'epoca in cui si conoscevano soltanto i campi elettromagnetico e gravitazionale; egli dedic• a questa impresa diversi decenni, e fallŤ; mentre vi era impegnato, furono scoperti altri due campi, quelli a breve raggio, il che rendeva ancora pi— difficile l'impresa. Verso la fine degli anni sessanta, tuttavia, il fisico americano Steven Weinberg e il fisico anglo-pakistano Abdus Salam, lavorando indipendentemente, idearono un modello matematico che descriveva unitariamente il campo elettromagnetico e quello debole, i quali venivano riuniti sotto l'unica denominazione di "campo elettrodebole". Questo modello matematico fu poi ulteriormente elaborato dal fisico americano Sheldon Lee Glashow, che era stato compagno di studi di Weinberg alle scuole superiori. La teoria imponeva che i campi sia elettromagnetico che debole presentassero delle "correnti neutre", cioŠ delle interazioni tra particelle in cui non vengono scambiate cariche elettriche. Quando si and• alla loro ricerca, si trov• che alcune di queste, in precedenza sconosciute, esistevano davvero, esattamente secondo le previsioni - una solida conferma della nuova teoria. Weinberg, Salam e Glashow condivisero il premio Nobel per la fisica nel 1979. La teoria elettrodebole forniva particolari sulla natura delle particelle di scambio dell'interazione debole (particelle che erano state cercate invano per mezzo secolo). Avrebbero dovuto essere non una sola particella W, ma tre particelle: una W (con esponente) +, una W (con esponente) meno e un'altra chiamata Z (con esponente) 0; in altre parole, una particella positiva, una negativa e una neutra. Inoltre, si potevano specificare alcune loro propriet…; se la teoria elettrodebole era corretta, per esempio, la loro massa avrebbe dovuto essere 80 volte quella del protone - fatto che spiegava bene la loro inafferrabilit…. Ci vollero energie enormi per produrle e renderle osservabili. Fra l'altro, masse cosŤ grandi facevano diventare molto breve il raggio d'azione dell'interazione debole, il che rendeva poco probabile che due particelle si avvicinassero tra loro abbastanza perch‚ l'interazione avvenisse, e ci• spiegava come mai l'interazione debole fosse tanto meno intensa dell'interazione forte. Nel 1983 i fisici avevano ormai a disposizione energie sufficientemente elevate per affrontare l'impresa, e le tre particelle furono finalmente osservate - e risult• anche che avevano proprio la massa prevista. Questo confermava saldamente la teoria elettrodebole. Nel frattempo, lo stesso schema matematico che sembrava descrivere sia il campo elettromagnetico che il campo debole parve a molti fisici in grado (con qualche modificazione) di render conto anche dell'interazione forte. Sono state proposte diverse vie per raggiungere questo scopo. Se la teoria elettrodebole Š una teoria unitaria, una che riuscisse a includere anche il campo forte, sarebbe una "teoria di grande unificazione" (in inglese "grand unified theory", dalle cui iniziali l'abbreviazione "GUTs", al plurale perch‚ ne esistono varie versioni). Perch‚ sia possibile includere nella descrizione delle GUTs l'interazione forte, sembra che dovrebbero esistere, oltre ai gluoni, particelle di scambio di enorme massa in numero non inferiore a dodici. Dovendo avere massa maggiore di quella delle particelle W e Z, esse sarebbero pi— difficili da osservare; anzi, per il momento, non c'Š alcuna speranza di riuscirci. Inoltre, tali particelle dovrebbero avere un raggio d'azione molto minore di tutto ci• che fino a oggi Š stato considerato, dell'ordine di un quadrilionesimo del diametro del nucleo atomico. Ora, se queste particelle di scambio di massa elevatissima esistessero davvero, una di loro potrebbe passare da un quark a un altro, entro un protone, distruggendo durante tale passaggio uno dei quark e convertendolo in un leptone; il protone, avendo perso uno dei quark, diventerebbe un mesone, che finirebbe per decadere in un positrone. Tuttavia, perch‚ possa avvenire lo scambio, i quark (che sono particelle puntiformi) dovrebbero passare cosŤ vicini l'uno all'altro da trovarsi entro il raggio d'azione di queste particelle di scambio di grande massa. Ma tale raggio Š talmente piccolo che, nemmeno entro il ridottissimo volume di un protone, un tale avvicinamento Š probabile. In effetti, si Š calcolato che l'avvicinamento necessario si verificherebbe cosŤ raramente che un protone verrebbe in media distrutto solo dopo 10 alla 31 anni di esistenza, cioŠ dopo un numero di anni che Š 600 milioni di trilioni di volte la durata totale dell'universo fino a oggi. Naturalmente, si tratta di un valore "medio": alcuni protoni potranno vivere anche molto pi— a lungo, ma altri per un periodo assai pi— corto. Se si potesse tenere sotto osservazione un numero abbastanza grande di protoni, in realt… si troverebbe che in ogni secondo avvengono parecchie disintegrazioni di protoni; per esempio, potrebbero verificarsi tre miliardi di disintegrazioni di protoni al secondo negli oceani della terra. (Sembrerebbe un numero enorme; invece Š, naturalmente, una quantit… del tutto insignificante, rispetto al numero totale dei protoni contenuti nell'oceano.) I fisici sono estremamente interessati alla possibilit… di osservare queste disintegrazioni, distinguendole da altri eventi simili che potrebbero verificarsi in numero assai maggiore. Se si potesse rivelare questa disintegrazione, essa sarebbe una importante prova a favore delle GUTs; ma, come nel caso delle onde gravitazionali, si tratta di un'impresa al limite del possibile, e pu• darsi che ci voglia molto tempo per risolvere la questione in un senso o nell'altro. Si possono applicare le teorie emerse in questi recenti tentativi di unificazione a uno studio particolareggiato del big bang, con cui l'universo ha avuto inizio. Sembrerebbe che al momento iniziale, quando l'universo esisteva da meno di 1 milionesimo di trilionesimo di trilionesimo di trilionesimo di secondo, ed era molto pi— piccolo di un protone, e aveva una temperatura dell'ordine dei trilioni di trilioni di trilioni di gradi, ci fosse un solo campo e un solo tipo di interazione tra particelle. Via via che l'universo si espandeva e la temperatura diminuiva, si sarebbero poi separati i diversi campi. Analogamente, possiamo immaginare che la terra, quando era estremamente calda, fosse soltanto una sfera gassosa, nella quale tutti i diversi tipi di atomi erano mescolati uniformemente, cosŤ che ogni porzione del gas aveva le stesse propriet… di tutte le altre. Quando per• il gas incominci• a raffreddarsi, le diverse sostanze si separarono sotto forma prima di liquidi, poi di solidi; alla fine rimase una sfera formata di molte sostanze diverse, separate l'una dall'altra. Pino a oggi, per•, l'interazione gravitazionale si Š dimostrata inesorabilmente decisa a non lasciarsi includere nel tipo di descrizione matematica elaborato da Weinberg e dagli altri. L'unificazione che aveva sconfitto Einstein ha dunque sconfitto anche i suoi successori, almeno fino a oggi. Ciononostante, le GUTs hanno prodotto qualcosa di estremamente interessante: i fisici si erano chiesti come avesse fatto il big bang a produrre un universo cosŤ disomogeneo da contenere stelle e galassie; perch‚ mai la materia non si era semplicemente diffusa in tutte le direzioni, formando un vasto alone uniforme di gas e di polvere? E inoltre, perch‚ la densit… dell'universo Š tale da non consentirci di decidere con sicurezza se esso Š aperto o chiuso? Avrebbe potuto essere decisamente aperto (a curvatura negativa) o decisamente chiuso (a curvatura positiva), e invece Š pressoch‚ piatto. Un fisico americano, Alan Guth, negli anni settanta ha usato le GUTs per sostenere che, al momento del big bang, si Š verificato un periodo iniziale di espansione estremamente rapida o ®inflazioneŻ. In questo "universo inflattivo" la temperatura sarebbe caduta cosŤ rapidamente da non lasciare il tempo necessario perch‚ si separassero i diversi campi o si formassero le diverse particelle. Solo pi— tardi, quando l'universo era ormai abbastanza grande, sarebbe avvenuta la differenziazione; questa Š la ragione per cui l'universo Š piatto e anche la ragione della disomogenea distribuzione della materia. Il fatto che una teoria di grande unificazione, elaborata avendo in mente le sole particelle, abbia potuto risolvere due enigmi sulla nascita dell'universo, Š una forte prova a favore della sua validit…. Naturalmente, l'universo inflattivo non elimina tutti i problemi; vari fisici hanno cercato di mettere insieme le cose in modo diverso, con la speranza di una maggior convergenza tra previsioni e realt…. Ma siamo solo agli inizi, e vi sono buone speranze che qualche tipo di teoria di grande unificazione e di teoria dell'inflazione funzioni. Forse si arriver… al successo quando qualcuno trover… finalmente il modo di far rientrare l'interazione gravitazionale nella teoria, e l'unificazione sar… completa. Capitolo 8. LE ONDE. LA LUCE. Fin qui mi sono occupato quasi esclusivamente di oggetti materiali - da quelli grandissimi, come le galassie, a quelli piccolissimi, come gli elettroni. Esistono per• anche alcuni importanti oggetti immateriali, tra i quali il pi— noto e il pi— variamente celebrato Š la luce. Secondo la Bibbia le prime parole del Creatore furono: ®Sia fatta la luceŻ, e il sole e la luna furono creati primariamente per fungere da sorgenti di luce: ®Che siano i luminari nel firmamento per recare la luce sulla terraŻ. Gli studiosi dell'antichit… e del Medioevo erano completamente all'oscuro della natura della luce; essi congetturarono che fosse fatta di particelle emesse dagli oggetti luminosi o forse dallo stesso occhio. Gli unici fatti che riuscirono a stabilire al proposito furono che la luce si propagava in linea retta, che veniva riflessa da uno specchio secondo un angolo uguale a quello di incidenza e che cambiava direzione quando dall'aria passava nel vetro, o nell'acqua, o in qualche altra sostanza trasparente ("rifrazione"). La natura della luce. Quando la luce entra obliquamente - formando cioŠ un angolo con la perpendicolare alla superficie - nel vetro o in un'altra sostanza trasparente, essa viene sempre rifratta in una direzione che forma con la perpendicolare un angolo inferiore a quello d'incidenza. La relazione esatta fra l'angolo di incidenza e l'angolo di rifrazione fu stabilita nel 1621 dal fisico olandese Willebrord Snell; il quale tuttavia non rese pubblica la sua scoperta; il filosofo francese Cartesio riscoprŤ indipendentemente la legge nel 1637. I primi esperimenti importanti sulla natura della luce vennero condotti da Isaac Newton nel 1666, come gi… ho avuto occasione di dire nel capitolo secondo. Newton fece in modo che un raggio di luce, che entrava in una stanza buia da una fessura praticata negli scuri, incidesse obliquamente su una faccia di un prisma triangolare di vetro: il raggio veniva rifratto una prima volta quando penetrava nel vetro, e una seconda volta, nella stessa direzione, quando ne usciva da un'altra faccia del prisma. (Le due rifrazioni nella stessa direzione erano dovute al fatto che le due facce del prisma formavano un angolo; in una normale lastra di vetro, invece, le facce sarebbero parallele.) Newton fece in modo che il raggio che emergeva dal prisma colpisse uno schermo bianco, per poter osservare gli effetti della rifrazione ripetuta, e trov• che, anzich‚ formare una macchia di luce bianca, il raggio si allargava formando una striscia di vari colori - nell'ordine: rosso, arancione, giallo, verde, azzurro e viola. Newton ne dedusse che la luce bianca ordinaria Š una miscela di tipi differenti di luce, i quali, separatamente, agiscono sui nostri occhi in modo da suscitare la sensazione dei diversi colori. Questa striscia di colori, anche se ci appare abbastanza reale, Š immateriale, proprio come un fantasma; non per nulla Newton la denomin• "spettro". Newton stabilŤ che la luce doveva essere costituita di particelle minuscole ("corpuscoli") che viaggiavano a velocit… enorme, il che avrebbe spiegato la ragione per cui si propagava in linea retta e produceva delle ombre nette. La luce viene riflessa da uno specchio perch‚ le particelle rimbalzano dopo aver colpito la superficie, e viene deviata quando penetra in un mezzo rifrangente (come l'acqua o il vetro), perch‚ le particelle in tale mezzo viaggiano pi— velocemente che nell'aria. Restavano per• ancora varie domande imbarazzanti. Per esempio, perch‚ le particelle di luce verde venivano rifratte pi— di quelle di luce gialla? Come mai due fasci di luce possono incrociarsi senza esercitare alcuna azione l'uno sull'altro - come, cioŠ, se le particelle non entrassero in collisione? Nel 1678, il fisico olandese Christiaan Huygens (un versatile scienziato, che aveva costruito il primo orologio a pendolo e svolto importanti ricerche di carattere astronomico) avanz• una teoria alternativa, secondo la quale la luce consisteva di piccolissime onde. Con tale ipotesi non sarebbe difficile spiegare la diversa rifrazione subita dai vari tipi di luce che attraversano un mezzo rifrangente, purch‚ si assuma che la luce viaggi pi— lentamente in tale mezzo che nell'aria; l'entit… della rifrazione varierebbe con la lunghezza delle onde: minore la lunghezza d'onda, maggiore la rifrazione. Per questa ragione la luce viola (quella che subisce una maggior rifrazione) avrebbe una lunghezza d'onda minore di quella della luce azzurra, la quale, a sua volta, avrebbe lunghezza d'onda minore di quella della luce verde, e cosŤ via. E' la differenza di lunghezza d'onda, sosteneva Huygens, che fa sŤ che l'occhio distingua i vari colori. Inoltre, naturalmente, se la luce Š fatta di onde, due fasci possono incrociarsi senza disturbarsi. (Dopo tutto anche le onde sonore e le onde che si formano nell'acqua si incrociano senza perdere la propria identit….) Ma neppure la teoria ondulatoria di Huygens era del tutto soddisfacente: per esempio, non spiegava perch‚ i raggi luminosi si propaghino in linea retta e producano ombre dai contorni netti, n‚ come mai le onde luminose non aggirino gli ostacoli, come fanno invece le onde sonore e quelle che si formano nell'acqua. Per di pi—, se la luce Š fatta di onde, come fa a propagarsi nel vuoto, cosa che sembrava facesse senz'ombra di dubbio, dal momento che arrivava dal sole e dalle stelle, attraversando lo spazio? Quale mezzo la trasmetteva? Per un secolo circa le due teorie restarono in competizione: quella di Newton, la "teoria corpuscolare", era di gran lunga pi— diffusa sia perch‚ appariva in complesso la pi— logica, sia in virt— della fama del grande Newton. Tuttavia nel 1801 un medico e fisico inglese, Thomas Young, effettu• un esperimento che fece pendere la bilancia dalla parte opposta. Egli fece passare un sottile raggio di luce attraverso due fori situati a pochissima distanza, dietro ai quali aveva collocato uno schermo. Se la luce fosse stata costituita di particelle, era presumibile che i due raggi che uscivano dai fori avrebbero semplicemente prodotto sullo schermo una regione pi— luminosa dove si sovrapponevano e altre meno luminose dove non si sovrapponevano. Ma non fu questo ci• che Young osserv•: lo schermo presentava una serie di frange luminose, ciascuna separata da quella contigua da una frangia scura. Sembrava dunque che in questi intervalli scuri la luce dei due raggi, sommandosi, desse come risultato il buio! La teoria ondulatoria poteva spiegare facilmente questo effetto: la frangia luminosa corrispondeva a punti in cui le onde di un raggio erano rafforzate da quelle dell'altro; in altri termini, le due serie di onde erano "in fase", cioŠ i loro massimi coincidevano, rinforzandosi a vicenda. Le frange scure, invece, corrispondevano a zone in cui le onde erano "fuori fase", cioŠ il minimo dell'una annullava il massimo dell'altra; in queste zone le onde, anzich‚ rinforzarsi a vicenda, interferivano l'una con l'altra, dando come energia luminosa totale zero. In base all'ampiezza delle frange e alla distanza tra i due fori da cui emergevano i raggi luminosi, fu possibile calcolare la lunghezza delle onde luminose - per esempio, della luce rossa o violetta o di un colore intermedio: e si trov• che tali lunghezze d'onda erano veramente molto brevi. Per esempio, la lunghezza d'onda della luce rossa risult• essere di 0,000075 centimetri. (In seguito le lunghezze d'onda della luce vennero espresse in un'unit… pi— comoda suggerita da Angstrom, e che da lui prese il nome: l'"angstrom" - abbreviazione Ź - Š un centomilionesimo di centimetro. Quindi, la lunghezza d'onda della luce rossa, a un estremo dello spettro, Š di circa 7500 unit… angstrom; quella della luce viola, all'altro estremo dello spettro, Š di circa 3900 unit… angstrom; e le lunghezze d'onda corrispondenti ai vari colori della porzione visibile dello spettro sono comprese tra questi due valori.) Il fatto che le lunghezze d'onda abbiano valori cosŤ piccoli ha una grande importanza. La ragione per cui le onde luminose viaggiano in linea retta e proiettano ombre nette Š che le loro dimensioni sono incomparabilmente minori di quelle degli oggetti ordinari; le onde possono aggirare un ostacolo soltanto quando quest'ultimo non Š molto pi— grande della lunghezza d'onda. Perfino i batteri, per fare un esempio, sono molto pi— grandi della lunghezza di un'onda luminosa, ed Š per questo che la luce pu• darne un'immagine ben definita al microscopio; solo gli oggetti di dimensioni prossime a quelle della lunghezza d'onda (per esempio, i virus e altre particelle submicroscopiche) sono abbastanza piccoli da essere aggirati dalle onde luminose. Fu il fisico francese Augustin Jean Fresnel a mostrare, nel 1818, che un'onda luminosa aggira veramente un oggetto, se questo Š sufficientemente piccolo. In questo caso, la luce produce quella che viene chiamata figura di "diffrazione": per esempio, le linee parallele estremamente sottili di un "reticolo di diffrazione" agiscono come una serie di minuscoli ostacoli che si rinforzano a vicenda, e, dato che l'entit… della diffrazione dipende dalla lunghezza d'onda, viene prodotto uno spettro. Anche qui Š possibile calcolare, in base alla diversa diffrazione di ogni singolo colore o di ogni singola porzione dello spettro e in base alla distanza, nota, delle righe del reticolo tracciato sul vetro, la lunghezza d'onda. Fraunhofer fu un pioniere nell'uso dei reticoli di diffrazione, un contributo che viene facilmente dimenticato di fronte alla sua scoperta, pi— famosa, delle righe spettrali. Il fisico americano Henry Augustus Rowland invent• i reticoli concavi e svilupp• delle tecniche per tracciarvi fino a 8000 righe per centimetro. Fu merito suo se si pot‚ soppiantare il prisma nella spettroscopia. Questi risultati sperimentali, uniti al fatto che Fresnel aveva sviluppato sistematicamente la descrizione matematica del moto ondulatorio, fecero ritenere assodata la teoria ondulatoria della luce e liquidata quella corpuscolare - apparentemente per sempre. Non solo si accett• l'esistenza delle onde luminose, ma si calcolarono anche le loro lunghezze con precisione sempre maggiore; nel 1827, il fisico francese Jacques Babinet proponeva di adottare la lunghezza d'onda della luce - una grandezza fisica inalterabile - come lunghezza campione, da sostituirsi ai vari campioni arbitrari che allora erano in uso. Tuttavia, la sua proposta non divenne realizzabile che negli anni successivi al 1880, quando il fisico tedesco-americano Albert Abraham Michelson invent• uno strumento chiamato "interferometro", capace di misurare le lunghezze d'onda della luce con precisione senza precedenti: nel 1893, Michelson misur• la lunghezza d'onda della riga rossa dello spettro del cadmio, trovando il valore di 1 su 1553164 metri. Sollev• qualche perplessit… la scoperta che gli elementi sono costituiti da isotopi differenti, a ciascuno dei quali corrisponde una riga di lunghezza d'onda leggermente diversa; nel corso del nostro secolo, tuttavia, vennero misurate le righe dei singoli isotopi; negli anni trenta furono misurate quelle del cripto 86, che, essendo un gas, poteva essere trattato a basse temperature, alle quali il moto degli atomi Š rallentato, il che consente di ottenere righe pi— sottili. Nel 1960, la riga del cripto 86 venne adottata dalla Conferenza generale di pesi e misure come campione fondamentale di lunghezza; in seguito a ci• il metro Š stato ridefinito come uguale a 1650763,73 volte la lunghezza d'onda di tale riga spettrale. Grazie a questo campione, la precisione delle misure di lunghezza Š aumentata di mille volte. Il vecchio metro campione, costituito da una barra di platino- iridio, poteva essere misurato, nella migliore delle ipotesi, con l'approssimazione di una parte su un milione, mentre per l'onda luminosa l'incertezza non supera una parte su un miliardo. La velocit… della luce. Ovviamente, la luce viaggia a velocit… straordinaria: se girate l'interruttore, piombate immediatamente nel buio, nell'attimo stesso in cui effettuate il gesto. Il suono non Š altrettanto veloce: se guardate da una certa distanza un uomo che taglia la legna, udite il colpo solo qualche istante dopo aver visto abbattersi l'ascia; evidentemente, il suono ha impiegato qualche istante per raggiungere l'orecchio. In effetti, Š facile misurarne la velocit…: 332 metri al secondo, nell'aria al livello del mare. Galileo fu il primo a cercare di misurare la velocit… della luce; stando su un'altura mentre un suo assistente stava su un'altra, Galileo scopriva una lanterna e l'assistente, non appena ne scorgeva il lampo, segnalava la cosa scoprendo a sua volta un'altra lanterna. Galileo effettu• quest'esperimento a distanze sempre maggiori, presumendo che il tempo necessario all'assistente per dare la sua risposta restasse sempre uguale, cosŤ che ogni aumento dell'intervallo di tempo tra il momento in cui egli scopriva la sua lanterna e quello in cui vedeva la risposta avrebbe rappresentato il tempo impiegato dalla luce a coprire la distanza in pi—. L'idea era buona, ma la luce Š di gran lunga troppo veloce perch‚ con un metodo cosŤ rudimentale si possa registrare una differenza. Nel 1676, l'astronomo danese Olaus Roemer riuscŤ invece a misurare la velocit… della luce - ma ricorrendo alle distanze astronomiche; studiando le eclissi dei quattro satelliti di Giove (eclissi prodotte dal pianeta stesso), Roemer not• che gli intervalli tra eclissi successive diventavano pi— lunghi quando la terra si allontanava da Giove e pi— brevi quando gli si avvicinava. Era presumibile che la differenza nei periodi delle eclissi riflettesse la differenza delle distanze tra la terra e Giove, cioŠ che fosse una misura dei diversi tempi impiegati dalla luce per percorrere la distanza da Giove alla terra. In base a una stima approssimativa delle dimensioni dell'orbita terrestre e alla massima discrepanza tra i periodi delle eclissi, che Roemer consider• come il tempo impiegato dalla luce per attraversare in tutta la sua ampiezza l'orbita terrestre, egli calcol• la velocit… della luce: la sua stima fu di 212 mila chilometri al secondo, valore notevolmente prossimo alla velocit… reale per quello che pu• essere considerato un primo tentativo, e anche sufficientemente elevato per suscitare l'incredulit… dei suoi contemporanei. I risultati di Roemer vennero per• confermati mezzo secolo dopo in base a considerazioni del tutto diverse. Nel 1728, l'astronomo inglese James Bradley scoprŤ che le stelle sembravano cambiare posizione a causa del moto della terra - non per via della parallasse, ma perch‚ la velocit… del moto della terra intorno al sole costituisce una frazione misurabile, bench‚ piccola, della velocit… della luce. Di solito per illustrare questo concetto si ricorre all'analogia di un uomo che cammina sotto un ombrello durante un temporale: anche se le gocce cadono verticalmente, l'uomo deve inclinare l'ombrello in avanti, perch‚ si sta spostando rispetto alle gocce; pi— svelto cammina, pi— deve inclinare l'ombrello. Analogamente, la terra si muove rispetto ai raggi luminosi che provengono dalle stelle, e l'astronomo deve inclinare un pochino il telescopio, e in direzioni diverse, via via che la terra muta la sua direzione di moto. Dall'entit… dell'inclinazione (l'"aberrazione della luce"), Bradley pot‚ stimare il valore della velocit… della luce, che risult• pari a 283 mila chilometri al secondo - un valore pi— elevato, e anche pi— esatto, di quello di Roemer, bench‚ ancora troppo basso del 5,5 per cento circa. Infine gli scienziati ottennero misurazioni ancora pi— precise, perfezionando l'idea originale di Galileo. Nel 1849, il fisico francese Armand Hippolyte Louis Fizeau ide• un dispositivo nel quale un lampo di luce veniva inviato su uno specchio situato a 8 chilometri di distanza; lo specchio lo rifletteva fino all'osservatore: il tempo trascorso per percorrere i 16 chilometri non superava di molto 1 su 20 mila di secondo, ma Fizeau riuscŤ a misurarlo ponendo sul percorso del raggio luminoso una ruota dentata in rapida rotazione; quando la ruota girava a una data velocit…, il lampo, passato tra un dente e l'altro all'andata, colpiva il dente successivo al ritorno; quindi Fizeau, situato dietro alla ruota, non lo vedeva. Se poi si aumentava la velocit… di rotazione della ruota, il raggio sulla via del ritorno non veniva pi— bloccato, ma passava nel successivo intervallo tra un dente e l'altro. CosŤ, regolando e misurando la velocit… di rotazione della ruota, Fizeau riuscŤ a calcolare il tempo trascorso, e quindi la velocit… con cui viaggiava il lampo luminoso; egli trov• che questa era di 315 mila chilometri al secondo, un valore troppo alto del 5,2 per cento. Un anno dopo, Jean Foucault (che poco tempo pi— tardi avrebbe effettuato il famoso esperimento del pendolo, che abbiamo descritto nel capitolo quarto) perfezion• il metodo usando uno specchio rotante al posto della ruota dentata. Ora il tempo trascorso veniva misurato da un leggero cambiamento della direzione in cui veniva riflesso il raggio di luce da parte dello specchio in rapida rotazione. La migliore misurazione ottenuta da Foucault nel 1862 fornŤ, come velocit… della luce nell'aria, 298 mila chilometri al secondo - un valore troppo basso solo dello 0,7 per cento. In pi—, Foucault us• il suo metodo per determinare la velocit… della luce in vari liquidi e trov• che essa era considerevolmente inferiore alla velocit… della luce nell'aria. Anche questo risultato confortava la teoria ondulatoria di Huygens. Una precisione ancora maggiore nella misurazione della velocit… della luce fu resa possibile dall'opera di Michelson, il quale - per pi— di quarant'anni, a partire dal 1879 - applic• il metodo di Fizeau e Foucault, perfezionandolo progressivamente. Michelson, alla fine, fece passare la luce attraverso il vuoto anzich‚ attraverso l'aria (anche l'aria, infatti, rallenta leggermente la luce): a questo scopo egli us• tubi d'acciaio lunghi oltre un chilometro e mezzo in cui veniva fatto il vuoto. In tal modo stabilŤ che la velocit… della luce nel vuoto era pari a 299774 chilometri al secondo - un valore troppo basso solo dello 0,006 per cento. Egli dimostr• inoltre che le onde luminose di qualsiasi lunghezza viaggiano nel vuoto con la stessa velocit…. Nel 1972, un'‚quipe di ricerca diretta da Kenneth M. Evenson effettu• delle misurazioni ancora pi— precise, trovando una velocit… di 299792,4494 chilometri al secondo; una volta che tale velocit… fu nota con una precisione cosŤ stupefacente, divenne possibile usare la luce per misurare le lunghezze. (Tuttavia ci• era conveniente anche quando si conosceva la velocit… della luce con minor precisione.) Il radar. Immaginate un breve impulso luminoso che si propaghi in avanti, incontri un ostacolo, venga riflesso all'indietro e sia captato nel punto da cui era partito un istante prima: questa Š l'idea base del radar. Ci• che occorre Š un'onda con una frequenza abbastanza bassa da consentirle di penetrare attraverso la nebbia e le nuvole, ma abbastanza alta da far sŤ che sia riflessa efficientemente; Š risultato che l'intervallo di frequenza ideale si trova nella regione delle microonde, con lunghezze d'onda comprese tra 0,5 e 100 centimetri. In base al tempo trascorso tra l'emissione dell'impulso e l'arrivo dell'eco, Š possibile stimare la distanza dell'oggetto riflettente. Numerosi fisici lavorarono ad apparecchiature basate su questo principio, ma il fisico scozzese Robert Alexander Watson-Watt fu il primo a rendere tale sistema effettivamente operativo. Nel 1935 era ormai possibile, per merito suo, seguire il volo di un aereo basandosi sulla riflessione delle microonde che esso rinviava. Tale sistema venne definito in inglese "radio detection and ranging" (localizzazione e misurazione delle distanze mediante onde radio), abbreviato in "ra.d.a.r.", ossia "radar". (Il termine radar Š dunque uno dei tanti acronimi diventati cosŤ comuni nella terminologia scientifica e tecnologica del mondo moderno.) Il mondo venne a conoscenza dei radar quando fu reso noto che essi avevano consentito agli inglesi di avvistare gli aerei nazisti durante la Battaglia d'Inghilterra, nonostante la nebbia e l'oscurit… notturna. Va quindi al radar, almeno in parte, il merito della vittoria inglese. Dopo la seconda guerra mondiale, il radar ha avuto numerose applicazioni pacifiche: Š stato usato per segnalare gli uragani e ha quindi dato un valido aiuto ai meteorologi; oggi esso Š anche usato per studiare le migrazioni degli uccelli, da quando si Š compreso che certi misteriosi echi radar, detti ®angeliŻ, non erano causati da messaggeri celesti, ma da stormi, appunto, di uccelli. Inoltre, come ho spiegato nel capitolo terzo, sono state proprio le onde radar riflesse da Venere e Mercurio a fornire agli astronomi nuove informazioni sulla rotazione di quei pianeti e sulla natura della superficie di Venere. La propagazione delle onde luminose attraverso lo spazio. Mentre si accumulavano le prove a favore della natura ondulatoria della luce, gli scienziati seguitavano a essere assillati da una domanda inquietante: come pu• la luce propagarsi nel vuoto? Altri tipi di onde - per esempio, quelle sonore - richiedono un mezzo materiale. Noi ricaviamo la sensazione del suono proprio dalle vibrazioni degli atomi o delle molecole del mezzo in cui esso viaggia. (Dal nostro punto di osservazione, qui sulla terra, non potremmo mai udire un'esplosione, comunque fragorosa, che avvenisse sulla luna o in qualsiasi altro luogo dello spazio, perch‚ le onde sonore non possono viaggiare nel vuoto.) Eppure i fatti erano chiari: le onde luminose viaggiavano attraverso il vuoto ancora pi— facilmente che attraverso la materia, raggiungendoci da galassie lontane miliardi di anni luce, anche se nello spazio non c'era nulla che potesse vibrare. La fisica classica si Š sempre trovata a disagio di fronte al concetto di ®azione a distanzaŻ. Newton, per esempio, si domandava come facesse la forza di gravit… ad agire attraverso lo spazio; come spiegazione possibile, egli aveva riesumato il concetto degli antichi greci di un etere che riempisse i cieli, e aveva congetturato che la forza di gravit… potesse in qualche modo essere trasmessa dall'etere. Newton non ebbe bisogno di porsi lo stesso problema a proposito della luce, dato che supponeva che essa fosse composta di particelle dotate di moto veloce; ma tale idea si rivel• errata con la scoperta della natura ondulatoria della luce. Nel tentativo di spiegare la propagazione delle onde luminose attraverso lo spazio, i fisici conclusero che anche la luce doveva essere trasmessa dall'ipotetico etere, e cominciarono a parlare di "etere luminifero". Quest'idea, per•, incontr• subito delle serie difficolt…. Le onde luminose sono onde "trasversali", cioŠ vibrano ad angolo retto rispetto alla direzione di propagazione, come le increspature sulla superficie dell'acqua; diverso Š il caso delle onde sonore, che sono "longitudinali", e cioŠ vibrano nella stessa direzione in cui si propagano; ora, la teoria fisica diceva che solo un mezzo "solido" poteva trasmettere le onde trasversali. (Il caso delle onde trasversali che viaggiano "sulla superficie" dell'acqua Š un caso speciale - esse, comunque, non possono penetrare in profondit… nel liquido.) Pertanto l'etere avrebbe dovuto essere solido, non gassoso n‚ liquido - anzi, addirittura un solido molto rigido. Per poter trasmettere onde alla fantastica velocit… della luce, esso avrebbe dovuto essere molto pi— rigido dell'acciaio. Inoltre, questo rigido etere avrebbe dovuto permeare la materia ordinaria - non soltanto il vuoto dello spazio, ma anche i gas, l'acqua, il vetro e tutte le altre sostanze trasparenti che la luce pu• attraversare. E, come se ci• non bastasse, questo materiale solido, super-rigido avrebbe dovuto essere talmente privo di attrito, talmente cedevole, da non interferire minimamente con il moto del pi— piccolo asteroide o con un battito di ciglia! Nonostante tutte queste difficolt…, l'introduzione del concetto di etere appariva utile. Faraday, che era del tutto privo d'istruzione matematica, ma era dotato di un'intuizione meravigliosa, escogit• il concetto delle "linee di forza", che visualizz• come distorsioni elastiche dell'etere; cosŤ il concetto di etere gli servŤ anche a spiegare i fenomeni magnetici. Negli anni successivi al 1860 Clerk Maxwell, un grande ammiratore di Faraday, si impegn• in un'analisi matematica che rendesse conto delle linee di forza. Egli elabor• un insieme di quattro semplici equazioni che complessivamente descrivevano pressoch‚ tutti i fenomeni riguardanti l'elettricit… e il magnetismo. Tali equazioni, pubblicate nel 1864, non solo descrivevano le interrelazioni tra i fenomeni elettrici e magnetici, ma mostravano anche che essi non potevano essere separati. Dove esiste un campo elettrico, deve esserci anche un campo magnetico che forma un angolo retto con il primo, e viceversa. In realt…, si tratta di un unico campo, il campo elettromagnetico. (Questa fu la prima teoria unitaria dei campi, e ispir• tutto il lavoro svolto nella stessa direzione durante il secolo successivo.) Considerando le implicazioni delle sue equazioni, Maxwell comprese che un campo elettrico variabile deve indurre un campo magnetico variabile, e questo, a sua volta, deve indurre un campo elettrico variabile, e cosŤ via: i due campi ®si rincorronoŻ come se giocassero alla cavallina, e cosŤ si propagano verso l'esterno in tutte le direzioni. Il risultato Š una radiazione che presenta le propriet… di un'onda. In breve, Maxwell previde l'esistenza di una "radiazione elettromagnetica", la cui frequenza corrisponde a quella delle oscillazioni del campo elettromagnetico. Maxwell riuscŤ anche a calcolare la velocit… con cui un'onda elettromagnetica avrebbe dovuto propagarsi, prendendo in considerazione il rapporto tra certe costanti corrispondenti nelle equazioni che descrivono la forza fra cariche elettriche e la forza fra poli magnetici. Questo rapporto risult• essere precisamente uguale alla velocit… della luce, e Maxwell non poteva certo considerare ci• una mera coincidenza. La luce era una radiazione elettromagnetica e con essa vi erano altre radiazioni con lunghezze d'onda molto maggiori o molto minori di quella della luce ordinaria, e tutte queste radiazioni presupponevano l'etere. I monopoli magnetici. Le equazioni di Maxwell - per inciso - sollevarono anche un problema che non Š ancora stato risolto. Esse mettevano in luce una completa simmetria tra i fenomeni elettrici e quelli magnetici: ci• che valeva per gli uni doveva valere anche per gli altri. Eppure, da un punto di vista fondamentale, le due realt… apparivano diverse - una differenza che divenne ancora pi— sconcertante quando furono scoperte e studiate le particelle subatomiche. Esistono particelle dotate dell'una o dell'altra delle due cariche elettriche opposte - positiva o negativa - mai per• di entrambe. CosŤ, l'elettrone Š fornito solo di carica elettrica negativa, mentre il positrone Š fornito solo di carica elettrica positiva; non dovrebbero esserci, per analogia, particelle dotate solo di un polo magnetico nord e altre dotate solo di un polo magnetico sud? Ma questi "monopoli magnetici" sono stati cercati a lungo, invano. Qualsiasi oggetto - grande o piccolo, galassia o particella subatomica - che abbia un campo magnetico, presenta tanto un polo nord che un polo sud. Nel 1931, Dirac, affrontando il problema da un punto di vista matematico, giunse alla conclusione che, nel caso i monopoli magnetici fossero esistiti (anche "uno solo", in qualsiasi luogo dell'universo), inevitabilmente tutte le cariche elettriche sarebbero risultate multipli esatti di una carica minima - come, in effetti, accade. E visto che tutte le cariche elettriche sono effettivamente multipli esatti di una carica minima, non se ne dovrebbe dedurre che i monopoli magnetici necessariamente esistono? Nel 1974, un fisico olandese, Gerard't Hooft, e un fisico sovietico, Aleksandr Polyakov, dimostrarono (indipendentemente) che era possibile dedurre dalle teorie di grande unificazione che i monopoli magnetici dovevano effettivamente esistere e dovevano avere masse enormi. Un monopolo magnetico, infatti, pur dovendo essere ancora pi— piccolo di un protone, dovrebbe avere una massa da 10 quadrilioni a 10 quintilioni di volte maggiore di quella del protone; avrebbe quindi la massa di un batterio, tutta concentrata entro i confini di una minuscola particella subatomica. Particelle simili si sarebbero potute formare solo al momento del big bang; dopo di allora non si Š mai pi— verificata una concentrazione di energia sufficiente per la loro creazione. Queste particelle si muoverebbero con velocit… dell'ordine di 2,50 chilometri al secondo, e la combinazione di una massa enorme con dimensioni minuscole permetterebbe loro di scivolare attraverso la materia senza lasciare, per cosŤ dire, alcuna traccia. Questa propriet… potrebbe spiegare come mai fino a oggi non si sia riusciti a osservare i monopoli magnetici. Tuttavia, se un monopolo passasse attraverso una bobina, esso provocherebbe l'insorgere di un impulso istantaneo di corrente elettrica (un fenomeno ben noto, che Faraday mise in evidenza per primo, come abbiamo detto nel capitolo quinto). In un avvolgimento a temperatura ordinaria un siffatto impulso comparirebbe e svanirebbe cosŤ rapidamente da sfuggire all'osservazione; ma se la bobina fosse superconduttiva, l'impulso continuerebbe a circolare fintantoch‚ il circuito venisse mantenuto a temperatura abbastanza bassa. Il fisico Blas Cabrera dell'Universit… di Stanford predispose una bobina superconduttiva di niobio e la isol• accuratamente dai campi magnetici vaganti; poi inizi• un'attesa che dur• quattro mesi. Il 14 febbraio 1982, alle 13,53, si manifest• un flusso improvviso di elettricit…, con intensit… quasi esattamente pari a quella prevedibile in corrispondenza del passaggio di un monopolo magnetico. I fisici oggi cercano di escogitare apparecchiature che confermino questo risultato; finch‚ non ci saranno riusciti, non si potr… asserire con certezza che il monopolo magnetico sia stato finalmente osservato. Moto assoluto. Ritorniamo all'etere, che, al culmine della sua gloria, incontr• la sua Waterloo in seguito a un esperimento intrapreso per far luce su un altro problema classico, altrettanto spinoso di quello dell'azione a distanza: il problema del "moto assoluto". Nel diciannovesimo secolo era ormai perfettamente chiaro che la terra, il sole, le stelle e tutti gli altri oggetti dell'universo erano in moto. Dove trovare, allora, un punto di riferimento fisso, un punto che fosse in quiete assoluta, per determinare il moto assoluto - il fondamento su cui erano basate le leggi del moto di Newton? C'era un'unica possibilit…. Newton aveva sostenuto che la stessa struttura dello spazio (l'etere, presumibilmente) fosse in quiete, ed era questo che rendeva possibile parlare di spazio assoluto. Se l'etere era immobile, forse era possibile constatare il moto assoluto di un oggetto determinandone il moto rispetto all'etere. Negli anni successivi al 1880 Albert Michelson concepŤ un metodo ingegnoso per risolvere questo problema. Se la terra si muove attraverso un etere immobile - egli pens• - un raggio di luce che viaggiasse nella direzione del suo moto e venisse riflesso dovrebbe percorrere una distanza minore di un raggio di luce diretto perpendicolarmente al moto della terra e poi riflesso. Per verificare questo ragionamento, Michelson invent• l'®interferometroŻ, uno strumento munito di uno "specchio semitrasparente", che lascia passare met… di un raggio luminoso senza alterarne la direzione e riflette ad angolo retto l'altra met…: poi entrambi i raggi vengono riflessi da specchi fino a un oculare. Se uno dei raggi ha percorso una distanza leggermente superiore all'altro, al loro arrivo essi saranno sfasati, e formeranno delle frange d'interferenza. Lo strumento misura con estrema sensibilit… le differenze di lunghezza: Š talmente sensibile che potrebbe misurare tanto la crescita di una pianta di secondo in secondo, quanto il diametro di certe stelle che appaiono come punti luminosi, privi di estensione, anche con il pi— grande dei telescopi. L'idea di Michelson era di puntare l'interferometro in varie direzioni rispetto al moto della terra e rivelare l'effetto dell'etere in base allo sfasamento dei due raggi di luce al loro ritorno. Nel 1887, Michelson, con l'aiuto del chimico americano Edward Williams Morley, realizz• una versione molto sofisticata dell'esperimento. Collocato lo strumento su una pietra che galleggiava nel mercurio, in modo da poterlo far girare in qualsiasi direzione con facilit… e senza incontrare resistenza, i due ricercatori proiettarono il raggio di luce in varie direzioni rispetto al moto della terra, ma non trovarono in pratica alcuna differenza! Le frange di interferenza erano di fatto uguali, quale che fosse la direzione in cui Michelson e Morley puntavano lo strumento, e tali restarono in tutte le numerose ripetizioni dell'esperimento. (E' il caso di aggiungere che analoghi esperimenti pi— recenti, effettuati con strumenti ancora pi— sensibili, hanno dato gli stessi risultati negativi.) Le fondamenta della fisica vacillavano. O l'etere si muoveva con la terra, cosa priva di senso, oppure, forse, non esisteva affatto. In entrambi i casi, non esisteva nulla di simile al moto assoluto o allo spazio assoluto. Era come se alla fisica di Newton fosse stato strappato un tappeto da sotto i piedi. La fisica newtoniana era ancora valida nel mondo ordinario: i pianeti continuavano a muoversi in accordo con la legge di gravitazione, e anche gli oggetti sulla terra obbedivano ancora alla legge di inerzia e a quella di azione e reazione. Semplicemente, le spiegazioni classiche erano incomplete, e i fisici dovevano essere preparati a scoprire fenomeni che non avrebbero obbedito alle ®leggiŻ classiche. I fenomeni osservati, quelli vecchi e quelli nuovi, sarebbero rimasti, ma le teorie che li spiegavano avrebbero dovuto essere ampliate e perfezionate. L'"esperimento di Michelson e Morley" Š probabilmente il pi— importante esperimento con risultato nullo di tutta la storia della scienza. Michelson ricevette il premio Nobel per la fisica nel 1907 - e fu il primo scienziato americano a essere insignito del Nobel, anche se la motivazione non fu specificamente questo esperimento. RELATIVITA'. Le equazioni di Lorentz-FitzGerald. Nel 1893, il fisico irlandese George Francis FitzGerald propose una spiegazione del tutto nuova dei risultati negativi dell'esperimento di Michelson e Morley, sostenendo che la materia si contrarrebbe sempre in direzione del suo moto, e che l'entit… di tale contrazione aumenterebbe con la velocit… del moto stesso. Secondo tale interpretazione, lo stesso interferometro si accorcerebbe, nella direzione del ®veroŻ moto della terra, di una quantit… che compenserebbe esattamente la differente lunghezza del percorso del raggio luminoso. C'Š di pi—: qualsiasi strumento di misura possibile, compresi gli organi di senso umani, subirebbe questa contrazione, e quindi sarebbe assolutamente impossibile misurare la contrazione stessa, muovendosi assieme all'oggetto. La spiegazione di FitzGerald lasciava quasi pensare a una ®cospirazioneŻ della natura per impedirci di misurare il moto assoluto: la natura produrrebbe un effetto che elimina esattamente qualsiasi tipo di differenza che potremmo cercare di sfruttare per osservare tale moto. Questo fenomeno frustrante divenne noto con il nome di "contrazione di FitzGerald", e venne descritto dal suo scopritore tramite un'equazione. Un oggetto che si muova a circa 11 chilometri al secondo (pressappoco la velocit… dei pi— veloci razzi odierni) si contrarrebbe solo di due parti su 1 miliardo, nella direzione del moto; ma a velocit… veramente elevate, la contrazione diventerebbe considerevole. A 150 mila chilometri al secondo (met… della velocit… della luce) sarebbe del 15 per cento; a 262 mila chilometri al secondo (7 su 8 della velocit… della luce) sarebbe del 50 per cento; cioŠ un regolo lungo un metro che ci passasse vicino alla velocit… di 262 mila chilometri al secondo, ci apparirebbe lungo soltanto cinquanta centimetri - sempre che non stessimo anche noi muovendoci insieme a esso, e in pi— avessimo un sistema per misurarne la lunghezza mentre ci sfreccia vicino a tale velocit…. Quando poi un oggetto avesse la velocit… della luce, 300 mila chilometri al secondo, la sua lunghezza nella direzione del moto sarebbe uguale a zero. Dato che presumibilmente non possono esistere lunghezze minori di zero, se ne deve dedurre che la velocit… della luce nel vuoto Š la massima velocit… possibile nell'universo. Il fisico olandese Hendrik Antoon Lorentz ben presto svilupp• ulteriormente l'idea di FitzGerald. In seguito ai suoi studi sui raggi catodici egli giunse alla conclusione che, se si fosse compressa in un volume pi— piccolo la carica di una particella, la massa di quest'ultima avrebbe dovuto aumentare; quindi una particella in moto veloce, essendo soggetta alla contrazione di FitzGerald nella direzione del suo moto, avrebbe dovuto subire un aumento della propria massa. Lorentz formul• un'equazione per l'aumento della massa che risult• molto simile all'equazione di FitzGerald per la contrazione. Alla velocit… di 150 mila chilometri al secondo, la massa di un elettrone sarebbe aumentata del 15 per cento; a 262 mila chilometri al secondo, sarebbe aumentata del 100 per cento (cioŠ sarebbe raddoppiata); e alla velocit… della luce, la sua massa sarebbe diventata infinita. Ancora una volta ci si trovava di fronte a una conclusione che faceva pensare che una velocit… maggiore di quella della luce fosse impossibile; infatti, come poteva una massa essere pi— che infinita? La contrazione di FitzGerald e l'aumento della massa previsto da Lorentz sono tanto strettamente connessi che le loro formulazioni matematiche vengono spesso riunite sotto la denominazione unica di "equazioni di Lorentz-FitzGerald". La variazione della massa con la velocit… pu• essere misurata da un osservatore in quiete con maggior facilit… della contrazione della lunghezza. Si pu• determinare il rapporto tra massa e carica di un elettrone in base alla deviazione che esso subisce in un campo magnetico. Ora, via via che la velocit… dell'elettrone cresceva, anche la massa avrebbe dovuto crescere, mentre non vi era ragione di pensare che la carica dovesse a sua volta crescere: pertanto, il rapporto massa-carica sarebbe aumentato e la traiettoria dell'elettrone sarebbe risultata meno incurvata. Nel 1900, il fisico tedesco Walther Kaufmann scoprŤ che questo rapporto aumentava con la velocit… in un modo che confermava l'aumento della massa dell'elettrone che era stato previsto dalle equazioni di Lorentz-FitzGerald. Misurazioni successive e pi— precise mostrarono che l'accordo era praticamente perfetto. Quando parliamo della velocit… della luce come di un limite insuperabile, dobbiamo ricordare che Š la velocit… della luce nel vuoto (quasi 300 mila chilometri al secondo) ci• che qui ha importanza. Nei mezzi materiali trasparenti la luce si muove pi— lentamente, cioŠ con la velocit… che ha nel vuoto divisa per l'indice di rifrazione del mezzo. (L'"indice di rifrazione" Š una misura della deviazione subita da un raggio luminoso che, provenendo dal vuoto, penetra obliquamente nel mezzo.) Nell'acqua, il cui indice di rifrazione Š circa 1,3, la velocit… della luce Š 300 mila chilometri al secondo diviso 1,3, cioŠ circa 230 mila chilometri al secondo; nel vetro (indice di rifrazione circa 1,5), la velocit… della luce Š di 200 mila chilometri al secondo circa; mentre nel diamante (indice di rifrazione 2,4), la velocit… della luce non supera i 125 mila chilometri al secondo. La radiazione e la teoria dei quanti di Planck. E' possibile per le particelle subatomiche viaggiare in un particolare mezzo trasparente con una velocit… superiore a quella che raggiunge la luce nello stesso mezzo (comunque "non superiore" a quella della luce nel vuoto). Quando ci• accade, le particelle lasciano una scia di luce azzurrastra, un po' come un aereo che, viaggiando a velocit… supersoniche, lascia una scia sonora. L'esistenza di tale radiazione fu osservata per la prima volta dal fisico russo Paul Alekseevic' Cerenkov nel 1934; la spiegazione teorica venne avanzata nel 1937 dai fisici russi Il'ja Mikhailovic' Frank e Igor Evgenevic' Tamm. I tre condivisero il premio Nobel per la fisica nel 1958. Sono stati ideati strumenti capaci di rivelare la "radiazione Cerenkov"; questi "contatori Cerenkov" sono particolarmente adatti per studiare particelle di grande velocit…, come quelle che costituiscono i raggi cosmici. Mentre le fondamenta della fisica stavano ancora vacillando sotto i colpi inferti dall'esperimento di Michelson e Morley e dalla contrazione di FitzGerald, si verific• un secondo terremoto. Questa volta la questione all'origine dei guai riguardava la radiazione emessa dalla materia quando viene riscaldata. (Bench‚ solitamente tale radiazione sia costituita di luce, i fisici ne parlano come della "radiazione del corpo nero". Un corpo nero Š un corpo ideale che assorbe la luce perfettamente senza rifletterne alcuna porzione, come farebbe appunto un corpo perfettamente nero, e che, reciprocamente, irraggia perfettamente in un'ampia banda di lunghezze d'onda.) Il fisico austriaco Josef Stefan aveva dimostrato, nel 1879, che la radiazione totale emessa da un corpo dipende solo dalla sua temperatura (e non dalla natura della sostanza di cui Š fatto) e che, in condizioni ideali, la radiazione Š proporzionale alla quarta potenza della temperatura assoluta: per esempio, se si raddoppia la temperatura assoluta, la radiazione totale aumenter… di sedici volte, essendo 16 = 2 per 2 per 2 per 2 ("legge di Stefan"). Si sapeva inoltre che, al crescere della temperatura, la radiazione predominante tende a spostarsi a lunghezze d'onda minori. Quando, per esempio, si riscalda un pezzo di acciaio, all'inizio esso irraggia soprattutto nell'infrarosso invisibile, poi diventa di un rosso cupo, quindi di un rosso brillante, poi diventa arancione, poi giallo-bianco; infine, se si potesse impedirgli di evaporare, sarebbe di un bianco azzurrastro. Nel 1893, il fisico tedesco Wilhelm Wien elabor• una teoria che forniva un'espressione matematica della distribuzione dell'energia nella radiazione del corpo nero, cioŠ della quantit… di energia irradiata a ogni particolare lunghezza d'onda. Questa teoria forniva una formula che descriveva accuratamente la distribuzione dell'energia all'estremo violetto dello spettro, ma non all'estremo rosso. (Per le sue ricerche sul calore Wien ricevette il premio Nobel per la fisica nel 1911.) Intanto i fisici inglesi Lord Rayleigh e James Jeans formularono un'equazione che descriveva la distribuzione all'estremo rosso dello spettro, ma non funzionava assolutamente all'estremo violetto. In breve, le migliori teorie disponibili riuscivano a spiegare una delle due met… dello spettro della radiazione, ma non tutte e due contemporaneamente. Il fisico tedesco Max Karl Ernst Ludwig Planck affront• risolutamente il problema, e scoprŤ che si doveva introdurre un concetto del tutto nuovo, se si voleva ottenere un'equazione che si accordasse con i fatti. Egli avanz• l'ipotesi che la radiazione fosse fatta di piccole unit…, o pacchetti, cosŤ come la materia Š fatta di atomi, e chiam• l'unit… di radiazione "quanto". Planck pens• che la radiazione potesse essere assorbita solo in numeri interi di quanti, e in pi— avanz• l'ipotesi che l'energia di un quanto dipendesse dalla lunghezza d'onda della radiazione. Minore era la lunghezza d'onda, maggiore era l'energia del quanto; o, per dirla altrimenti, il contenuto di energia del quanto era inversamente proporzionale alla lunghezza d'onda. Ora il quanto poteva essere messo direttamente in relazione con la frequenza di una data radiazione - cioŠ con il numero di onde emesse in un secondo. Come il contenuto di energia di un quanto, anche la frequenza Š inversamente proporzionale alla lunghezza d'onda della radiazione: pi— corte sono le onde, maggiore Š il numero che ne pu• essere emesso in un secondo. Ma se tanto la frequenza che il contenuto di energia del quanto erano inversamente proporzionali alla lunghezza d'onda, essi dovevano essere direttamente proporzionali tra loro. Planck espresse questa relazione per mezzo della sua equazione, divenuta famosa: e = h v Il simbolo "e" indica l'energia del quanto; "v" (la lettera greca "nu") indica la frequenza e "h" Š la "costante di Planck", che stabilisce la proporzionalit… tra l'energia del quanto e la frequenza. Il valore di "h" Š estremamente piccolo, cosŤ come piccolissimo Š il quanto. Le unit… di radiazione sono in pratica cosŤ piccole che la luce a noi appare continua, come del resto continua ci appare la materia ordinaria. All'inizio del ventesimo secolo alla radiazione toccava la stessa sorte che era toccata alla materia all'inizio del diciannovesimo secolo: ora si doveva ammettere che entrambe fossero discontinue. I quanti di Planck chiarirono la relazione esistente tra temperatura e lunghezza d'onda della radiazione emessa: un quanto di luce violetta aveva il doppio di energia di un quanto di luce rossa, e naturalmente occorreva pi— calore per produrre un quanto violetto che per produrre un quanto rosso. Le equazioni ricavate utilizzando il concetto di quanto descrivevano assai bene la radiazione del corpo nero a entrambi gli estremi dello spettro. Ma la teoria dei quanti di Planck era destinata a dare un contributo ancora maggiore al progresso della fisica: in seguito avrebbe spiegato il comportamento degli atomi, degli elettroni negli atomi e dei nucleoni nei nuclei atomici. Oggi la fisica precedente alla teoria dei quanti viene chiamata "fisica classica", e quella successiva, "fisica moderna". A Planck venne assegnato il premio Nobel per la fisica nel 1918. Einstein e il dualismo onda-particella. La teoria di Planck non suscit• molto scalpore tra i fisici quando fu proposta, nel 1900. Era troppo rivoluzionaria per essere accettata subito. Lo stesso Planck sembrava sgomento di quanto aveva fatto. Ma, cinque anni dopo, un giovane fisico svizzero nato in Germania, che portava il nome di Albert Einstein, verific• l'esistenza dei quanti di Planck. Il fisico tedesco Philipp Lenard aveva scoperto che la luce, colpendo certi metalli, provocava l'emissione di elettroni dalla loro superficie, come se la forza della luce espellesse gli elettroni dagli atomi. Il fenomeno prese il nome di "effetto fotoelettrico", e per la sua scoperta Lenard ricevette nel 1905 il premio Nobel per la fisica. Quando i fisici cominciarono a fare esperimenti su questo fenomeno, scoprirono, con grande sorpresa, che se si aumentava l'intensit… della luce, l'energia degli elettroni emessi non aumentava: ci• che li influenzava, invece, erano i diversi valori della lunghezza d'onda della luce usata: per esempio, la luce blu conferiva agli elettroni maggior velocit… della luce gialla; una luce blu molto debole causava l'emissione di un numero di elettroni minore rispetto a una intensa luce gialla; ma quei pochi elettroni espulsi dalla luce blu viaggiavano con una velocit… maggiore di quella di qualsiasi elettrone ottenuto usando luce gialla. La luce rossa di qualsiasi intensit…, invece, in certi metalli non provocava affatto l'emissione di elettroni. Nessuno di questi fenomeni poteva essere spiegato dalle vecchie teorie della luce. Perch‚ mai la luce blu doveva riuscire a fare qualcosa che la luce rossa non poteva fare? Einstein trov• la risposta nella teoria dei quanti di Planck. Per assorbire abbastanza energia da abbandonare la superficie del metallo, un elettrone doveva essere colpito da un quanto di energia superiore a un valore minimo. Nel caso di un elettrone legato solo debolmente al suo atomo (come accade per il cesio), anche un quanto di luce rossa poteva bastare; ma, se un atomo tratteneva i suoi elettroni con maggior forza, occorreva luce gialla, o blu, o addirittura ultravioletta. In ogni caso, maggiore era l'energia del quanto, maggiore era anche la velocit… dell'elettrone espulso dal metallo. Qui la teoria dei quanti spiegava un fenomeno fisico con semplicit… perfetta, mentre le concezioni prequantistiche della luce non erano in grado di farlo. Seguirono ben presto numerose altre applicazioni della meccanica quantistica. Per la sua interpretazione dell'effetto fotoelettrico (e non per la teoria della relativit…), Einstein ricevette il premio Nobel per la fisica nel 1921. Nella sua teoria della relativit… ristretta, proposta nel 1905 ed elaborata nel tempo libero, mentre era impiegato all'Ufficio brevetti svizzero, Einstein formul• una concezione fondamentalmente nuova dell'universo, basata su un'estensione della teoria dei quanti. Egli avanz• l'ipotesi che la luce viaggiasse nello spazio sotto forma di quanti (il termine "fotone" per queste unit… di luce fu introdotto da Compton nel 1928), riesumando cosŤ l'idea che la luce avesse natura corpuscolare. Si trattava, per•, di un nuovo tipo di particella, che aveva tanto le propriet… di un'onda che quelle di un corpuscolo, ed esibiva in momenti diversi un gruppo di propriet… o l'altro, alternativamente. Potrebbe sembrare un paradosso, o addirittura qualcosa di mistico, quasi che la vera natura della luce superasse ogni possibilit… di comprensione umana. Al contrario, io vorrei spiegare il concetto ricorrendo a un'analogia: un uomo pu• avere molti aspetti - marito, padre, amico, uomo d'affari. A seconda delle circostanze e dell'ambiente in cui si trova, si comporta da marito, da padre, da amico o da uomo d'affari. Nessuno si aspetta che egli esibisca il suo comportamento maritale con un cliente o il suo comportamento di uomo d'affari con la moglie; eppure, un simile uomo non ha nulla di paradossale n‚ Š qualcosa di pi— di un singolo uomo. Analogamente, la radiazione ha propriet… tanto corpuscolari che ondulatorie: in determinate situazioni sono salienti le prime, in altre le seconde. Verso il 1930, Niels Bohr sostenne che qualsiasi esperimento destinato a studiare le propriet… ondulatorie della luce non avrebbe potuto rivelare le sue propriet… corpuscolari, e viceversa. Si poteva studiare un gruppo di propriet… alla volta, mai entrambe contemporaneamente. E' questo il "principio di complementarit…". Tale duplice insieme di propriet… riesce a descrivere la radiazione meglio di quanto non possa fare ciascuno dei due insiemi da solo. La scoperta della natura ondulatoria della luce aveva permesso tutti i trionfi dell'ottica del diciannovesimo secolo, ivi compresa la spettroscopia, ma aveva anche chiesto ai fisici di ammettere l'esistenza dell'etere. Ora la concezione einsteiniana del dualismo onda-particella, pur conservando tutte le conquiste del diciannovesimo secolo (comprese le equazioni di Maxwell), consentiva di lasciar cadere l'assunto dell'esistenza dell'etere. La radiazione poteva viaggiare nel vuoto in virt— delle proprie caratteristiche corpuscolari, e il concetto di etere, gi… colpito a morte dall'esperimento di Michelson e Morley, ora poteva essere sepolto. Einstein introdusse una seconda idea importante nella teoria della relativit… ristretta: quella che la velocit… della luce nel vuoto non vari mai, indipendentemente dal moto della sua sorgente. Secondo la concezione newtoniana dell'universo, un raggio luminoso proveniente da una sorgente che si sta avvicinando all'osservatore deve apparire pi— veloce di un raggio proveniente da una sorgente che si muove in qualsiasi altra direzione; nella concezione einsteiniana, questo, viceversa, non si verifica. Da tale postulato Einstein fu in grado di dedurre le equazioni di Lorentz-FitzGerald, mostrando che l'aumento della massa con la velocit…, che Lorentz aveva attribuito solo alle particelle cariche, si verificava per oggetti qualsiasi. Einstein inoltre giunse alla conclusione che un aumento di velocit…, oltre a causare la contrazione delle lunghezze e l'aumento della massa, doveva anche rallentare il tempo: in altre parole, mentre il metro si sarebbe accorciato, gli orologi avrebbero scandito il tempo pi— lentamente. La teoria della relativit…. L'aspetto pi— fondamentale della teoria di Einstein era la negazione dell'esistenza dello spazio assoluto e del tempo assoluto. Questo potrebbe apparire senza senso: come pu• la mente umana apprendere qualcosa sull'universo senza alcun punto di partenza? Einstein rispondeva che tutto quanto occorre Š un "sistema di riferimento" a cui rapportare gli eventi dell'universo. Qualsiasi sistema di riferimento sar… ugualmente valido: la terra considerata immobile, il sole considerato immobile, o noi stessi considerati immobili. Possiamo, semplicemente, scegliere il sistema che pi— Š conveniente. E' pi— comodo calcolare i moti dei pianeti in un sistema di riferimento in cui il sole Š immobile che in uno in cui lo Š la terra - ma il primo sistema non Š per questo pi— vero. CosŤ, le misurazioni dello spazio e del tempo sono ®relativeŻ a un sistema di riferimento arbitrariamente scelto - ed Š questa la ragione per cui la teoria di Einstein si chiama "teoria della relativit…". Facciamo un esempio: supponiamo di osservare, stando qui sulla terra, uno strano pianeta (Pianeta X), esattamente uguale al nostro per massa e dimensioni, che ci sfrecciasse vicino alla velocit…, rispetto a noi, di 262 mila chilometri al secondo. Se potessimo misurare le sue dimensioni mentre ci sfiora, troveremmo che si Š contratto del 50 per cento nella direzione del suo moto. Sarebbe un ellissoide anzich‚ una sfera; inoltre a un'ulteriore misurazione la sua massa risulterebbe doppia di quella della terra. Eppure, a un uomo sul Pianeta X sembrerebbe di essere fermo su un pianeta immobile; egli inoltre riterrebbe che fosse la terra a sfiorarlo, alla velocit… di 262 mila chilometri al secondo, e la terra gli apparirebbe di forma ellissoidale e di massa doppia di quella del proprio pianeta. Si sarebbe tentati di chiedere quale pianeta si sia "realmente" contratto nella direzione del moto e abbia "realmente" raddoppiato la propria massa; ma l'unica risposta possibile dipende dal sistema di riferimento. Se trovate frustrante l'idea, pensate al fatto che l'uomo Š piccolo in confronto a una balena e grande in confronto a un insetto. Che senso ha dunque chiedersi se l'uomo sia "in realt…" grande o piccolo? Nonostante tutte le sue insolite implicazioni, la relativit… spiega tutti i fenomeni noti dell'universo almeno altrettanto bene quanto le teorie prerelativistiche; essa, per•, va oltre, spiegando in modo semplice alcuni fenomeni che la concezione newtoniana spiegava in modo insoddisfacente o non spiegava affatto. Di conseguenza, quella di Einstein Š stata accettata, rispetto a quella di Newton, non gi… come una teoria sostitutiva, ma come una teoria pi— perfezionata. Si pu• ancora utilizzare la concezione newtoniana dell'universo come un'approssimazione semplificata che funziona abbastanza bene nella vita ordinaria e anche nell'astronomia comune, perfino per mettere in orbita dei satelliti; quando per• si tratta, per esempio, di accelerare delle particelle in un sincrotrone, si deve tener conto dell'aumento einsteiniano della massa con la velocit…, se si vuole che la macchina funzioni. Lo spazio-tempo e il paradosso degli orologi. La concezione einsteiniana dell'universo intreccia tra loro spazio e tempo in modo tale che non ha pi— senso parlare dell'uno o dell'altro separatamente. L'universo Š quadridimensionale, e il tempo Š una delle sue dimensioni (che per• non si comporta esattamente come le ordinarie dimensioni spaziali, lunghezza, larghezza e altezza). Si usa indicare questa fusione quadridimensionale con il termine "spazio-tempo", concetto che fu introdotto, nel 1907, da uno dei maestri di Einstein, il matematico russo-tedesco Hermann Minkowski. Spazio e tempo giocano strani scherzi nella relativit…: uno degli aspetti della teoria che suscita ancora discussioni tra i fisici Š l'idea di Einstein del rallentamento degli orologi. Un orologio in moto, diceva Einstein, segna il tempo pi— lentamente di un orologio in quiete. In effetti, tutti i fenomeni variabili nel tempo variano pi— lentamente in moto che in quiete, il che equivale a dire che il tempo stesso rallenta. A velocit… ordinarie, l'effetto Š trascurabile, ma a 262 mila chilometri al secondo un orologio sembrerebbe (a un osservatore che lo guardasse passare) impiegare due secondi per batterne uno. Alla velocit… della luce, poi, l'orologio sembrerebbe fermo. La dilatazione del tempo Š pi— sconcertante degli effetti che implicano lunghezza e massa. Se un oggetto si riduce alla met… della propria lunghezza e poi ritorna alla lunghezza normale, o se raddoppia il proprio peso e poi riprende quello normale, non resta alcuna traccia che indichi tale cambiamento transitorio, e non vi sono due punti di vista opposti che entrano in conflitto. Il tempo, invece, Š cumulativo. Se un orologio sul Pianeta X, a causa della sua grande velocit…, sembra marciare a ritmo dimezzato per un'ora, e se poi ritorna in quiete, esso, pur riprendendo il suo ritmo di marcia normale, conserver… traccia di quanto avvenuto nel fatto di essere indietro di mezz'ora! Allora, consideriamo due navi spaziali che si passino accanto, ciascuna ritenendo che l'altra si muova alla velocit… di 262 mila chilometri al secondo, con un tempo rallentato della met…: quando le due astronavi poi si riincontreranno, gli osservatori situati su ciascuna si aspetteranno che l'orologio dell'altra astronave sia rimasto indietro di mezz'ora rispetto al proprio. Ma non Š possibile che ciascuno dei due orologi sia indietro rispetto all'altro. Cosa sar… accaduto allora? Questo problema prende il nome di "paradosso degli orologi". In realt…, non c'Š nessun paradosso. Anche se una delle due astronavi passasse come una saetta vicino all'altra e ciascuno dei due equipaggi giurasse che l'orologio dell'altra astronave era pi— lento, non avrebbe alcuna importanza stabilire quale orologio fosse ®realmenteŻ pi— lento; le due astronavi si allontanerebbero infatti per sempre e i due orologi non verrebbero mai pi— portati nello stesso posto allo stesso momento per essere confrontati: il paradosso degli orologi non si presenterebbe mai. In effetti la teoria della relativit… ristretta di Einstein Š valida solo per il moto rettilineo uniforme, cosŤ che all'interno di tale teoria si pu• parlare solo di separazioni definitive. Supponiamo, invece, che le due navi spaziali si riincontrino dopo il rapido passaggio dell'una accanto all'altra, in modo che si possano confrontare i due orologi. Perch‚ ci• accada, deve verificarsi un fatto nuovo. Almeno una delle due navi spaziali deve accelerare. Supponiamo che sia l'astronave B a farlo - cioŠ che essa rallenti, descriva un'ampia curva e poi acceleri finch‚ raggiunge l'astronave A. Naturalmente B potrebbe scegliere di considerarsi in quiete; secondo tale scelta del sistema di riferimento, sar… A che effettua tutte le variazioni di velocit…, in modo da accostarsi a B. Se nell'universo non esistessero che queste due astronavi, allora sŤ che, in virt— di questa situazione simmetrica, insorgerebbe il paradosso degli orologi. Tuttavia, A e B "non" sono tutto ci• che esiste nell'universo - il che distrugge la simmetria. Quando B accelera, lo fa non solo rispetto ad A, ma anche rispetto a tutto il resto dell'universo. Se B sceglie di considerarsi in quiete, deve considerare non solo A, ma tutte le galassie, senza alcuna eccezione, come accelerate rispetto a se stessa. In breve, Š B contro l'universo intero. In tale situazione, Š l'orologio di B che resta indietro di mezz'ora, non quello di A. Questo fenomeno comporta delle conseguenze per i viaggi spaziali. Se gli astronauti che si allontanano dalla terra accelerassero fino a raggiungere quasi la velocit… della luce, il tempo per loro passerebbe molto pi— lentamente che per noi. Essi potrebbero raggiungere una destinazione molto lontana e far ritorno nel giro di quelle che a loro sembrerebbero settimane, mentre nel frattempo sarebbero passati sulla terra molti secoli. Secondo questa ipotesi della dilatazione del tempo con il moto, si potrebbe addirittura fare un viaggio fino a una stella lontana durante l'arco di una vita umana - ma naturalmente chi intraprendesse tale viaggio dovrebbe dire addio per sempre alla propria generazione e al mondo che conosce, perch‚ ritornerebbe nel mondo del futuro. La gravit… e la teoria della relativit… generale di Einstein. Nella teoria della relativit… ristretta, Einstein non si occup• del moto accelerato n‚ della gravitazione. Tratt• invece questi temi nella teoria della relativit… generale, pubblicata nel 1915. La teoria della relativit… generale presentava una concezione completamente nuova della gravitazione, considerandola come una propriet… dello spazio anzich‚ come una forza che si esercita tra i corpi. Come effetto della presenza della materia, lo spazio si incurva, e i corpi, per cosŤ dire, seguono la linea di minor resistenza tra tutte le curve. Per strana che potesse apparire questa concezione di Einstein, essa riusciva a spiegare qualcosa che la teoria newtoniana della gravitazione non era riuscita a spiegare. Il pi— grande trionfo della legge di gravitazione di Newton si era avuto nel 1846, con la scoperta di Nettuno (vedi capitolo terzo). Dopo di ci•, sembrava che nulla avrebbe potuto scuotere le fondamenta di tale legge. Restava inspiegato, tuttavia, un altro moto planetario: il perielio di Mercurio, cioŠ il punto della sua orbita in cui esso si trova pi— vicino al sole, si sposta da una rivoluzione alla successiva, avanzando con continuit… lungo l'orbita del pianeta. Gli astronomi erano riusciti a spiegare gran parte di tale anomalia come causata da perturbazioni dell'orbita provocate dall'attrazione dei pianeti vicini. In effetti, nei primi tempi in cui si era applicata la teoria della gravitazione al sistema solare, si era pensato che le perturbazioni causate dal variare dell'attrazione di un pianeta su un altro potessero finire per demolire il delicato meccanismo del sistema solare. Nei primi decenni del diciannovesimo secolo, tuttavia, Laplace aveva dimostrato che il sistema solare non era poi tanto fragile. Le perturbazioni sono tutte cicliche, e le irregolarit… orbitali non superano mai un certo valore in alcuna direzione. Alla lunga, il sistema solare Š stabile e gli astronomi erano pi— che mai sicuri che prima o poi si sarebbe riusciti a spiegare tutte le irregolarit… particolari, tenendo conto delle perturbazioni. Ma questa speranza non si era avverata per Mercurio. Anche tenendo conto di tutte le perturbazioni, restava inspiegato un avanzamento del perielio del pianeta, che ammontava a 43 secondi di arco per secolo. Questo moto, scoperto da Leverrier nel 1845, non Š gran cosa; in 4000 anni comporta uno spostamento pari soltanto all'ampiezza della luna. Era tuttavia abbastanza per dar da pensare agli astronomi. Leverrier suggerŤ che questa anomalia fosse forse dovuta a un piccolo pianeta non ancora scoperto, pi— vicino al sole di Mercurio. Per decenni gli astronomi andarono alla ricerca dell'ipotetico pianeta (chiamato Vulcano) e pi— volte venne annunciata la sua scoperta, sempre per• smentita in seguito. Infine si giunse concordemente alla conclusione che Vulcano non esisteva. La teoria della relativit… generale di Einstein fornŤ la soluzione, mostrando che il perielio di qualsiasi corpo animato da un moto di rivoluzione doveva avere un altro movimento, oltre a quello previsto dalla legge di Newton. Quando i nuovi calcoli furono applicati a Mercurio, si trov• un accordo completo con le osservazioni. I pianeti pi— lontani di Mercurio dal sole dovevano presentare spostamenti del perielio sempre minori. Nel 1960 si scoprŤ che il perielio di Venere avanzava di 8 secondi di arco per secolo, valore quasi perfettamente in accordo con la teoria di Einstein. Ancora pi— impressione fecero le scoperte di due nuovi fenomeni inaspettati, che erano stati previsti solo dalla teoria di Einstein. Innanzitutto, Einstein aveva previsto che un intenso campo gravitazionale avrebbe dovuto rallentare le vibrazioni di un atomo; tale rallentamento sarebbe stato messo in evidenza da uno spostamento verso il rosso delle righe spettrali ("spostamento di Einstein"). Cercando un campo gravitazionale abbastanza forte da produrre un simile effetto, Eddington pens• alle nane bianche: infatti la luce emessa da una stella cosŤ densa doveva perdere energia in misura osservabile per vincere l'intensa gravit… alla superficie della stella. Nel 1925 W. S. Adams, che era stato il primo a dimostrare quale immensa densit… avessero tali stelle, studi• le righe spettrali della luce delle nane bianche e trov• lo spostamento verso il rosso previsto. La verifica della seconda previsione di Einstein fu ancora pi— sensazionale. La sua teoria prevedeva che un campo gravitazionale avrebbe dovuto incurvare i raggi luminosi; Einstein aveva calcolato che un raggio di luce che sfiorasse la superficie del sole sarebbe stato incurvato rispetto a una linea retta di 1,75 secondi di arco. Come si poteva verificare questo asserto? Se fosse stato possibile osservare le stelle lontane ma molto prossime al bordo del disco solare, durante un'eclissi di sole, e confrontare le loro posizioni con quelle che esse stesse avevano quando il sole non si trovava in prossimit… del percorso dei loro raggi di luce, qualsiasi spostamento dovuto alla curvatura della luce avrebbe dovuto essere visibile. Einstein aveva pubblicato la sua memoria sulla relativit… generale nel 1915, ma la verifica dovette attendere fino alla fine della prima guerra mondiale. Nel 1919 la Royal Astronomical Society inglese organizz• una spedizione per effettuare tale verifica, assistendo a un'eclissi totale che era visibile dall'isola di Principe, un isolotto portoghese al largo delle coste occidentali dell'Africa. Le stelle mostrarono effettivamente un cambiamento di posizione. Ancora una volta i fatti avevano dato ragione ad Einstein. In base allo stesso principio, se una stella si trovasse esattamente dietro a un'altra, la luce di quella pi— lontana si incurverebbe in prossimit… della stella pi— vicina, in modo tale che quella pi— lontana risulterebbe ingrandita. La stella pi— vicina fungerebbe da lente gravitazionale. Purtroppo, le dimensioni apparenti delle stelle sono talmente piccole che Š estremamente rara un'eclissi di una stella distante ad opera di una stella pi— vicina (dal punto di vista della terra). La scoperta delle quasar fornŤ per• agli astronomi una nuova opportunit…. All'inizio degli anni ottanta, essi hanno osservato delle quasar doppie in cui i due membri hanno esattamente le stesse propriet…. E' ragionevole supporre che ci• che vediamo sia un'unica quasar la cui luce Š distorta da una galassia (o forse da un buco nero) che si trova sulla linea visuale, ma ci Š invisibile: l'immagine della quasar risulta distorta, cosŤ da apparire doppia. (Un'imperfezione di uno specchio potrebbe sortire lo stesso effetto sulla nostra immagine riflessa.) Verifiche della teoria della relativit… generale. Le prime vittorie della teoria della relativit… generale di Einstein furono tutte di natura astronomica. Gli scienziati desideravano per• trovare un modo per verificarla in laboratorio, in condizioni che essi stessi potessero variare a piacimento. La possibilit… di una siffatta prova di laboratorio si profil• nel 1958, quando il fisico tedesco Rudolf Ludwig M”ssbauer mostr• che, in certe condizioni, si pu• fare in modo che un cristallo produca un fascio di raggi gamma di lunghezza d'onda rigorosamente definita. Di solito, l'atomo che emette raggi gamma rincula, e questo movimento allarga la banda delle lunghezze d'onda prodotte. Nei cristalli sottoposti a determinate condizioni, un intero cristallo si comporta come un singolo atomo: il rinculo Š distribuito fra tutti gli atomi cosŤ che praticamente si annulla; il raggio gamma emesso ha allora lunghezza d'onda estremamente definita. Un tale raggio pu• venire assorbito con straordinaria efficienza da un cristallo analogo a quello che l'ha prodotto, mentre non verr… assorbito se i raggi gamma avranno una lunghezza d'onda anche di pochissimo diversa da quella che il cristallo produrrebbe naturalmente. Questo viene chiamato "effetto M”ssbauer". Se un fascio di raggi gamma di questo genere viene emesso verso il basso, in modo da subire l'effetto della gravit…, secondo la teoria della relativit… generale deve acquistare energia; pertanto la sua lunghezza d'onda deve diminuire. Una caduta non pi— lunga di qualche centinaio di metri dovrebbe bastare a fargli acquistare l'energia sufficiente a far diminuire la sua lunghezza d'onda abbastanza perch‚ il fascio non sia pi— assorbito dal cristallo. Se poi il cristallo che emette i raggi gamma viene spostato verso l'alto mentre ha luogo l'emissione, la lunghezza d'onda del raggio gamma aumenter… per l'effetto Doppler-Fizeau. Si pu• fare in modo che la velocit… con cui il cristallo Š spostato verso l'alto neutralizzi l'effetto della gravitazione sui raggi gamma in caduta, cosŤ che questi vengano nuovamente assorbiti dal cristallo. Esperimenti condotti nel 1960 e negli anni successivi si sono basati sull'effetto M”ssbauer per confermare la teoria della relativit… generale con grande precisione, fornendo una delle pi— convincenti dimostrazioni della sua validit… che si sia avuta fino a oggi; a M”ssbauer venne assegnato il premio Nobel per la fisica nel 1961. Anche altre misurazioni di precisione tendono a confermare la relativit… generale: l'invio di segnali radar verso i pianeti, il comportamento delle pulsar binarie nel loro moto di rivoluzione intorno al comune centro di gravit…, e altro ancora. Sono tutte misurazioni al limite del possibile, e i fisici hanno fatto numerosi tentativi di elaborare teorie alternative. Tra tutte le teorie suggerite, per•, quella di Einstein Š la pi— semplice dal punto di vista matematico. Ogniqualvolta Š stato possibile fare delle misurazioni al fine di discriminare tra le varie teorie (sempre lavorando su differenze minime), Š stata quella di Einstein a sembrare confermata. Dopo quasi tre quarti di secolo, la teoria della relativit… generale ha mantenuto la sua validit…, anche se gli scienziati seguitano (e fanno bene) a metterla in discussione. (Sia ben chiaro: Š la relativit… "generale" che viene messa in discussione; la relativit… "ristretta", invece, Š stata verificata un tal numero di volte e in tanti modi differenti che nessun fisico ormai pensa pi— a confutarla.) IL CALORE. Fino ad ora, in questo capitolo, non mi sono occupato di un fenomeno che accompagna abitualmente la luce nella nostra esperienza di tutti i giorni: in generale, tutti gli oggetti luminosi, dalle stelle alle candele, emettono, oltre che luce, anche calore. Misurazione della temperatura. Prima dell'epoca moderna il calore Š stato studiato solo dal punto di vista qualitativo. La gente si accontentava di dire: ®fa caldoŻ, oppure ®fa freddo!Ż, o ancora ®questo Š pi— caldo di quest'altroŻ. Per poter fare della temperatura una grandezza misurabile, occorreva prima trovare qualche mutamento misurabile che si accompagnasse regolarmente alle variazioni di temperatura: si scoprŤ che un mutamento di questo genere era dato dal fatto che le sostanze, quando vengono scaldate, si espandono e quando vengono raffreddate, si contraggono. Galileo fu il primo a cercare di sfruttare questo fenomeno per studiare i cambiamenti di temperatura. Nel 1603, egli colloc• un tubo di vetro capovolto contenente aria calda in una vaschetta piena di acqua: l'aria del tubo, raffreddandosi fino a raggiungere la temperatura ambiente, si contraeva, causando la salita dell'acqua della vaschetta dentro il tubo. Galileo aveva cosŤ costruito un "termometro" (dalle parole greche che significano ®misura del caloreŻ). Al variare della temperatura della stanza, variava anche il livello raggiunto dall'acqua nel tubo. Se la stanza veniva riscaldata, l'aria nel tubo si espandeva, facendo abbassare il livello dell'acqua; se invece diventava pi— fredda, l'aria si contraeva e il livello dell'acqua saliva. L'unico inconveniente veniva dal fatto che l'acqua della bacinella era esposta all'aria, e anche la pressione dell'aria mutava di continuo, causando a sua volta una variazione del livello dell'acqua nel tubo, indipendentemente dalla temperatura, il che confondeva i risultati. Il termometro fu il primo importante strumento scientifico fatto di vetro. Attorno al 1654, il granduca di Toscana, Ferdinando Secondo, aveva realizzato un termometro che era indipendente dalla pressione dell'aria: esso era costituito da un bulbo attaccato a un tubo rettilineo, nel quale veniva sigillato del liquido. La contrazione e l'espansione del liquido facevano da indicatori delle variazioni di temperatura. I liquidi cambiano di volume con la temperatura molto meno di quanto non facciano i gas; ma se il bulbo era capace e pieno in modo che il liquido potesse espandersi solamente in un tubicino molto stretto, si potevano rendere evidenti la salita e la discesa anche nel caso di un piccolo cambiamento di volume. Il fisico inglese Robert Boyle fece qualcosa di molto simile all'incirca nello stesso periodo, e fu il primo a dimostrare che il corpo umano ha una temperatura costante, notevolmente superiore alla consueta temperatura ambiente. Altri dimostrarono che certi fenomeni fisici avvengono sempre alla stessa temperatura. Prima della fine del diciassettesimo secolo si sapeva che questo era il caso della fusione del ghiaccio e dell'ebollizione dell'acqua. I primi liquidi usati nella termometria furono l'acqua e l'alcool. Ma l'acqua congelava troppo presto e l'alcool evaporava troppo facilmente; cosŤ il fisico francese Guillaume Amontons ricorse al mercurio. Nello strumento da lui ideato, come in quello di Galileo, l'espansione e la contrazione dell'aria facevano salire o scendere il livello del mercurio. Poi, nel 1714, il fisico tedesco Gabriel Daniel Fahrenheit combin• le migliorie del granduca e quelle di Amontons, mettendo del mercurio in un tubo chiuso e usando la sua espansione e la sua contrazione come indicatori della temperatura. Fahrenheit fece di pi—: segn• sul tubo una scala graduata, in modo da poter effettuare una lettura quantitativa della temperatura. Non si sa con precisione in quale modo Fahrenheit giunse alla scelta della sua scala; secondo una versione dei fatti, egli avrebbe posto lo zero in corrispondenza della temperatura pi— bassa che era riuscito a raggiungere nel suo laboratorio, mescolando sale e ghiaccio fondente; poi fece corrispondere il 32 e il 212 rispettivamente al punto di congelamento e al punto di ebollizione dell'acqua pura. Ci• presentava due vantaggi: primo, l'intervallo delle temperature in cui l'acqua era liquida risultava cosŤ pari a 180, un numero legato all'uso dei "gradi"; infatti vi sono 180 gradi in una semicirconferenza; secondo, la temperatura corporea veniva ad aggirarsi sui 100 gradi, essendo normalmente, per l'esattezza, di 98,6 gradi Fahrenheit. Solitamente la temperatura corporea Š cosŤ costante che, quando supera di pi— di un grado circa la media, si dice che il soggetto ha la febbre, e si riscontrano chiari sintomi di malattia. Nel 1858, il medico tedesco Karl August Wunderlich introdusse la procedura di controllare frequentemente la temperatura corporea come indicazione del decorso della malattia. Nel decennio successivo il medico inglese Thomas Clifford Allbutt invent• il "termometro clinico", che ha una strozzatura nel tubicino contenente il mercurio; il filo di mercurio sale, raggiungendo un massimo, quando il termometro vien tenuto, per esempio, nella bocca, ma non ridiscende quando lo si toglie: esso si spezza in corrispondenza della strozzatura, e ci• permette di leggere quando si vuole la temperatura, che Š indicata dalla porzione di mercurio rimasta al di sopra della strozzatura stessa. Negli Stati Uniti Š tuttora usata la scala Fahrenheit per le faccende di tutti i giorni, come i bollettini meteorologici e i termometri clinici. Nel 1742, l'astronomo svedese Anders Celsius adott• invece un'altra scala, che, nella sua forma definitiva, pone in corrispondenza del punto di congelamento dell'acqua lo zero, e in corrispondenza del suo punto di ebollizione il 100. Siccome la divisione dell'intervallo di temperatura in cui l'acqua Š liquida Š in cento parti, questa scala Š chiamata "centigrada". Parlando di questa scala, si usa spesso l'espressione "gradi centigradi"; ma gli scienziati, in una conferenza internazionale del 1948, l'hanno ribattezzata "scala Celsius", in onore del suo inventore, come si era gi… fatto per la scala Fahrenheit; pertanto, volendo seguire la nomenclatura ufficiale, si dovrebbe parlare di gradi Celsius. Il simbolo "C", comunque, va bene ugualmente. E' stata la scala Celsius ad affermarsi ovunque nel mondo civile, e anche gli Stati Uniti stanno cercando di adeguarsi a quest'uso. Gli scienziati in particolare hanno trovato molto conveniente la scala Celsius. Due teorie del calore. La temperatura misura l'intensit… del calore, ma non la sua quantit…. Il calore passa sempre da un corpo a temperatura maggiore a uno a temperatura minore, fino a quando le temperature sono uguali, cosŤ come l'acqua scende da un livello superiore a uno inferiore finch‚ i livelli sono uguali. Il calore si comporta in tal modo indipendentemente dalle quantit… di calore contenute nei corpi interessati. Nonostante il fatto che una vasca da bagno di acqua tiepida contenga molto pi— calore di un fiammifero acceso, mettendo il fiammifero vicino all'acqua il calore passer… da questo all'acqua e non viceversa. Joseph Black, che aveva svolto importanti ricerche anche sui gas (vedi capitolo quinto), fu il primo a chiarire la distinzione tra temperatura e calore. Nel 1760, egli stabilŤ che sostanze diverse aumentavano di temperatura in misura differente quando si forniva loro una data quantit… di calore. Per innalzare di un grado Celsius la temperatura di 1 grammo di ferro occorre il triplo di calore che per riscaldare di 1 grado 1 grammo di piombo. Il berillio, poi, richiede il triplo del calore richiesto dal ferro. Black dimostr• inoltre che era possibile fornire calore a una sostanza senza farne innalzare la temperatura. Riscaldando del ghiaccio fondente, se ne affretta la fusione, ma la temperatura del ghiaccio non aumenta: il calore finir… per far sciogliere tutto il ghiaccio, ma, durante il processo, la temperatura del ghiaccio non superer… mai lo zero. Analogamente vanno le cose con l'ebollizione dell'acqua a 100 gradi: se si fornisce ulteriore calore, si far… evaporare pi— acqua, senza comunque alterare la temperatura del liquido. Lo sviluppo della macchina a vapore (vedi capitolo nono), che inizi• all'incirca all'epoca degli esperimenti di Black, accrebbe l'interesse degli scienziati per il calore e la temperatura, spingendoli a riflettere sulla natura del calore, come gi… avevano fatto per la natura della luce. Anche nel caso del calore, come in quello della luce, esistevano due teorie: l'una riteneva che il calore fosse una sostanza materiale, che si poteva versare o far passare da un corpo a un altro, e che veniva chiamata "calorico". Secondo questa concezione, quando il legno bruciava, il calorico in esso contenuto passava nella fiamma, da lŤ nella pentola posta sul fuoco, e dalla pentola nell'acqua in essa contenuta. Quando l'acqua era piena di calorico, diventava vapore. Quanto alla seconda teoria, verso la fine del diciottesimo secolo due osservazioni famose diedero origine a una ipotesi che considerava il calore come una forma di vibrazione: una di queste osservazioni si deve al fisico e avventuriero americano Benjamin Thompson, un lealista che abbandon• il paese durante la rivoluzione, fu insignito del titolo di conte Rumford e poi seguit• a girare in lungo e in largo per l'Europa. Nel 1798, trovandosi in Baviera a dirigere le operazioni di alesatura dei cannoni, egli not• che venivano prodotte grandi quantit… di calore, sufficienti a portare 18 libbre di acqua al punto di ebollizione in meno di 3 ore. Da dove veniva tutto questo calorico? Thompson concluse che il calore doveva essere una vibrazione prodotta e intensificata dall'attrito meccanico dell'utensile contro il metallo. L'anno successivo il chimico Humphry Davy effettu• un esperimento ancora pi— significativo: mantenendo due pezzi di ghiaccio sotto la temperatura di congelamento, li strofin• l'uno contro l'altro, non con le mani ma con un congegno meccanico, in modo da evitare qualsiasi flusso di calorico verso il ghiaccio: riuscŤ cosŤ a fonderne parte mediante il solo attrito. Anch'egli giunse alla conclusione che il calore dovesse essere una vibrazione e non una sostanza materiale. In realt… questo esperimento avrebbe dovuto essere decisivo; ma la teoria del calorico, bench‚ evidentemente sbagliata, sopravvisse fino alla met… del diciannovesimo secolo. Il calore come energia. Anche se la natura del calore era scarsamente compresa, gli scienziati raggiunsero qualche importante conoscenza in proposito, come gi… era successo ai ricercatori che avevano studiato la luce, i quali erano riusciti a chiarire alcuni aspetti importanti della riflessione e della rifrazione della luce prima di aver compreso la natura di quest'ultima. I fisici francesi Jean Baptiste Joseph Fourier, nel 1822, e Nicholas L‚onard Sadi Carnot, nel 1824, studiarono il flusso del calore compiendo notevoli passi in avanti. Carnot viene anzi solitamente considerato il fondatore della scienza detta "termodinamica" (dalle parole greche che significano ®movimento del caloreŻ); egli diede solide fondamenta teoriche al funzionamento della macchina a vapore. A partire dal 1840 i fisici incominciarono a chiedersi in che modo il calore contenuto nel vapore potesse convertirsi in lavoro meccanico, mettendo in moto uno stantuffo. Esiste un limite alla quantit… di lavoro che si pu• ottenere da una data quantit… di calore? Analoghe domande suscitava il processo inverso: come avviene la conversione del lavoro in calore? Joule dedic• trentacinque anni a convertire varie forme di lavoro in calore, facendo con estrema precisione quello che Rumford aveva fatto in precedenza, ma in maniera approssimativa. Joule misur• la quantit… di calore prodotta da una corrente elettrica; riscald• l'acqua e il mercurio agitandoli con ruote a pale, o forzando l'acqua a passare in tubicini sottili; riscald• l'aria comprimendola, e cosŤ via. In tutti i casi, calcol• quanto lavoro meccanico fosse stato compiuto sul sistema e quanto calore si fosse ottenuto come risultato, e stabilŤ che una data quantit… di lavoro, di qualsiasi genere, produce sempre la stessa quantit… di calore. In altre parole, Joule determin• "l'equivalente meccanico della caloria". Dato che si poteva convertire il calore in lavoro, si doveva considerare il calore come una forma di "energia" (il termine energia, derivato dal greco, significa proprio ®che contiene lavoroŻ). Elettricit…, magnetismo, luce e moto, possono tutti essere usati per compiere lavoro, e sono quindi tutti forme di energia. Il lavoro stesso, essendo convertibile in calore, Š una forma di energia. Queste idee mettevano in evidenza qualcosa che pi— o meno si sospettava fin dai tempi di Newton: che l'energia si conserva, e non pu• essere n‚ creata n‚ distrutta. CosŤ, un corpo in moto ha "energia cinetica", espressione introdotta nel 1856 da Lord Kelvin. Un corpo che si muove verso l'alto viene rallentato dalla gravit…, quindi la sua energia cinetica scompare gradualmente, ma, mentre esso perde tale energia cinetica, guadagna energia di posizione: infatti, trovandosi in alto rispetto alla superficie della terra, pu• prima o poi cadere, riacquistando energia cinetica. Nel 1853, il fisico scozzese William John Macquorn Rankine diede a questa energia di posizione il nome di "energia potenziale". Sembrava che la somma dell'energia cinetica di un corpo e della sua energia potenziale (la sua "energia meccanica") rimanesse costante durante il moto; questa costanza venne chiamata "conservazione dell'energia meccanica". Tuttavia, l'energia meccanica non si conserva "perfettamente": una parte va persa per attrito, resistenza dell'aria, eccetera. La cosa pi— importante dimostrata dagli esperimenti di Joule era il fatto che questa conservazione risultava rigorosamente verificata se si teneva conto anche del calore; infatti, quando va persa dell'energia meccanica per attrito o resistenza dell'aria, compare al suo posto del calore. Se si tiene conto anche di tale calore, si pu• dimostrare in modo incondizionato che non viene creata energia nuova n‚ distrutta energia esistente. Il primo ad asserire chiaramente questo fatto era stato un fisico tedesco, Julius Robert Mayer, nel 1842; tuttavia egli non si appoggiava su un sufficiente lavoro sperimentale, e oltretutto mancava di solide credenziali accademiche. (Anche Joule, che era un birraio e non aveva quindi credenziali accademiche, incontr• delle difficolt… per far pubblicare il proprio lavoro, pur cosŤ accurato.) Fu solo nel 1847 che una figura accademica di sufficiente prestigio espresse questo concetto in modo esplicito. In quell'anno Heinrich von Helmholtz enunci• il "principio di conservazione dell'energia": ogniqualvolta una certa quantit… di energia sembra scomparire da qualche parte, deve apparirne una quantit… equivalente da qualche altra parte. Questo viene anche chiamato "primo principio della termodinamica" e resta fra i fondamenti della fisica moderna, non messo in crisi n‚ dalla teoria dei quanti n‚ dalla teoria della relativit…. Ora, bench‚ qualsiasi forma di lavoro possa essere convertita interamente in calore, l'inverso non Š vero. Quando si converte il calore in lavoro, parte di esso Š inutilizzabile, e va inevitabilmente sprecato. In una macchina a vapore in funzione il calore del vapore viene convertito in lavoro solo fintantoch‚ la temperatura del vapore scende fino alla temperatura ambiente; dopo di che, nonostante rimanga ancora molto calore nell'acqua fredda formata dal vapore, non Š pi— possibile convertirlo in lavoro. Anche nell'intervallo di temperatura in cui Š possibile ottenere lavoro, parte del calore non si trasforma in lavoro, ma viene speso per riscaldare il motore e l'aria circostante, per superare l'attrito tra il pistone e il cilindro, e cosŤ via. In ogni conversione di energia - per esempio, di energia elettrica in energia luminosa, o di energia magnetica in energia di moto - parte dell'energia va sprecata; non va perduta - il che sarebbe contrario al primo principio - ma viene convertita in calore, che viene dissipato nell'ambiente. La capacit… di un sistema di compiere lavoro Š la sua "energia libera". La frazione dell'energia che va inevitabilmente persa come calore non utilizzabile trova espressione quantitativa nel concetto di "entropia" - un termine usato per la prima volta nel 1850 dal fisico tedesco Rudolf Julius Emmanuel Clausius. Clausius sottoline• il fatto che, in qualsiasi processo che implichi un flusso di energia, vi Š sempre una certa perdita; pertanto l'entropia dell'universo cresce in continuazione. Questo aumento costante dell'entropia costituisce il contenuto del "secondo principio della termodinamica"; Š a questo proposito che talvolta si parla di ®morte termica dell'universoŻ. Fortunatamente la quantit… di energia utilizzabile (fornita quasi interamente dalle stelle, che vanno ®consumandosiŻ a un ritmo vertiginoso) Š talmente grande che ne resta abbastanza per tutti gli usi ancora per molti miliardi di anni. Il calore e il moto molecolare. Una chiara comprensione della natura del calore si ebbe infine allorch‚ si comprese la struttura atomica della materia e ci si rese conto che le molecole che costituiscono un gas sono continuamente in moto, e rimbalzano le une contro le altre nonch‚ contro le pareti del recipiente che le contiene. Il primo che tent• di spiegare in questi termini le propriet… dei gas fu il matematico svizzero Daniel Bernoulli, nel 1738; egli per• era troppo in anticipo sui suoi tempi. A met… del diciannovesimo secolo Maxwell e Boltzmann (vedi capitolo quinto) elaborarono adeguatamente l'aspetto matematico della questione, gettando le basi della "teoria cinetica dei gas (®cineticaŻ deriva dalla parola greca che indica il movimento), che mostrava come il calore fosse equivalente al moto delle molecole. CosŤ la teoria del calorico ricevette il colpo di grazia. Si comprese allora che il calore era un fenomeno vibrazionale, consistente nel movimento delle molecole nei gas e nei liquidi, o nell'oscillazione incessante delle molecole nei solidi. Quando si riscalda un solido in misura tale che l'oscillazione delle molecole acquista l'energia necessaria per spezzare i legami che tengono unite le molecole contigue, il solido fonde e diventa un liquido. Pi— Š forte il legame tra molecole contigue in un solido, maggiore Š la quantit… di calore che occorre per farle vibrare con violenza sufficiente a spezzare tale legame; e pi— alta Š pertanto la temperatura di fusione della sostanza. Nello stato liquido le molecole possono muoversi liberamente l'una rispetto all'altra. Se si riscalda un liquido, i moti delle molecole finiscono per avere energia sufficiente a liberarle completamente, e il liquido bolle. Anche qui, il punto di ebollizione Š pi— alto quando le forze intermolecolari sono pi— intense. Quando si converte un solido in un liquido, tutta l'energia termica viene usata per spezzare i legami intermolecolari: Š per questo che il calore assorbito per fondere il ghiaccio non fa salire la sua temperatura. Lo stesso accade quando si bolle un liquido. Ora possiamo distinguere facilmente tra calore e temperatura. Il calore Š l'energia totale contenuta nei moti molecolari di una data quantit… di materia. La temperatura rappresenta l'energia cinetica media per molecola di una data sostanza. CosŤ, due litri di acqua a 60 gradi C contengono il doppio di calore di un litro di acqua alla stessa temperatura (poich‚ vi Š un numero doppio di molecole in agitazione), ma la temperatura Š uguale nei due volumi di acqua, perch‚ l'energia media del moto molecolare Š la stessa in entrambi i casi. Vi Š dell'energia nella struttura stessa di un composto chimico - cioŠ, nelle forze di legame che vincolano un atomo o una molecola agli atomi o alle molecole vicini. Se si rompono questi legami creandone dei nuovi che richiedono minor energia, l'energia in eccesso far… la sua comparsa sotto forma di calore o di luce, o di entrambi. Talvolta l'energia viene liberata cosŤ velocemente da dar luogo a un'esplosione. E' possibile calcolare l'energia chimica contenuta in una qualsiasi sostanza e prevedere quale quantit… di calore sar… liberata in qualsiasi reazione; per esempio, la combustione del carbone implica la rottura dei legami tra gli atomi di carbonio del carbone stesso e dei legami tra gli atomi delle molecole di ossigeno, con cui si ricombina il carbonio. Ora, l'energia di legame del nuovo composto (anidride carbonica) Š inferiore all'energia dei legami delle sostanze di partenza: questa differenza, che pu• essere misurata, viene liberata sotto forma di calore e di luce. Nel 1876, il fisico americano Josiah Willard Gibbs elabor• la teoria della "termodinamica chimica", e lo fece cosŤ esaurientemente da portare in un sol colpo alla completa maturit… questa branca della scienza che praticamente non esisteva. La lunga memoria in cui Gibbs esponeva le proprie idee era molto al di sopra del livello di comprensione degli altri studiosi americani, e fu pubblicata solo dopo considerevoli esitazioni nelle "Transactions of the Connecticut Academy of Arts and Sciences". Anche in seguito, le sue serrate argomentazioni matematiche e lo stesso carattere riservato di Gibbs contribuirono a far restare pressoch‚ ignorata tutta la materia, fino a quando, nel 1883, Ostwald ne venne a conoscenza, tradusse la memoria in tedesco e proclam• al mondo intero l'importanza dell'opera di Gibbs. Un esempio di tale importanza Š dato dalle equazioni che esprimono le regole semplici, ma rigorose, che governano l'equilibrio tra sostanze diverse che si trovano presenti in pi— di una fase (per esempio, in soluzione e sotto forma solida, oppure come due liquidi immiscibili in presenza di un vapore, e cosŤ via). La "regola delle fasi" Š di vitale importanza per la metallurgia e per molti altri rami della chimica. MASSA ED ENERGIA. Con la scoperta della radioattivit…, avvenuta nel 1896 (vedi capitolo sesto), era sorto un nuovo problema riguardante l'energia. Uranio e torio, due sostanze radioattive, emettevano particelle aventi energie sorprendentemente alte. Inoltre, Marie Curie aveva scoperto che il radio emetteva in continuazione quantit… notevoli di calore: un grammo di radio emetteva pi— di 100 calorie all'ora, e seguitava ad emetterle ora dopo ora, settimana dopo settimana, decennio dopo decennio. La reazione chimica pi— energetica nota non era in grado di produrre un milionesimo dell'energia liberata dal radio. Ci si trovava forse di fronte a una violazione del principio di conservazione dell'energia? Non meno sorprendente era il fatto che questa produzione di energia, a differenza di quanto accade nelle reazioni chimiche, non dipendeva dalla temperatura, ma procedeva alle temperature pi— basse, come quella dell'idrogeno liquido, esattamente come alle temperature ordinarie. Era chiaro che qui entrava in gioco una forma del tutto nuova di energia, completamente diversa da quella chimica. Fortunatamente i fisici non dovettero aspettare molto per la soluzione del mistero. Ancora una volta essa fu fornita da Einstein, con la teoria della relativit… ristretta, nella quale si mostrava in forma matematica come la massa possa essere considerata una forma di energia - una forma molto concentrata: infatti, una piccola quantit… di massa pu• convertirsi in una quantit… immensa di energia. L'equazione di Einstein che mette in relazione massa ed energia Š ormai una delle pi— famose in assoluto. Eccola: e = m c al quadrato Qui "e" rappresenta l'energia (in "erg"), "m" la massa (in grammi) e "c" la velocit… della luce (in centimetri al secondo). Si possono usare anche altre unit… di misura senza mutare sostanzialmente il risultato. Dato che la velocit… della luce Š di 30 miliardi di centimetri al secondo, il valore di c al quadrato Š pari a 900 miliardi di miliardi, o, in altri termini, la conversione di 1 grammo di massa in energia produce 900 miliardi di miliardi di erg. L'"erg" Š una piccola quantit… di energia, difficilmente rapportabile alle esperienze della vita quotidiana, ma possiamo farci un'idea di cosa significhi questo numero pensando che l'energia di 1 grammo di massa sarebbe sufficiente per alimentare una lampadina elettrica da 1000 watt per 2850 anni. Detto in altri termini, la completa conversione in energia di 1 grammo di massa equivarrebbe alla combustione di quasi 2000 tonnellate di benzina. L'equazione di Einstein distruggeva una delle ®sacreŻ leggi di conservazione. La legge di conservazione della massa di Lavoisier aveva stabilito che la materia non si pu• n‚ creare n‚ distruggere. In realt…, in ogni reazione chimica che libera energia, una piccola quantit… di massa si trasforma in energia: se si potessero pesare con estrema precisione i prodotti della reazione, si troverebbe che il loro peso non Š esattamente uguale a quello della materia di partenza. Ma la perdita di massa nelle ordinarie reazioni chimiche Š talmente piccola che nessuna tecnica a disposizione dei chimici del diciannovesimo secolo avrebbe mai potuto rivelarla. A questo punto, invece, i fisici si trovavano di fronte a un fenomeno del tutto diverso: la reazione nucleare che produce la radioattivit…, anzich‚ la reazione chimica di combustione del carbone. Le reazioni nucleari liberano tanta energia che Š possibile misurare il difetto di massa. Postulando la convertibilit… reciproca di massa ed energia, Einstein fuse in un'unica legge le due precedenti, quella di conservazione della massa e quella di conservazione dell'energia, ottenendo la "legge di conservazione della massa-energia". Il primo principio della termodinamica, ben lungi dall'essere stato scosso, aveva conquistato una posizione ancora pi— inattaccabile. La conversione della massa in energia venne confermata sperimentalmente da Aston con lo spettrografo di massa, che poteva misurare la massa dei nuclei atomici con grande precisione in base alla loro deflessione per effetto di un campo magnetico. Nel 1925, Aston fece uso di uno strumento ulteriormente perfezionato per mostrare che le masse dei vari nuclei non sono esattamente multiple delle masse dei neutroni e dei protoni che li compongono. Soffermiamoci per un momento sulle masse di questi neutroni e protoni. Per un secolo, le masse degli atomi e delle particelle subatomiche in generale erano state misurate ponendo, per convenzione, il peso atomico dell'ossigeno uguale esattamente a 16,00000 (vedi capitolo sesto). Nel 1929, per•, Giauque dimostr• che l'ossigeno Š costituito da tre isotopi ossigeno 16, ossigeno 17 e ossigeno 18 - e che il peso atomico dell'ossigeno Š la media ponderata dei numeri di massa di questi tre isotopi. Certamente, l'ossigeno 16 Š di gran lunga il pi— comune dei tre, dato che costituisce il 99,759 per cento di tutti gli atomi di ossigeno. CosŤ, se il peso atomico complessivo dell'ossigeno Š 16,00000, l'isotopo ossigeno 16 ha un numero di massa che Š "quasi" uguale a 16. (Sono le masse delle piccole quantit… di ossigeno 17 e ossigeno 18 a portare a 16 tale valore.) I chimici, per una generazione dopo tale scoperta, non trovarono niente di inquietante in questo fatto, anzi mantennero il vecchio valore di riferimento per quelli che furono poi chiamati i "pesi atomici chimici". Ma i fisici reagirono in modo diverso. Essi preferirono porre la massa dell'isotopo ossigeno 16 esattamente pari a 16,00000 e determinare su tale base tutte le altre masse, stabilendo cosŤ i "pesi atomici fisici". Ponendo l'ossigeno 16 pari a 16 unit… di massa, il peso atomico dell'ossigeno naturale, con le sue tracce di isotopi pi— pesanti, diventa 16,0044. In generale, i pesi atomici fisici di tutti gli elementi sono superiori dello 0,027 per cento ai corrispondenti pesi atomici chimici. Nel 1961, i fisici e i chimici raggiunsero un compromesso, stabilendo per convenzione di determinare i pesi atomici ponendo la massa dell'isotopo carbonio 12 pari a 12,00000; in tal modo la base dei pesi atomici era un numero di massa caratteristico, ed essi erano fondati nel modo pi— solido possibile. In pi—, questa base rendeva i pesi atomici quasi esattamente uguali a quelli del vecchio sistema. CosŤ, ponendo il carbonio 12 pari a 12 unit… di massa, il peso atomico dell'ossigeno diventava 15,9994. Bene, cominciamo allora dall'atomo del carbonio 12, con la sua massa uguale a 12,00000: il suo nucleo contiene 6 protoni e 6 neutroni. Da misurazioni fatte con lo spettrografo di massa risulta evidente che la massa del protone (nel sistema basato sul carbonio 12) Š 1,007825 e quella del neutrone 1,008665. Sei protoni, quindi, dovrebbero avere massa 6,046950 e sei neutroni 6,051990; insieme, i dodici nucleoni dovrebbero avere una massa pari a 12,098940. Ma la massa del carbonio 12 Š 12,00000. Cosa Š accaduto del mancante 0,098940? Questa massa che scompare Š il "difetto di massa". Il difetto di massa diviso per il numero di massa d… il difetto di massa per nucleone, o "frazione di impacchettamento". La massa non Š realmente scomparsa, ma si Š convertita in energia, secondo l'equazione di Einstein; il difetto di massa rappresenta quindi anche l'"energia di legame del nucleo". Per scindere un nucleo nei singoli protoni e neutroni occorre una quantit… di energia uguale all'energia di legame, dato che si deve formare una quantit… di massa equivalente a tale energia. Aston determin• la frazione di impacchettamento di molti nuclei e trov• che essa aumentava piuttosto rapidamente procedendo dall'idrogeno fino agli elementi vicini al ferro, per poi ridiscendere, piuttosto lentamente, per il resto della tavola periodica. In altri termini, l'energia di legame per nucleone Š pi— elevata per gli elementi centrali della tavola periodica. Pertanto, la conversione di un elemento situato a uno degli estremi della tavola in un altro elemento pi— vicino al suo centro doveva liberare energia. Esaminiamo l'esempio dell'uranio 238. Questo nucleo decade attraverso una serie di disintegrazioni fino a diventare piombo 206. Durante tale processo emette otto particelle alfa. (Emette anche particelle beta, ma queste sono talmente leggere che si possono trascurare.) Ora la massa del piombo 206 Š 205,9745 e quella delle otto particelle alfa ammonta complessivamente a 32,0208; insieme tutti i prodotti della disintegrazione hanno una massa pari a 237,9953. Ma la massa dell'uranio 238, da cui provengono, Š 238,0506. La differenza, o perdita di massa, Š 0,0553. Tale perdita di massa Š sufficiente a spiegare l'energia liberata nei successivi decadimenti dell'uranio. Quando l'uranio si disintegra dando origine ad atomi ancora pi— piccoli, come accade nella fissione, viene liberata molta pi— energia. E quando l'idrogeno viene convertito in elio, come accade nelle stelle, vi Š la perdita di una frazione della massa ancora superiore, e, in corrispondenza, uno sviluppo di energia pi— abbondante. I fisici cominciarono a concepire l'equivalenza massa-energia come una sorta di partita doppia molto rigorosa. Per esempio, quando nel 1934 fu scoperto il positrone, la sua annichilazione con un elettrone produsse una coppia di raggi gamma, la cui energia era esattamente uguale alla massa delle due particelle. Inoltre, come mostr• per primo Blackett, si poteva creare della massa partendo da una quantit… adeguata di energia. Un raggio gamma di energia appropriata, in certe circostanze, spariva originando una "coppia elettrone-positrone". Quantit… maggiori di energia, fornite dalle particelle dei raggi cosmici o da quelle accelerate dai protosincrotroni (vedi capitolo settimo), potevano effettuare la creazione di particelle di massa maggiore, come mesoni e antiprotoni. Non desta quindi meraviglia il fatto che i fisici, non tornando i conti della partita doppia, come nel caso dell'emissione di particelle beta aventi energia inferiore a quella prevista, abbiano inventato il neutrino per far quadrare i conti, piuttosto che modificare l'equazione di Einstein (vedi capitolo settimo). Un'ulteriore dimostrazione (se ce ne fosse stato bisogno) della conversione della massa in energia la diedero in modo pi— che convincente le bombe nucleari. ONDE E PARTICELLE. Negli anni venti il dualismo regnava sovrano nella fisica. Planck aveva dimostrato che la radiazione ha un aspetto corpuscolare oltre a quello ondulatorio. Einstein aveva a sua volta dimostrato che massa ed energia sono come due facce della stessa medaglia, e che spazio e tempo sono inseparabili. I fisici cominciarono ad andare in cerca di altri dualismi. Nel 1923, il fisico francese Louis Victor de Broglie riuscŤ a dimostrare che, proprio come la radiazione presentava caratteristiche corpuscolari, cosŤ le particelle materiali, per esempio gli elettroni, potevano presentare caratteristiche ondulatorie. Le onde associate alle particelle, secondo le sue previsioni, dovevano avere una lunghezza d'onda inversamente proporzionale al prodotto della massa per la velocit… (cioŠ alla "quantit… di moto") della particella. La lunghezza d'onda associata agli elettroni di modesta velocit… doveva trovarsi, secondo i calcoli di de Broglie, nella regione dei raggi X. Nel 1927, anche questa sorprendente previsione trov• conferma. Clinton Joseph Davisson e Lester Halbert Germer dei Bell Telephone Laboratories erano impegnati a bombardare del nichel metallico con elettroni; in conseguenza di un incidente sperimentale che aveva reso necessario riscaldare il nichel molto a lungo, il metallo si trovava sotto forma di grandi cristalli, che erano l'ideale per studiare la diffrazione, poich‚ la distanza tra gli atomi di un cristallo e dello stesso ordine di grandezza delle cortissime lunghezze d'onda degli elettroni. Infatti gli elettroni, attraversando questi cristalli, non si comportarono come particelle, ma come onde. La pellicola collocata dietro al nichel presentava delle figure d'interferenza, cioŠ delle frange alternate chiare e scure, proprio come se ad attraversare il nichel fossero stati dei raggi X e non degli elettroni. Le figure d'interferenza erano state proprio il mezzo usato da Young pi— di un secolo prima per dimostrare la natura ondulatoria della luce; ora dimostravano la natura ondulatoria degli elettroni. Dalle misurazioni delle frange d'interferenza fu possibile calcolare la lunghezza d'onda associata all'elettrone, che risult• pari a 1,65 Ź (unit… angstrom), quasi esattamente quella che avrebbe dovuto essere secondo i calcoli di de Broglie. Nello stesso anno, anche il fisico inglese George Paget Thomson, lavorando indipendentemente e usando metodi diversi, dimostr• che gli elettroni hanno propriet… ondulatorie. De Broglie ricevette il premio Nobel per la fisica nel 1929, mentre Davisson e Thomson condivisero quello del 1937. Microscopia elettronica. Questa scoperta totalmente inattesa di un nuovo tipo di dualismo fu quasi subito utilizzata nell'ambito della microscopia. I microscopi ottici ordinari, come ho gi… ricordato, cessano di essere utili a un dato punto, perch‚ esiste un limite alle dimensioni degli oggetti di cui le onde luminose possono dare un'immagine nettamente definita. Via via che gli oggetti sono pi— piccoli, si ottengono immagini pi— confuse, perch‚ le onde luminose riescono ad aggirarli - un fenomeno segnalato per la prima volta dal fisico tedesco Ernst Karl Abbe nel 1878. Il rimedio consiste naturalmente nel cercare di utilizzare lunghezze d'onda minori, capaci di dare una buona risoluzione anche con oggetti pi— piccoli. I normali microscopi ottici sono in grado di distinguere due punti distanti 1 su 5000 di millimetro, mentre i microscopi a luce ultravioletta possono arrivare a risolvere punti distanti 1 su 10 mila di millimetro. I raggi X darebbero risultati ancora migliori, ma per essi non esistono lenti. E' possibile risolvere questo problema, tuttavia, usando le onde associate agli elettroni, che hanno all'incirca la stessa lunghezza d'onda dei raggi X, ma sono pi— facili da maneggiare. Soprattutto, un campo magnetico pu• deflettere i raggi elettronici, perch‚ le onde sono associate a una particella carica. Esattamente come l'occhio pu• vedere l'immagine ingrandita di un oggetto se si fanno passare i raggi luminosi attraverso lenti adatte, cosŤ una lastra fotografica pu• registrare un'immagine ingrandita di un oggetto, se le onde associate agli elettroni vengono trattate appropriatamente con dei campi magnetici. Dato poi che le lunghezze d'onda associate agli elettroni sono assai pi— corte di quelle della luce ordinaria, la risoluzione che si pu• ottenere con un "microscopio elettronico" a elevato ingrandimento Š molto superiore a quella ottenibile con un microscopio ordinario. Un rudimentale microscopio elettronico, capace di 400 ingrandimenti, venne realizzato in Germania nel 1932 da Ernst Ruska e Max Knoll, ma il primo strumento utilizzabile fu costruito nel 1937 all'Universit… di Toronto da James Hillier e Albert F. Prebus. Il loro apparecchio poteva ingrandire un oggetto 7000 volte, mentre i migliori microscopi ottici superano i 2000 ingrandimenti circa. Nel 1939, i microscopi elettronici erano ormai in commercio; infine Hillier e altri svilupparono microscopi elettronici capaci di ingrandire fino a 2 milioni di volte. Mentre un microscopio elettronico ordinario focalizza gli elettroni sul bersaglio facendoglieli passare attraverso, in un altro tipo di microscopio il fascio di elettroni si limita a sfiorare rapidamente il bersaglio, eseguendone la scansione un po' come fa il pennello elettronico nel cinescopio di un apparecchio televisivo. L'idea del "microscopio elettronico a scansione" era gi… stata suggerita nel 1938 da Knoll, ma la sua realizzazione pratica avvenne solo attorno al 1970 ad opera del fisico angloamericano Albert Victor Crewe. Il microscopio elettronico a scansione danneggia meno l'oggetto da esaminare, conferisce agli oggetti un maggiore rilievo tridimensionale, fornendo quindi pi— informazioni, e pu• perfino mostrare la posizione di singoli atomi di grandi dimensioni. Gli elettroni come onde. Non dovrebbe sorprendere il fatto che il dualismo onda-particella valga anche inversamente, cioŠ che fenomeni solitamente considerati di natura ondulatoria possano presentare anche propriet… tipiche delle particelle. Gi… Planck ed Einstein avevano mostrato che la radiazione Š fatta di quanti, i quali sono, in un certo senso, delle particelle. Nel 1923, Compton, il fisico che aveva dimostrato che i raggi cosmici sono costituiti da particelle (vedi capitolo settimo), mostr• che i quanti di radiazione presentavano alcune concrete propriet… delle particelle. Egli infatti verific• che i raggi X, quando vengono diffusi dalla materia, perdono energia, aumentando la loro lunghezza d'onda. Questo effetto Š appunto quanto c'Š da aspettarsi da una ®particellaŻ di radiazione che urti una particella di materia: la particella materiale viene spinta in avanti e acquista energia, mentre il raggio X cambia direzione e perde energia. E' questo l'"effetto Compton", che contribuŤ a stabilire l'esistenza del dualismo onda- particella. L'esistenza di onde associate alla materia ebbe anche conseguenze teoriche importanti, aiutando a sciogliere alcuni enigmi relativi alla struttura dell'atomo. Nel 1913, Niels Bohr aveva descritto l'atomo di idrogeno, alla luce della nuova teoria dei quanti, come formato da un nucleo centrale intorno a cui un elettrone poteva girare in una qualsiasi fra molte orbite. Queste orbite si trovano in posizioni fisse; se un elettrone scende da un'orbita pi— esterna su una pi— interna, perde energia, emettendola sotto forma di un quanto di lunghezza d'onda definita. Per passare da un'orbita pi— interna a una pi— esterna, un elettrone dovrebbe assorbire un quanto, che abbia per• energia e lunghezza d'onda definite, cioŠ proprio quelle capaci di farlo spostare nella misura voluta. Per questo l'idrogeno pu• assorbire o emettere solo radiazione di certe lunghezze d'onda e il suo spettro Š contraddistinto da righe caratteristiche. Il modello proposto da Bohr, che nel decennio successivo era stato reso gradualmente pi— complesso, soprattutto ad opera del fisico tedesco Arnold Johannes Wilhelm Sommerfeld, che aveva introdotto anche orbite ellittiche, riusciva a spiegare assai bene molti fatti relativi agli spettri dei vari elementi. Per la sua teoria Bohr ricevette il premio Nobel per la fisica nel 1922. I fisici tedeschi James Franck e Gustav Ludwig Hertz (quest'ultimo un nipote di Heinrich Hertz), i cui studi sulle collisioni tra atomi e elettroni avevano fornito una base sperimentale alla teoria di Bohr, condivisero il premio Nobel per la fisica del 1925. Bohr non era per• in grado di spiegare perch‚ le orbite avessero proprio quelle determinate posizioni obbligate. Egli non aveva fatto altro che scegliere le orbite che davano i risultati corretti per quanto riguardava l'assorbimento e l'emissione, cioŠ che portavano alle lunghezze d'onda effettivamente osservate. Nel 1926, il fisico tedesco Erwin Schr”dinger decise di riconsiderare la struttura dell'atomo alla luce della teoria di de Broglie sulla natura ondulatoria delle particelle. Considerando l'elettrone come un'onda, arriv• alla conclusione che l'elettrone non gira intorno al nucleo come un pianeta gira intorno al sole, ma costituisce un'onda che si incurva tutto intorno al nucleo, in modo da essere, per cosŤ dire, allo stesso tempo in tutte le parti della propria orbita. Risult• che, in base alla lunghezza d'onda prevista per l'elettrone da de Broglie, nelle orbite indicate da Bohr entrava esattamente un numero intero di onde elettroniche. Su orbite diverse da quelle di Bohr le onde non sarebbero state un numero intero di volte, ma sarebbero risultate "sfasate"; pertanto tali orbite non avrebbero potuto essere stabili. Schr”dinger elabor• una descrizione matematica dell'atomo, che fu chiamata "meccanica ondulatoria" o "meccanica quantistica"; essa si dimostr• un modo di concepire l'atomo pi— soddisfacente di quanto non fosse il sistema di Bohr. Schr”dinger condivise il premio Nobel del 1933 con Dirac, l'ideatore della teoria delle antiparticelle (vedi capitolo settimo), che aveva anch'egli contribuito allo sviluppo di questa nuova descrizione dell'atomo. Il fisico tedesco Max Born, che diede ulteriori contributi allo sviluppo matematico della meccanica quantistica, ricevette (insieme ad altri) il premio Nobel per la fisica nel 1954. Il principio di indeterminazione. Nel frattempo l'elettrone era diventato una ®particellaŻ piuttosto indefinita - e le cose in seguito non fecero che peggiorare. Werner Heisenberg, in Germania, sollev• un problema profondo, che proiettava le particelle, anzi la stessa fisica, quasi nel regno dell'inconoscibile. Heisenberg aveva proposto un suo modello dell'atomo, in cui abbandonava ogni tentativo di descriverlo come composto di particelle o di onde. Egli era giunto alla conclusione che ogni tentativo di tracciare un'analogia tra la struttura atomica e la struttura del mondo che ci circonda fosse destinato a fallire; invece descrisse i livelli di energia, o orbite degli elettroni, in termini puramente numerici, rinunciando a qualsiasi immagine intuitiva. Poich‚ a questo scopo era ricorso a uno strumento matematico chiamato "matrice", la sua teoria venne chiamata "meccanica delle matrici". Heisenberg ricevette il premio Nobel per la fisica nel 1932 per i suoi contributi alla meccanica quantistica, ma la sua meccanica delle matrici ebbe meno diffusione presso i fisici della meccanica ondulatoria di Schr”dinger, perch‚ quest'ultima sembrava altrettanto utile quanto le astrazioni di Heisenberg, e perfino per i fisici Š difficile abbandonare il tentativo di descrivere con immagini ci• di cui stanno parlando. Nel 1944 sembr• che i fisici avessero fatto la scelta giusta, perch‚ il matematico americano di origine ungherese John von Neumann espose degli argomenti che sembravano dimostrare che la meccanica delle matrici e la meccanica ondulatoria sono equivalenti dal punto di vista matematico: qualsiasi cosa sia dimostrata dall'una pu• essere dimostrata anche dall'altra. Allora perch‚ non scegliere la versione meno astratta? Dopo aver introdotto la meccanica delle matrici (facciamo un salto indietro nel tempo), Heisenberg pass• a considerare il problema di descrivere la posizione di una particella. Come si pu• determinare dove si trova una particella? La risposta ovvia Š: guardandola. Bene, immaginiamo un microscopio che renda visibile un elettrone: per vederlo, dobbiamo inviare su di esso un raggio luminoso, o un qualche tipo appropriato di radiazione; ma un elettrone Š talmente piccolo che un singolo fotone che lo colpisse lo farebbe spostare, cambiando la sua posizione. Nell'atto stesso di misurare la sua posizione, noi l'avremmo cambiata. Si tratta di un fenomeno che avviene anche nella vita ordinaria. Quando misuriamo la pressione di un pneumatico con un manometro, facciamo uscire un po' d'aria, modificando leggermente la pressione nell'atto stesso in cui la misuriamo. Analogamente, quando poniamo un termometro in una vasca da bagno di acqua calda per misurarne la temperatura, esso assorbe del calore e pertanto modifica, sia pure di poco, la temperatura. Uno strumento che misura la corrente elettrica sottrae un po' di corrente per spostare l'indice sul quadrante. Lo stesso accade in qualsiasi misurazione che facciamo. Tuttavia, in tutte le misure ordinarie, l'alterazione prodotta in ci• che stiamo misurando Š cosŤ piccola che possiamo trascurarla. Ma quando vogliamo osservare un elettrone, la situazione Š del tutto diversa. Ora il nostro strumento di misura ha dimensioni come minimo uguali a quelle dell'oggetto che stiamo misurando; non esiste, infatti, un'entit… utilizzabile per la misura che sia pi— piccola dell'elettrone. Di conseguenza, la nostra misurazione deve inevitabilmente avere sull'oggetto misurato un effetto che non Š pi— trascurabile, ma anzi Š decisivo. Potremmo fermare l'elettrone, determinandone cosŤ la posizione in un dato istante; in tal caso, per•, non potremmo conoscere il suo moto, ossia la sua velocit…. Oppure, potremmo misurare la velocit…, ma allora non saremmo pi— in grado di stabilire la posizione dell'elettrone in un momento dato. Heisenberg dimostr• che non Š possibile trovare un metodo per determinare rigorosamente la posizione di una particella subatomica senza che resti una totale incertezza sul suo moto. Reciprocamente, non Š possibile determinare con precisione il moto di una particella senza che resti una notevole incertezza sulla sua posizione. Calcolare entrambe esattamente, nello stesso istante, Š impossibile. Se Heisenberg aveva ragione, allora anche allo zero assoluto non poteva esserci assenza totale di energia. Se l'energia scendesse a zero e le particelle restassero completamente prive di moto, resterebbe da determinare solo la posizione, dato che la velocit… potrebbe essere considerata pari a zero. E' quindi prevedibile che debba sussistere una "energia di punto zero", che mantenga le particelle in moto e, per cosŤ dire, ®incerteŻ, anche allo zero assoluto. E' questa ineliminabile energia di punto zero a mantenere liquido l'elio anche allo zero assoluto (vedi capitolo sesto). Nel 1930, Einstein dimostr• che il principio di indeterminazione, che stabiliva l'impossibilit… di ridurre l'incertezza della posizione senza aumentare quella della quantit… di moto, implicava anche l'impossibilit… di ridurre l'incertezza nella misura dell'energia senza aumentare l'incertezza circa l'istante in cui avviene la misurazione. Einstein pensava di poter usare questa idea come una leva per confutare il principio di indeterminazione, ma Bohr dimostr• che il tentativo di Einstein era sbagliato. In realt… la versione del principio di indeterminazione data da Einstein si dimostr• molto utile, perch‚ significava che nei processi subatomici la legge di conservazione dell'energia pu• essere violata per tempi brevissimi, purch‚ il bilancio energetico venga riportato in pareggio alla fine di questi periodi: quanto maggiore Š lo scarto dalla conservazione, tanto minore Š l'intervallo di tempo consentito. (Yukawa us• questo concetto per elaborare la sua teoria dei pioni; vedi capitolo settimo.) Era anche possibile spiegare alcuni fenomeni subatomici, assumendo che, a volte, le particelle vengano prodotte dal nulla (sfidando cosŤ la legge di conservazione), ma che esse cessino di esistere prima del tempo necessario perch‚ siano rivelate; si tratterebbe dunque di "particelle virtuali". La teoria delle particelle virtuali venne elaborata alla fine degli anni quaranta da tre persone: i fisici americani Julian Schwinger e Richard Phillips Feynman e il fisico giapponese Sin-itiro Tomonaga, ai quali and• il premio Nobel per la fisica del 1965. Dopo il 1976 Š stata avanzata la congettura che l'universo abbia avuto inizio sotto forma di una minuscola particella virtuale, di grande massa, che avrebbe subŤto un'espansione estremamente rapida senza scomparire. Secondo questa ipotesi, l'universo si sarebbe formato dal nulla e possiamo anche chiederci se non esista un numero infinito di universi che si formano (e hanno poi fine) in un volume infinito di nulla. Il principio di indeterminazione ha avuto una profonda influenza sul pensiero dei fisici e dei filosofi; esso ha un rapporto diretto con il problema filosofico della causalit… (cioŠ con la relazione tra causa ed effetto). Le sue implicazioni per la scienza, per•, non sono quelle credute comunemente. Capita spesso di leggere che il principio di indeterminazione toglie qualsiasi certezza circa la natura e mostra che la scienza, dopo tutto, non sa e non potr… mai sapere cosa accade realmente, che il sapere scientifico Š alla merc‚ dei capricci imprevedibili di un universo in cui l'effetto non necessariamente segue la causa. Sia o no valida tale interpretazione dal punto di vista della filosofia, il principio di indeterminazione non ha in alcun modo mutato l'atteggiamento degli scienziati verso la ricerca scientifica. Anche se, per esempio, il comportamento delle singole molecole in un gas non pu• essere previsto con certezza, ciononostante le molecole, in media, obbediscono a certe leggi e si pu• prevedere il loro comportamento su basi statistiche, esattamente come le compagnie di assicurazioni possono calcolare delle tabelle di mortalit… affidabili anche se Š impossibile prevedere quando morir… un dato individuo in particolare. Anzi, nella maggior parte delle osservazioni scientifiche, l'indeterminazione Š cosŤ piccola in confronto all'ordine di grandezza delle misure implicate che la si pu• trascurare a tutti gli effetti pratici. Si possono determinare simultaneamente tanto la posizione quanto la velocit… di una stella, di un pianeta, di una palla da biliardo, o anche di un granello di sabbia, con precisione del tutto soddisfacente. Quanto all'indeterminazione tra le stesse particelle subatomiche, Š qualcosa che non ostacola, ma anzi aiuta, i fisici. Essa Š stata usata per spiegare alcuni aspetti della radioattivit… e dell'assorbimento delle particelle subatomiche da parte del nucleo, come pure molti altri eventi subatomici, pi— ragionevolmente di quanto sarebbe stato possibile senza il principio di indeterminazione. Il principio di indeterminazione significa che l'universo Š pi— complesso di quanto non si pensasse, ma non che esso Š irrazionale. Capitolo 9. LA MACCHINA. FUOCO E VAPORE. Fin qui mi sono occupato quasi esclusivamente della scienza "pura", cioŠ della scienza come spiegazione dell'universo che ci circonda. Durante tutto il corso della storia, per•, gli esseri umani hanno utilizzato le forze della natura per accrescere la propria sicurezza, il proprio benessere e il proprio piacere. Dapprima si avvalsero dei processi naturali senza comprendere le leggi che li governano, ma gradualmente arrivarono a dominarli, e ci• attraverso l'osservazione attenta, il buon senso e il ricorso al ®metodo del tentativo e dell'erroreŻ. Questa utilizzazione della natura per fini umani costituisce la "tecnologia", e precede la scienza. L'inizio del grande sviluppo della scienza, tuttavia, rese possibile una continua accelerazione del progresso della tecnologia. Nei tempi moderni la scienza e la tecnologia sono cresciute talmente intrecciate (la scienza facendo progredire la tecnologia grazie alla miglior conoscenza delle leggi naturali, e la tecnologia facendo progredire la scienza con il mettere a disposizione degli scienziati sempre nuovi strumenti e apparecchi), che non Š pi— possibile separarle. Tecnologia primitiva. Se risaliamo alle origini, dobbiamo ricordare che, anche se il primo principio della termodinamica dice che l'energia non pu• essere creata dal nulla, non vi Š per• alcuna legge che vieti di trasformare una forma di energia in un'altra. Tutta la nostra civilt… Š stata costruita sull'individuazione di nuove fonti di energia e sul loro sfruttamento sempre pi— efficiente e sofisticato. In effetti, la scoperta che da sola ha pi— inciso sulla storia umana Š stata quella della possibilit… di convertire l'energia chimica di un combustibile, come il legno, in calore e luce. Fu forse mezzo milione di anni fa che i nostri antenati ominidi ®scoprironoŻ il fuoco; ci• avveniva assai prima che comparisse l'"Homo sapiens", cioŠ l'uomo moderno. Certamente anche prima di allora gli ominidi si erano imbattuti in incendi di boscaglie e foreste appiccati dai fulmini, e probabilmente si erano dati alla fuga. Ma la scoperta delle virt— del fuoco venne solo quando la curiosit… divenne pi— forte della paura. Deve esserci stato un momento in cui un essere primitivo - forse una donna, o pi— probabilmente un bambino - fu attratto dai residui in lenta combustione di uno di questi incendi e cominci• a divertirsi giocando con le braci, alimentandole con qualche ramoscello e osservando i guizzi delle fiamme. Senza dubbio qualche adulto sar… intervenuto a por fine al gioco pericoloso, finch‚ un giorno qualcuno, dotato di maggior immaginazione, deve aver compreso quali vantaggi si potevano avere domando il fuoco e trasformando un gioco infantile in un'attivit… utile agli adulti. La fiamma poteva illuminare l'oscurit… e riscaldare. Poteva tener lontani i predatori; infine qualcuno deve aver scoperto che il suo calore rendeva pi— tenero il cibo e ne migliorava il sapore. (Il calore, inoltre, uccide i microbi e i parassiti presenti nel cibo, cosa che per• rimase certamente ignota all'uomo preistorico.) Per centinaia di migliaia di anni, gli esseri umani, per usare il fuoco, furono costretti a tenerlo acceso permanentemente. Se esso si spegneva accidentalmente (qualcosa di simile ai blackout dei nostri tempi), si era costretti a recarsi da un'altra trib— per procurarselo, o ad attendere che un fulmine incendiasse la foresta. E' stato solo in tempi relativamente recenti che gli esseri umani hanno imparato ad accendere il fuoco a piacimento; solo allora il fuoco fu veramente ®addomesticatoŻ. Fu l'"Homo sapiens" a compiere questa impresa; ci• avveniva in epoca preistorica, ma esattamente quando, esattamente dove ed esattamente come non lo sappiamo e non lo sapremo forse mai. Con l'inizio della civilizzazione il fuoco fu usato, oltre che per illuminare, riscaldare, cuocere e fornire protezione, anche per ricavare i metalli dai minerali in cui erano contenuti e poi per lavorarli, per cuocere vasellame e mattoni e talora per fabbricare il vetro. Altri importanti sviluppi segnarono la nascita della civilt…. Verso il 9000 avanti Cristo gli esseri umani cominciarono a coltivare piante e addomesticare animali: nacquero cosŤ l'agricoltura e la pastorizia, che accrebbero le risorse alimentari e fornirono la fonte diretta di energia costituita dagli animali. I buoi, gli asini, i cammelli e alla fine anche i cavalli (per non parlare delle renne, degli yak, dei bufali indiani, dei lama e degli elefanti, utilizzati nei pi— svariati angoli del globo) potevano, con la loro forte muscolatura, sbrigare i lavori essenziali, nutrendosi di alimenti troppo grossolani per gli uomini. In un'epoca imprecisata, verso il 3500 avanti Cristo, fu inventata la ruota (forse, all'inizio, una ruota da vasaio per foggiare il vasellame); nel giro di qualche secolo, certo entro il 3000 avanti Cristo, si applicarono le ruote alle slitte, il che consentŤ di far rotolare i carichi, anzich‚ trascinarli. La ruota, pur non essendo essa stessa una fonte diretta di energia, rese possibile un risparmio energetico attraverso la riduzione dell'attrito. All'incirca nella stessa epoca si cominciarono a usare primitive zattere e piroghe, che consentivano di utilizzare l'energia della corrente dei fiumi per il trasporto di carichi. Forse attorno al 2000 avanti Cristo si cominciarono a usare le vele per sfruttare il vento; in tal modo i moti naturali dell'aria potevano rendere pi— rapido il trasporto, o addirittura consentire di andare contro corrente (se questa non era troppo forte). Nel 1000 avanti Cristo i fenici solcavano in lungo e in largo con le loro navi il mare Mediterraneo. Attorno al 50 avanti Cristo, i romani cominciarono a far uso delle ruote idrauliche. Una corrente veloce faceva girare una ruota, e questa a sua volta ne metteva in rotazione altre, che potevano effettuare dei lavori, come macinare, frantumare minerali, pompare acqua, e cosŤ via. Sempre in quell'epoca cominciarono a entrare nell'uso i mulini a vento, che utilizzavano l'aria, anzich‚ l'acqua, per far girare la ruota. (Mentre una corrente veloce non si trova facilmente, il vento Š presente quasi ovunque.) Nel Medioevo i mulini a vento erano un'importante fonte di energia nell'Europa occidentale; fu ancora nel Medioevo che si cominci• a bruciare nelle fornaci metallurgiche la pietra nera chiamata carbone, a utilizzare l'energia magnetica nella bussola per la navigazione (il che contribuŤ poi a rendere possibili i grandi viaggi di esplorazione) e a usare l'energia chimica a fini bellici. Il primo impiego distruttivo dell'energia chimica (a parte la tecnica assai semplice delle frecce incendiarie) sembra essersi verificato all'incirca nel 670 dopo Cristo, quando un alchimista siriaco, Callinico, avrebbe inventato il "fuoco greco", una rudimentale bomba incendiaria composta di zolfo e nafta; si dice che fu essa a salvare Costantinopoli dal primo assedio dei musulmani, nel 673. La polvere da sparo fece la sua comparsa in Europa nel tredicesimo secolo: Ruggero Bacone la descrisse verso il 1280, ma in Asia era gi… nota da secoli; forse erano stati proprio gli invasori mongoli a introdurla in Europa, dopo il 1240. Comunque, l'uso della polvere da sparo per l'artiglieria inizi• in Europa nel quattordicesimo secolo, e si pensa che i cannoni abbiano fatto la loro comparsa per la prima volta alla battaglia di Cr‚cy, nel 1346. Tra tutte le invenzioni del Medioevo, la pi— importante Š quella attribuita al tedesco Johann Gutenberg. Verso il 1450, questi introdusse i caratteri mobili da stampa, che dovevano diventare una potente forza innovatrice della societ… umana. Gutenberg invent• anche l'inchiostro da stampa, realizzando una sospensione di nerofumo in olio di lino anzich‚ in acqua, come si faceva prima. Insieme alla sostituzione della pergamena con la carta (che, secondo la tradizione, era stata inventata da un eunuco cinese, Ts'ai Lun, verso il 50 dopo Cristo, e aveva raggiunto l'Europa, portata dagli arabi, nel tredicesimo secolo), queste invenzioni consentirono la produzione e la diffusione su vasta scala dei libri e di altri materiali scritti. Nessun'altra invenzione, prima dell'epoca moderna, si diffuse cosŤ rapidamente: nel giro di una generazione, furono stampati qualcosa come 40 mila libri. Il sapere umano non era pi— sepolto nelle raccolte di manoscritti presso le corti, ma diventava accessibile nelle biblioteche, a disposizione di tutti coloro che sapevano leggere. La carta stampata cominci• a creare l'opinione pubblica e a permetterle di esprimersi. (L'esistenza della stampa fu un fattore decisivo per il successo della ribellione del 1517 di Martin Lutero contro il papato, ribellione che altrimenti non sarebbe forse andata al di l… di una polemica personale tra monaci.) E fu ancora la stampa a creare una delle condizioni essenziali perch‚ la scienza diventasse come oggi la conosciamo. Questa condizione indispensabile Š la comunicazione delle idee su vasta scala. Prima dell'invenzione della stampa la scienza era consistita in comunicazioni personali tra pochi appassionati del sapere; ora diventava uno dei pi— importanti campi dell'attivit… umana, destinato ad arruolare nelle proprie file un numero crescente di ricercatori, fino a formare una "comunit… scientifica" mondiale; la diffusione consentita dalla stampa stimolava inoltre la verifica pronta e critica delle teorie e apriva incessantemente nuove frontiere. La macchina a vapore. La svolta decisiva nell'utilizzazione dell'energia si verific• alla fine del diciassettesimo secolo, anche se nell'antichit… c'erano stati alcuni precedenti di minor importanza. L'inventore greco Erone di Alessandria, vissuto durante i primi secoli della nostra era (non siamo in grado di precisare con sicurezza neppure il secolo), aveva costruito diversi congegni azionati dal vapore. Egli utilizz• la spinta esercitata dall'espansione del vapore per far spalancare le porte dei templi, per far girare delle sfere e cosŤ via. Ma il mondo antico, ormai in declino, non fu in grado di sfruttare queste precoci invenzioni. Poi, pi— di quindici secoli dopo, si present• una seconda opportunit… all'interno di una nuova societ…, che stava vivendo una vigorosa espansione. Il bisogno sempre pi— acuto di pompare verso l'alto l'acqua delle miniere, scavate a profondit… sempre maggiori, fornŤ lo stimolo. La vecchia pompa a mano (vedi capitolo quinto) sollevava l'acqua sfruttando il vuoto; nel corso del diciassettesimo secolo, gli uomini ebbero occasione di apprezzare sempre pi— la grande forza del vuoto, o, per meglio dire, la forza della pressione dell'aria chiamata in causa dalla presenza del vuoto. Nel 1650, per esempio, il fisico tedesco Otto von Guericke (che era anche borgomastro della citt… di Magdeburgo) invent• una pompa pneumatica azionata dalla forza muscolare. Egli unŤ due emisferi metallici dotati di flange ed estrasse l'aria dal loro interno attraverso una valvola situata in uno di essi. Via via che la pressione all'interno diminuiva, quella esterna, non pi— completamente controbilanciata, comprimeva sempre di pi— l'uno contro l'altro i due emisferi. Alla fine, neppure un tiro a 8 cavalli da ciascuna parte riuscŤ a staccare i due emisferi; quando, per•, si fece entrare nuovamente l'aria, essi si staccarono da soli. L'esperimento venne ripetuto di fronte a personaggi importanti, tra cui una volta lo stesso imperatore di Germania, ed ebbe grande risonanza. A questo punto, molti inventori pensarono: perch‚ non sostituire la forza muscolare con il vapore, per ottenere il vuoto? Supponiamo di riempire un cilindro (o un analogo recipiente) di acqua e di riscaldarla fino al punto di ebollizione. Si former… del vapore acqueo, che scaccer… l'acqua dal recipiente. Raffreddando quest'ultimo (per esempio, gettando dell'acqua fredda sulla sua superficie esterna), il vapore presente si condenser…, formando alcune gocce d'acqua e lasciando dello spazio vuoto. L'acqua che si vuol sollevare (per esempio, da una miniera inondata) potr… esser fatta risalire attraverso una valvola nel recipiente in cui Š stato fatto il vuoto. Un fisico francese, Denis Papin, comprese fin dal 1679 le possibilit… offerte dal vapore e ide• una "pentola a pressione", un recipiente chiuso ermeticamente in cui faceva bollire dell'acqua. Il vapore, accumulandosi, creava una pressione che faceva innalzare il punto di ebollizione dell'acqua; a questa temperatura pi— alta, i cibi cuocevano prima e meglio. Deve esser stata la pentola a pressione a suscitare in Papin l'idea di utilizzare il vapore facendogli compiere del lavoro. Egli introdusse un po' d'acqua in fondo a un tubo e la convertŤ in vapore riscaldandola. Il vapore, espandendosi energicamente, sospingeva verso l'alto uno stantuffo. La prima persona che tradusse quest'idea in un congegno utilizzabile in pratica fu per• un ingegnere militare inglese, Thomas Savery. La sua macchina a vapore poteva essere usata per pompare l'acqua di una miniera o di un pozzo, o per far funzionare una ruota idraulica: pertanto egli la chiam• l'®Amica del MinatoreŻ. Era per• pericolosa (perch‚ la pressione elevata del vapore poteva far scoppiare recipienti e tubi) e aveva un basso rendimento (perch‚ il calore del vapore andava perso tutte le volte che si raffreddava il contenitore). Savery brevett• la sua macchina nel 1698; sette anni dopo un fabbro inglese, Thomas Newcomen, costruŤ una macchina pi— progredita, capace di funzionare con vapore a bassa pressione; essa utilizzava la pressione atmosferica per far abbassare il pistone nel cilindro. Anche la macchina di Newcomen non brillava per rendimento (anche qui si doveva raffreddare il cilindro dopo ogni riscaldamento); la macchina a vapore rimase un congegno di scarsa importanza per altri sessanta anni e pi—, finch‚ uno scozzese fabbricante di strumenti di precisione, James Watt, trov• il modo di renderla praticamente utilizzabile. Ingaggiato dall'Universit… di Glasgow per riparare un modello della macchina di Newcomen che non funzionava bene, Watt cominci• a riflettere sullo spreco di combustibile di questa macchina. Dopo tutto, cosa obbligava a raffreddare ogni volta il recipiente che conteneva il vapore? Perch‚ non tenere sempre caldo il cilindro, facendo passare il vapore in una camera di condensazione separata, che si sarebbe potuta mantenere fredda? Watt introdusse parecchie altre migliorie: sfruttamento della pressione del vapore anche per contribuire a far abbassare il pistone, introduzione di vari raccordi meccanici per ottenerne un moto rettilineo, collegamento del moto alternativo del pistone all'asse di una ruota, che pertanto si metteva a girare, e cosŤ via. Nel 1782, la sua macchina a vapore, che, con una tonnellata di carbone, poteva effettuare almeno il triplo del lavoro rispetto a quella di Newcomen, era pronta per essere utilizzata come un cavallo da lavoro universale. In seguito il rendimento della macchina a vapore fu continuamente aumentato, soprattutto attraverso l'uso di vapore sempre pi— caldo, a pressioni sempre maggiori. La fondazione della termodinamica da parte di Carnot (vedi capitolo ottavo) ebbe principalmente origine dalla comprensione del fatto che il rendimento massimo raggiungibile da una macchina a vapore Š proporzionale alla differenza di temperatura tra il serbatoio caldo (solitamente la caldaia) e quello freddo (il condensatore separato). Nel corso del '700 vennero inventati molti congegni meccanici per filare e tessere su pi— vasta scala (sostituendo l'arcolaio, usato nel Medioevo). In un primo tempo questi macchinari venivano azionati dalla forza muscolare degli animali o da ruote idrauliche, ma nel 1790 fu compiuto il passo cruciale: venne adottata la macchina a vapore per azionarli. CosŤ gli impianti tessili di nuova costruzione non richiedevano pi— la vicinanza di correnti d'acqua veloci n‚ la disponibilit… di animali, ma si potevano costruire in qualsiasi localit…. La Gran Bretagna entr• in una fase di trasformazione rivoluzionaria: i lavoratori lasciavano la campagna e abbandonavano le manifatture familiari per riversarsi in massa nelle grandi fabbriche (dove le condizioni di lavoro furono incredibilmente dure e umilianti, fino a quando la societ… comprese, non senza riluttanza, che gli esseri umani vanno trattati in modo non peggiore degli animali). La stessa trasformazione si verific• in altri paesi che adottarono il nuovo sistema basato sull'uso della macchina a vapore: era la Rivoluzione industriale (un'espressione introdotta nel 1837 dall'economista francese Jerome Adolphe Blanqui). La macchina a vapore rivoluzion• radicalmente anche i trasporti. Nel 1787 l'inventore americano John Fitch costruŤ un battello a vapore che, se funzionava bene dal punto di vista tecnico, si rivel• fallimentare da quello finanziario; Fitch morŤ sconosciuto e non apprezzato. Robert Fulton, imprenditore pi— abile di Fitch, var• il suo piroscafo, il "Clermont", nel 1807, sostenendolo con tanta pubblicit… che finŤ per esserne considerato l'inventore, mentre in realt… non era neppure il primo ad averne costruito uno, cosŤ come Watt non era stato il primo a fabbricare una macchina a vapore. Forse Fulton meriterebbe di essere ricordato maggiormente per i suoi tenaci tentativi di costruire un'imbarcazione sottomarina. Quelle che costruŤ non erano utilizzabili, ma anticipavano parecchi sviluppi moderni. Il "Nautilus", uno dei sottomarini costruiti da Fulton, probabilmente ispir• Jules Verne quando scrisse il romanzo fantascientifico "Ventimila leghe sotto i mari", pubblicato nel 1870, dove compare appunto un sottomarino di tal nome. A sua volta quest'ultimo diede l'ispirazione per il nome del primo sottomarino nucleare (vedi capitolo decimo). Dopo il 1830 navi a vapore incominciarono ad attraversare l'Atlantico, azionate dall'elica, un progresso considerevole rispetto alle ruote laterali. A partire dal 1850, poi, i veloci ed eleganti Clipper cominciarono ad ammainare le vele, sostituiti dai piroscafi nelle marine mercantili e militari di tutto il mondo. Pi— tardi un ingegnere britannico, Charles Algernon Parsons (un figlio di quel Lord Rosse che aveva scoperto la nebulosa Granchio) ide• un miglioramento importante nell'applicazione alle navi della macchina a vapore: invece di far azionare dal vapore un pistone, che, a sua volta, azionava una ruota, egli pens• di eliminare l'®intermediarioŻ, usando un getto di vapore per investire direttamente delle palette disposte lungo il bordo di una ruota; quest'ultima doveva per• reggere alle alte velocit… e alle temperature elevate; nel 1884, Parsons produsse la prima "turbina a vapore" funzionante. Nel 1897, per il sessantesimo anniversario dell'incoronazione della regina Vittoria, la Marina britannica stava facendo sfilare in un'imponente parata le sue navi da guerra a vapore, quando la "Turbinia" di Parsons, azionata appunto a turbina, le super• in silenzio filando alla velocit… di 35 nodi. Nessuna nave della Marina britannica avrebbe potuto raggiungerla, e questo fu il miglior colpo pubblicitario che l'inventore potesse augurarsi. In breve tempo tutte le navi, sia mercantili che da guerra, furono azionate a turbina. Nel frattempo la macchina a vapore aveva cominciato a dominare anche il campo dei trasporti via terra. Nel 1814 l'inventore inglese George Stephenson (che doveva molto al lavoro precedente di un ingegnere pure inglese, Richard Trevithick) costrui la prima "locomotiva a vapore" funzionante. Il moto rettilineo alternativo degli stantuffi azionati dal vapore poteva far girare delle ruote metalliche su binari di acciaio, esattamente come faceva girare delle ruote a pale nell'acqua. Nel 1830 l'imprenditore americano Peter Cooper costruŤ la prima locomotiva a vapore dell'emisfero occidentale. Per la prima volta nella storia, viaggiare via terra diventava altrettanto comodo quanto viaggiare per mare, e il commercio via terra poteva competere con quello marittimo. Nel 1840 una linea ferroviaria raggiungeva il fiume Mississippi e nel 1869 gli Stati Uniti erano attraversati dalla strada ferrata in tutta la loro ampiezza. L'ELETTRICITA'. Per sua natura, la macchina a vapore risulta adatta solo per una produzione di energia su vasta scala e costante nel tempo, mentre non Š efficiente nella fornitura di piccole dosi di energia e non pu• funzionare a intermittenza, al comando di un pulsante: una macchina a vapore ®piccolaŻ, in cui tenere il fuoco basso, o da mettere in azione a comando, sarebbe un'assurdit…. Ma la stessa generazione che vide lo sviluppo della forza motrice del vapore assistette anche alla scoperta di un sistema capace di fornire energia dotata dei requisiti citati sopra - una riserva sempre pronta, che poteva diventare disponibile ovunque, in piccole quantit… o su vasta scala, solo premendo un bottone. Si trattava, ovviamente, dell'elettricit…. Elettricit… statica. Talete, il filosofo greco, aveva osservato, verso il 600 avanti Cristo, che una resina fossile che si trovava sulle rive del Baltico, che noi chiamiamo ambra e i greci chiamavano "‚lektron", acquisiva la capacit… di attrarre piume, fili, batuffoli di lanugine, quando veniva strofinata con un pezzo di pelliccia. Fu l'inglese William Gilbert, lo studioso del magnetismo (vedi capitolo quinto), a proporre per primo di chiamare tale forza attrattiva "elettricit…", appunto dal greco "‚lektron". Egli scoprŤ che, oltre all'ambra, altri materiali, come il vetro, acquistavano propriet… elettriche se li si strofinava. Nel 1733, il chimico francese Charles Francis de Cisternay Du Fay scoprŤ che due bacchette di ambra, o due bacchette di vetro, elettrizzate per strofinio si respingevano a vicenda. Viceversa, una bacchetta di vetro elettrizzata attraeva una bacchetta di ambra elettrizzata; se poi le si metteva a contatto, perdevano la loro elettricit…. Egli ritenne che ci• dimostrasse l'esistenza di due tipi diversi di elettricit…, che denomin• rispettivamente "vetrosa" e "resinosa". Lo studioso americano Benjamin Franklin, che si interess• molto all'elettricit…, sostenne invece che si trattava di un unico fluido: quando si strofinava il vetro, l'elettricit… vi penetrava, caricandolo ®positivamenteŻ, mentre quando si strofinava l'ambra l'elettricit… ne usciva, e perci• essa diventava carica ®negativamenteŻ. Quando poi una bacchetta negativa entrava in contatto con una positiva, il fluido elettrico passava da quella positiva a quella negativa, finch‚ non veniva raggiunto un equilibrio neutro. Era una congettura molto acuta: se sostituiamo il termine "elettroni" alla parola "fluido", usata da Franklin, e invertiamo la direzione dei moti (infatti gli elettroni passano dall'ambra al vetro), la sua supposizione risulta sostanzialmente corretta. Un inventore francese, Jean Th‚ophile Desaguliers, propose, nel 1740, di chiamare "conduttori" quelle sostanze nelle quali il fluido elettrico si muoveva liberamente (per esempio i metalli), e "isolanti" quelle (come il vetro e l'ambra) in cui tale fluido non circolava liberamente. Gli esperimenti mostrarono che era possibile accumulare gradualmente una ingente carica elettrica in un conduttore, se lo si isolava, in modo che non perdesse elettricit…, con del vetro o con uno strato di aria. La pi— famosa apparecchiatura di questo genere fu la "bottiglia di Leida", ideata nel 1745 dallo studioso tedesco Ewald Georg von Kleist, ma utilizzata in pratica per la prima volta all'Universit… di Leida, in Olanda, dove fu costruita indipendentemente qualche mese dopo dallo studioso olandese Pieter van Musschenbroek. La bottiglia di Leida Š ci• che oggi viene chiamato un "condensatore", cioŠ un sistema formato da due superfici conduttrici, separate da un piccolo spessore di un isolante, entro cui si pu• immagazzinare una certa quantit… di carica elettrica. Nel caso della bottiglia di Leida la carica si accumula su un foglio di stagnola che riveste le pareti di una bottiglia di vetro; una catenella di ottone che passa attraverso il tappo entra in contatto con la stagnola; se si tocca la bottiglia carica, si avverte una forte scossa elettrica. La bottiglia di Leida pu• produrre anche una scintilla. Naturalmente, al crescere della carica accumulata su un corpo, cresce anche la sua tendenza a sfuggirne. La forza che fa passare gli elettroni dalla regione dove pi— sono in eccesso (il "polo negativo") a quella dove maggiormente difettano (il "polo positivo") Š detta "forza elettromotrice" (fem) o "potenziale elettrico". Se il potenziale diventa abbastanza elevato, gli elettroni finiranno per oltrepassare l'intervallo isolante o l'aria tra i due poli, producendo una scintilla vivida e un rumore crepitante. La luce della scintilla Š dovuta alla radiazione creata dalle collisioni di innumerevoli elettroni con le molecole dell'aria, e il rumore Š dovuto all'espansione dell'aria bruscamente riscaldata, seguita dall'irruzione di aria pi— fredda nel parziale vuoto prodottosi momentaneamente. Era naturale chiedersi se fulmine e tuono fossero l'analogo, su larga scala, del fenomeno che avviene nella bottiglia di Leida. Uno studioso inglese, William Wall, aveva suggerito appunto questo, gi… nel 1708. Ci• bast• a indurre Benjamin Franklin a effettuare il suo famoso esperimento del 1752. Egli fece volare, durante un temporale, un aquilone munito di una punta metallica alla quale aveva attaccato un filo di seta in grado di condurre l'elettricit… dai nembi temporaleschi fino a terra; quando Franklin avvicin• la mano a una chiave metallica legata al filo di seta, scocc• una scintilla. Franklin lasci• che la chiave si caricasse nuovamente e la us• poi per caricare una bottiglia di Leida, con risultati analoghi a quelli ottenuti caricandola con qualsiasi altro sistema. Franklin aveva cosŤ dimostrato che le nubi temporalesche sono cariche di elettricit…, e che tuono e fulmine sono prodotti effettivamente da una sorta di bottiglia di Leida atmosferica, nella quale le nubi costituiscono un polo e la terra l'altro. L'aspetto pi— fortunato di questo esperimento, dal punto di vista personale di Franklin, fu il fatto di esservi sopravvissuto; altri, infatti, che provarono a ripeterlo, vi persero la vita, perch‚ la carica indotta sul puntale metallico dell'aquilone si accumulava fino a produrre una scarica tanto intensa da risultare letale all'uomo che teneva in mano il filo di seta. Franklin applic• subito nella pratica questo progresso della teoria, ideando il "parafulmine", una semplice asta di ferro da collocarsi nel punto pi— alto di un edificio e da collegarsi a terra mediante fili metallici. Il puntale aguzzo sottraeva cariche elettriche dalle nubi, come Franklin dimostr• sperimentalmente; e se cadeva un fulmine, la scarica veniva condotta a terra senza che facesse danni. I danni causati dai fulmini diminuirono drasticamente allorch‚ i parafulmini si diffusero in Europa e nelle colonie americane - risultato non da poco. Tuttavia ancora oggi 2 miliardi di fulmini colpiscono la terra ogni anno, e si stima che le vittime siano venti persone al giorno, pi— un'ottantina di feriti. L'esperimento di Franklin ebbe due effetti elettrizzanti (scusate il gioco di parole). In primo luogo suscit• un grande interesse per l'elettricit… in tutto il mondo; in secondo luogo diede alle colonie americane diritto di cittadinanza, per cosŤ dire, da un punto di vista culturale. Per la prima volta un americano aveva mostrato di valere come scienziato abbastanza da destare l'ammirazione del mondo colto europeo dell'Et… della Ragione. Quando, un quarto di secolo dopo, Franklin rappresent• a Versailles i neonati Stati Uniti e chiese aiuti, ottenne il rispetto di tutti, non solo come semplice inviato di una nuova repubblica, ma anche come gigante in campo intellettuale: egli era colui che aveva addomesticato il fulmine, portandolo umile a terra. Quell'aquilone contribuŤ non poco alla causa dell'indipendenza americana. Grazie all'opera di Franklin, la ricerca sull'elettricit… fece poi passi da gigante. Nel 1785 il fisico francese Charles Augustin de Coulomb effettu• misurazioni quantitative sull'attrazione e la repulsione elettriche, mostrando che esse erano inversamente proporzionali al quadrato della distanza fra le cariche interessate. Sotto questo aspetto vi Š un'analogia tra l'attrazione elettrica e l'attrazione gravitazionale. Per ricordare questa scoperta, l'unit… di misura della quantit… di carica elettrica Š stata chiamata "coulomb". Elettricit… dinamica. Poco tempo dopo, lo studio dell'elettricit… compŤ una svolta in una nuova e sorprendente direzione, che si rivel• quanto mai feconda. Fin qui abbiamo parlato dell'"elettricit… statica", quella cioŠ di una carica che, situata su un oggetto, vi rimane. La scoperta di una carica elettrica che si muove, cioŠ delle correnti elettriche, ovvero dell'"elettricit… dinamica", venne fatta dall'anatomista italiano Luigi Galvani. Nel 1791 questi scoprŤ accidentalmente che i muscoli della coscia di una rana sezionata si contraevano se li si toccava simultaneamente con due metalli diversi. (Fu cosŤ che entr• nel linguaggio il verbo "galvanizzare".) I muscoli si comportavano come se fossero stati stimolati dalla scintilla elettrica di una bottiglia di Leida; pertanto Galvani fece l'ipotesi che i muscoli contenessero qualcosa, che egli chiam• "elettricit… animale". Altri, invece, attribuirono la carica elettrica al contatto tra i due metalli e non ai muscoli. Nel 1800, il fisico italiano Alessandro Volta studi• varie combinazioni di metalli diversi, messi in contatto non gi… dal tessuto muscolare, ma da semplici soluzioni. Volta cominci• utilizzando catene di metalli differenti collegati da tazze semipiene di acqua salata; per evitare che il liquido si versasse continuamente, prepar• poi dei dischetti di rame e zinco e li dispose in pila alternandoli uno sull'altro. Fece anche uso di dischetti di cartone inumiditi in acqua salata; la "pila di Volta" era pertanto formata da zinco, rame, cartone, zinco, rame, cartone, zinco, rame, e cosŤ via. Da una siffatta disposizione si poteva ricavare un flusso continuo di corrente elettrica. Una qualsiasi serie di unit… analoghe, ripetute indefinitamente, pu• essere chiamata batteria. Lo strumento di Volta fu la prima "batteria elettrica", o "cella elettrochimica". Doveva trascorrere un secolo prima che gli scienziati comprendessero appieno il ruolo svolto dagli elettroni nelle reazioni chimiche, riuscendo a interpretare le correnti elettriche in termini di spostamenti e flussi di elettroni; tuttavia nel frattempo essi poterono far uso di tali correnti, anche senza una piena comprensione della loro natura. Humphry Davy us• una corrente elettrica per separare gli atomi di molecole dotate di legami chimici molto forti, e fu il primo, nel 1807 e nel 1808, a ottenere metalli come il sodio, il potassio, il magnesio, il calcio, lo stronzio e il bario. Faraday (assistente e pupillo di Davy) proseguŤ nella sua opera, enunciando le leggi generali dell'"elettrolisi", il processo con cui le molecole venivano scisse; mezzo secolo dopo, le sue ricerche avrebbero guidato Arrhenius verso la formulazione dell'ipotesi della dissociazione ionica (vedi capitolo quinto). Le molteplici applicazioni dell'elettricit… dinamica nel secolo e mezzo successivo all'invenzione della pila di Volta sembravano aver messo in ombra l'elettricit… statica, riducendola a una mera curiosit… storica. Ma era un errore, perch‚ la conoscenza e l'ingegno umano non si fermano mai. Nel 1960 l'inventore americano Chester Carlson realizz• un efficace congegno per la copiatura, che attirava il nerofumo su un foglio di carta, appunto in virt— di un'azione elettrostatica localizzata. Questo sistema di copiatura, che non richiede n‚ soluzioni n‚ agenti umidi, si chiama "xerografia" (dalle parole greche che significano ®scrittura a seccoŻ) e ha rivoluzionato il lavoro negli uffici. I nomi dei pionieri dello studio dell'elettricit… sono stati immortalati nelle denominazioni delle unit… di misura delle varie grandezze elettriche. Abbiamo gi… parlato del "coulomb", l'unit… della quantit… di carica elettrica. Un'altra unit… Š il "faraday": 96500 coulomb sono pari a 1 faraday. Il nome di Faraday ritorna anche nel "farad", l'unit… di capacit… elettrica. Poi vi Š l'unit… dell'intensit… di corrente elettrica (che Š la quantit… di corrente che passa in un dato momento in un conduttore), unit… che viene chiamata "ampere", in onore del fisico francese AmpŠre (vedi capitolo quinto). Un ampere Š pari a 1 coulomb al secondo. L'unit… di forza elettromotrice (la forza che fa circolare la corrente) Š il "volt", in onore di Volta. Una data forza elettromotrice non fa circolare sempre la stessa quantit… di corrente elettrica, se agisce in circuiti diversi: se il conduttore Š buono la corrente generata sar… intensa, se il conduttore Š cattivo sar… scarsa, e praticamente non passer… corrente se il materiale non Š conduttore. Nel 1827, il matematico tedesco George Simon Ohm studi• la "resistenza" al flusso della corrente, e mostr• che poteva essere rigorosamente correlata al numero di ampere di corrente che passavano in un circuito sotto l'azione di una forza elettromotrice nota; si pu• determinare la resistenza calcolando il rapporto tra forza elettromotrice e intensit… di corrente. E' questa la "legge di Ohm", e l'unit… di resistenza elettrica Š l'"ohm": 1 ohm Š uguale a 1 volt diviso per 1 ampere. Produzione dell'elettricit…. La conversione dell'energia chimica in elettricit…, cosŤ come si verifica nella pila di Volta e nel gran numero di congegni che ne sono derivati, Š sempre stata relativamente costosa, perch‚ le sostanze chimiche necessarie non sono comuni e pertanto costano parecchio. Per tale ragione all'inizio del diciannovesimo secolo l'elettricit…, mentre era utilizzabile in laboratorio con grande profitto, non poteva venir applicata su vasta scala nell'industria. Vi sono stati tentativi sporadici di utilizzare come fonte di elettricit… le reazioni chimiche che avvengono nella normale combustione. Combustibili come l'idrogeno (o, ancora meglio, il carbone) costano assai meno di metalli come il rame e lo zinco. Gi… nel 1839 lo scienziato inglese William Grove aveva ideato una cella elettrochimica alimentata dalla combinazione dell'idrogeno e dell'ossigeno. Era un'idea interessante, ma poco pratica. Pi— di recente i fisici hanno dedicato molti sforzi alla realizzazione di "pile a combustibile" effettivamente utilizzabili. La teoria Š perfettamente definita, ma i problemi pratici si dimostrano di difficile soluzione e richiedono ulteriori ricerche. Non sorprende quindi il fatto che l'uso dell'elettricit… su vasta scala sia divenuto possibile, nella seconda met… del diciannovesimo secolo, per merito di qualcosa di diverso dalla pila. Gi… negli anni trenta, Faraday aveva ottenuto dell'elettricit… dal movimento meccanico di un conduttore attraverso le linee di forza di un "magnete" (vedi capitolo quinto). Questo "generatore elettrico", o "dinamo" (dalla parola greca che significa ®forzaŻ), trasformava l'energia cinetica in elettricit…. Il movimento veniva mantenuto ricorrendo al vapore, che a sua volta era ottenuto dalla combustione. CosŤ, assai pi— indirettamente che in una pila a combustibile, si poteva convertire in elettricit… l'energia della combustione del carbone, o del petrolio (o anche del legno). A partire dal 1844 furono usate versioni ingombranti e non troppo funzionali di questi generatori per azionare i macchinari. Occorrevano per• magneti sempre pi— potenti, in modo che il movimento attraverso linee di forza pi— intense producesse flussi maggiori di elettricit…. Per ottenere questi magneti pi— potenti, si ricorse proprio alle correnti elettriche. Nel 1823 lo sperimentatore inglese William Sturgeon avvolse diciotto spire di filo di rame scoperto intorno a una barra di ferro ad U, realizzando cosŤ un "elettromagnete". Al passaggio della corrente, il campo magnetico da essa prodotto si concentrava nella barra di ferro che allora era in grado di sollevare una quantit… di ferro pari a venti volte il proprio peso. Quando non passava corrente, la barra cessava di essere un magnete e non poteva sollevare nulla. Nel 1829, il fisico americano Joseph Henry apport• un notevole miglioramento a questo dispositivo, usando filo isolato, che in quanto tale poteva essere avvolto in pi— spire anche vicine, formando degli avvolgimenti senza timore di corti circuiti. Ogni spira in pi— aumentava l'intensit… del campo magnetico e la potenza dell'elettromagnete. Nel 1831, Henry aveva prodotto un elettromagnete, di non grandi dimensioni, che poteva sollevare pi— di una tonnellata di ferro. L'elettromagnete era chiaramente la risposta all'esigenza di migliori generatori elettrici: nel 1845 il fisico inglese Charles Wheatstone utilizz• un elettromagnete proprio a tale scopo. La comprensione della teoria delle linee di forza aument• dopo l'interpretazione data da Maxwell del lavoro di Faraday (vedi capitolo quinto) negli anni dopo il 1860; e nel 1872 l'ingegnere elettrotecnico tedesco Friedrich von Hefner-Alteneck progett• il primo generatore elettrico veramente efficiente. Finalmente si poteva produrre l'elettricit… a basso costo e in grandi quantit…, e non pi— solo bruciando dei combustibili, ma anche utilizzando la caduta dell'acqua. Prime applicazioni tecnologiche dell'elettricit…. Per il lavoro che port• alle prime applicazioni dell'elettricit… alla tecnologia, gran parte del merito va attribuita a Joseph Henry. La prima applicazione dell'elettricit… da parte di Henry fu l'invenzione del telegrafo. Henry ide• un sistema di relŠ che permetteva di trasmettere la corrente elettrica lungo chilometri di cavo. L'intensit… di una corrente diminuisce rapidamente quando essa viaggia a tensione costante per lunghi tratti di conduttore resistivo; i relŠ di Henry erano basati sull'idea di attivare con il segnale in via di estinzione un piccolo elettromagnete, che azionava un interruttore, il quale a sua volta faceva passare un impulso di energia, fornito da centrali di alimentazione poste a intervalli appropriati. CosŤ un messaggio formato da impulsi elettrici in codice poteva percorrere una considerevole distanza. Henry costruŤ effettivamente un telegrafo che funzionava. Essendo un uomo disinteressato, che credeva che la conoscenza andasse condivisa con il mondo intero, Henry non brevett• le sue scoperte, e cosŤ non gli fu riconosciuto il merito di questa invenzione. Tutto il merito and• all'artista Samuel Finley Breese Morse (che era anche un eccentrico bigotto). Con l'aiuto di Henry (che questi gli prodig• gratuitamente, ma che fu poi riconosciuto con riluttanza), Morse costruŤ nel 1844 il primo telegrafo di utilit… pratica. Il principale contributo originale dato da Morse alla telegrafia fu il sistema di punti e linee noto come "alfabeto Morse". Ma l'innovazione pi— importante realizzata da Henry nel campo dell'elettricit… fu il motore elettrico. Henry mostr• che si poteva usare la corrente elettrica per far girare una ruota, cosŤ come una ruota che gira pu• generare corrente elettrica. E una ruota azionata elettricamente (un motore) poteva essere utilizzata per far funzionare dei macchinari. Il motore era trasportabile, poteva essere acceso o spento a piacimento (senza dover aspettare che il vapore andasse in pressione) e poteva essere ridotto a dimensioni piccole a piacere. Il problema era quello di trasportare l'elettricit… dal luogo in cui veniva prodotta a quello in cui veniva usato il motore. Si doveva trovare un sistema per ridurre le perdite di energia elettrica (sotto forma di calore dissipato) durante il percorso lungo i fili. Una risposta fu il "trasformatore". Gli sperimentatori avevano scoperto che tali perdite sono molto minori quando la corrente viene trasmessa a bassa intensit…. Si pens• allora di elevare la tensione in uscita dal generatore, ricorrendo a un trasformatore che - moltiplicando la tensione, ad esempio, per tre - riduce a un terzo l'intensit… di corrente. All'altro capo della linea si pu• nuovamente abbassare la tensione, in modo da portare l'intensit… della corrente al livello necessario per far funzionare i motori. Il trasformatore usa la corrente che fluisce in un avvolgimento "primario" per indurre una corrente ad alta tensione in un avvolgimento "secondario". L'induzione richiede che vari il campo magnetico all'interno del secondo avvolgimento. Per questo non si pu• usare una corrente costante, ma si deve usare una corrente che cambia continuamente, raggiungendo un massimo, scendendo a zero, per poi crescere in direzione opposta - in altre parole, occorre una "corrente alternata". La corrente alternata (A.C.) si impose sulla corrente continua (D.C.) non senza contrasti. Thomas Alva Edison, il personaggio pi— importante nel campo dell'elettricit… negli ultimi decenni del diciannovesimo secolo, si schier• dalla parte della seconda, creando la prima centrale a corrente continua a New York nel 1882, per alimentare l'illuminazione elettrica, da lui stesso inventata. Egli combatteva la corrente alternata sostenendo che era pi— pericolosa (per esempio con l'argomentazione che veniva usata nella sedia elettrica). Gli si opponeva strenuamente Nikola Tesla, un ingegnere che aveva lavorato per Edison e da questi era stato trattato in modo scorretto. Nel 1888 Tesla svilupp• un ottimo sistema per l'uso della corrente alternata. Nel 1893 George Westinghouse, anch'egli sostenitore della corrente alternata, riport• una vittoria cruciale su Edison, ottenendo per la propria societ… il contratto per la realizzazione di una centrale elettrica a corrente alternata sulle cascate del Niagara. Nei decenni che seguirono, Steinmetz diede solide basi matematiche alla teoria delle correnti alternate. Oggi la corrente alternata Š il sistema quasi universalmente adottato per la distribuzione dell'energia elettrica (anche se, nel 1966, gli ingegneri della General Electric hanno ideato un trasformatore di corrente continua - cosa a lungo ritenuta impossibile - che tuttavia richiede temperature ottenute con l'elio liquido e ha un basso rendimento; si tratta dunque di un'idea affascinante dal punto di vista teorico, che non Š per• probabile abbia nell'immediato utilizzazione pratica). TECNOLOGIA ELETTRICA. La macchina a vapore Š un "motore primo": utilizza cioŠ energia che gi… esiste in natura (l'energia chimica del legno, del petrolio, del carbone) e la trasforma in lavoro. Il motore elettrico non Š un motore primo: esso converte elettricit… in lavoro, ma l'elettricit… deve a sua volta essere ottenuta bruciando combustibili o dall'energia di caduta dell'acqua. Per questa ragione l'elettricit… Š meno conveniente del vapore per i lavori pesanti, pur potendo ugualmente essere utilizzata a questo scopo. All'Esposizione di Berlino del 1879 un locomotore elettrico (che attingeva la corrente dalla terza rotaia) riuscŤ a trainare un treno passeggeri. Oggi i treni a trazione elettrica sono cosa comune per i trasporti rapidi, soprattutto all'interno delle citt…, perch‚ i costi maggiori sono pi— che compensati dalla maggior pulizia e dal funzionamento pi— silenzioso. Il telefono. Tuttavia l'elettricit… d… il meglio di s‚ l… dove svolge compiti inaccessibili al vapore. E' questo, per esempio, il caso del telefono, brevettato dall'inventore di origine scozzese Alexander Graham Bell nel 1876. Nel microfono le onde sonore emesse da chi parla colpiscono una sottile membrana di acciaio, facendola vibrare di conseguenza: le vibrazioni della membrana provocano a loro volta una modulazione analoga in una corrente elettrica, che si rafforza e si indebolisce rispecchiando esattamente l'andamento delle onde sonore. Nel ricevitore le fluttuazioni d'intensit… della corrente attivano un elettromagnete, che fa vibrare una membrana e riproduce le onde sonore. Sulle prime il telefono era un congegno rudimentale e di funzionamento poco affidabile; tuttavia costituŤ la grande attrazione dell'Esposizione di Filadelfia del 1876, che celebrava il centesimo anniversario della Dichiarazione d'Indipendenza. Durante la sua visita, l'imperatore del Brasile, Pedro Secondo, volle provare il telefono e lasci• cadere l'apparecchio sbalordito, esclamando: ®Ma parla!Ż, frase riprodotta a caratteri cubitali dai titoli dei giornali. Un altro visitatore, Lord Kelvin, rimase altrettanto impressionato, mentre il grande Maxwell fu sbalordito che una cosa tanto semplice riuscisse a riprodurre la voce umana. Nel 1877 la regina Vittoria acquist• un telefono, il che ne assicur• il successo. Sempre nel 1877, Edison ide• un miglioramento essenziale, costruendo un microfono che conteneva della polvere di carbone: quando la membrana la premeva, questa polvere conduceva pi— corrente; quando la membrana si allontanava, essa ne conduceva meno. In tal modo le onde sonore della voce venivano tradotte dal microfono con grande fedelt… in impulsi elettrici variabili, e la voce veniva riprodotta nel ricevitore con maggiore chiarezza. Non era per• possibile stabilire comunicazioni telefoniche a grandi distanze, se non a costi rovinosi, dovuti alla necessit… di impiegare un filo di rame di grande spessore (e quindi di bassa resistenza). Alla fine del secolo il fisico serbo-croato naturalizzato americano Michael Idvorsky Pupin ebbe l'idea di inserire, a distanze regolari, bobine di induttanza in un sottile filo di rame, con il risultato di rinforzare i segnali che potevano cosŤ percorrere lunghe distanze. La Bell Telephone Company acquist• il dispositivo nel 1901; nel 1915, con l'apertura della linea New York-San Francisco, la telefonia a grande distanza era un fatto acquisito. La centralinista telefonica (si trattava quasi sempre di donne) divenne un personaggio familiare e indispensabile della vita quotidiana, e tale rest• per mezzo secolo, cominciando a perdere di importanza con l'inizio della diffusione del telefono a disco combinatorio, nel 1921. L'automazione seguit• ad avanzare, al punto che, quando nel 1983 centinaia di migliaia di dipendenti delle societ… telefoniche degli Stati Uniti fecero uno sciopero di due settimane, il servizio continu• senza subire interruzioni. Oggigiorno le onde radio e i satelliti per telecomunicazioni aumentano la versatilit… del telefono. Registrazione del suono. Nel 1877, un anno dopo l'invenzione del telefono, Edison brevett• il "fonografo". Le prime registrazioni erano incise in solchi su fogli di stagnola avvolti intorno a un cilindro rotante; l'inventore americano Charles Sumner Tainter li sostituŤ nel 1885 con cilindri di cera, e poi Emile Berliner nel 1887 introdusse l'uso di dischi rivestiti di cera. Nel 1904 Berliner apport• un miglioramento ancora pi— importante: sul disco piatto la puntina vibrava lateralmente. La maggior compattezza del disco elimin• quasi completamente dal mercato l'ormai superato cilindro di Edison (sul quale la puntina vibrava verticalmente). Nel 1925, si cominci• a registrare usando l'elettricit…, mediante il microfono, che traduceva il suono in una corrente elettrica modulata, grazie a un cristallo piezoelettrico che sostituiva la membrana metallica - il cristallo permetteva di riprodurre il suono pi— fedelmente. Negli anni trenta furono introdotte le valvole termoioniche con funzione amplificatrice. Nel 1948, il fisico americano di origine ungherese Peter Goldmark ide• il "long-playing" (L.P.), con i suoi 33 giri e un terzo al minuto, anzich‚ i 78 giri in uso fino ad allora. Un L.P. poteva contenere sei volte pi— musica dei vecchi dischi, consentendo di ascoltare una sinfonia senza dover di continuo voltare o cambiare disco. L'elettronica ha reso possibili l'"alta fedelt…" ("hi-fi", "high fidelity") e la "stereofonia", rimuovendo in pratica tutte le barriere meccaniche tra l'orchestra e il cantante da una parte e l'ascoltatore dall'altra. La registrazione su nastro era gi… stata inventata nel 1898 da un ingegnere elettrotecnico danese, Valdemar Poulsen, ma dovette aspettare alcuni progressi tecnologici per diventare praticamente utilizzabile. Un elettromagnete, rispondendo a una corrente elettrica modulata dalle onde sonore, magnetizza il rivestimento (costituito di una speciale polvere) di un nastro o di un filo che gli scorre vicino; per il riascolto, un altro elettromagnete ®leggeŻ l'andamento della magnetizzazione e lo traduce nuovamente in una corrente, che a sua volta riproduce il suono. La luce artificiale prima dell'elettricit…. Di tutti i miracoli fatti dall'elettricit…, certo quello pi— popolare fu la trasformazione della notte in giorno. Gli uomini si erano difesi dall'oscurit… paralizzante in cui piombavano ogni giorno dopo il tramonto con i fal• degli accampamenti, le torce, le lampade a olio, le candele; per circa mezzo milione di anni si pot‚ contare solo su luci artificiali fioche e tremolanti. Il diciannovesimo secolo apport• qualche progresso in questi antichi metodi di illuminazione: l'olio di balena e poi il cherosene adottati nelle lucerne consentivano di ottenere un'illuminazione pi— chiara ed efficiente. Il chimico austriaco Karl Auer von Welsbach scoprŤ che circondando la fiamma di una lampada con una reticella cilindrica di cotone impregnata di composti di torio e di cerio, si otteneva una luce pi— bianca e pi— brillante. La "rete di Welsbach", brevettata nel 1885, aument• considerevolmente la luminosit… della lampada a petrolio. Fin dall'inizio del secolo l'illuminazione a gas venne introdotta dall'inventore scozzese William Murdock; questi convogli• mediante condutture il gas di carbone fino a un becco da cui poteva esser fatto uscire e acceso. Nel 1802, per celebrare un momentaneo accordo di pace con Napoleone, Murdock allestŤ una spettacolare illuminazione a gas; nel 1803 la sua fabbrica era normalmente illuminata con questo sistema. Nel 1807 alcune strade di Londra vennero illuminate a gas, e ben presto l'usanza si diffuse. Nel corso del secolo le grandi citt… diventarono sempre pi— illuminate di notte, cosa che ridusse il tasso di criminalit… e accrebbe la sicurezza dei cittadini. Il chimico americano Robert Hare scoprŤ che, indirizzando una fiamma a gas molto calda su un blocco di ossido di calcio (o calce), si otteneva una luce bianca molto brillante, che venne impiegata per illuminare i palcoscenici dei teatri molto meglio di quanto non fosse possibile in precedenza. Tutte queste forme di illuminazione, dai fal• ai becchi a gas, comportano fiamme libere. Inoltre c'Š sempre il problema di accendere il combustibile - sia esso legno, carbone, petrolio o gas - se non si dispone gi… di una fiamma nelle vicinanze. Prima del diciannovesimo secolo il metodo meno laborioso consisteva nell'usare pietra focaia e acciarino; battendo l'una contro l'altro si poteva ottenere una scintilla, che, se si aveva fortuna, poteva accendere un'esca (un materiale infiammabile finemente suddiviso), la quale, a sua volta, poteva accendere una candela, e cosŤ via. All'inizio del diciannovesimo secolo, i chimici cominciarono a cercare un modo per rivestire un'estremit… di un pezzo di legno con sostanze capaci di accendersi se si innalzava la temperatura: era l'idea del "fiammifero". A innalzare la temperatura era l'attrito; sfregando il fiammifero su una superficie ruvida si produceva la fiamma. I primi fiammiferi emanavano molto fumo e un odore sgradevole; le sostanze chimiche usate erano poi pericolosamente tossiche. Solo nel 1845 i fiammiferi diventarono davvero innocui, quando il chimico austriaco Anton Ritter von Schrotter introdusse l'uso del fosforo rosso. Infine furono realizzati i "fiammiferi di sicurezza", in cui il fosforo rosso Š posto su una piccola striscia ruvida applicata sulla scatola, mentre la capocchia del fiammifero contiene gli altri prodotti chimici necessari. N‚ il fiammifero n‚ la striscia possono accendersi da soli: occorre sfregarli l'uno contro l'altra per ottenere il fuoco. C'Š stato anche un ritorno all'acciarino e alla pietra focaia, ma con miglioramenti sostanziali. Al posto della pietra focaia si usa oggi il Mischmetal, una miscela di metalli (soprattutto cerio) che, sfregata contro una rotella zigrinata, produce delle scintille aventi una temperatura molto elevata. Al posto dell'esca vi Š un "fluido infiammabile". Il risultato Š l'"accendisigaro". La luce elettrica. Le fiamme libere, di un tipo o dell'altro, non sono stabili, e, quel che Š peggio, costituiscono un costante pericolo di incendio. Occorreva qualcosa di completamente nuovo; d'altro canto, da tempo si sapeva che l'elettricit… poteva fornire luce. Le bottiglie di Leida producevano scintille quando venivano scaricate; i conduttori di corrente elettrica talvolta diventavano incandescenti. Entrambi questi fenomeni sono stati sfruttati per l'illuminazione. Nel 1805, Humphry Davy fece scoccare una scarica elettrica nell'aria interposta tra due conduttori; mantenendo costante la corrente, la scarica risultava continua; si aveva cosŤ un "arco elettrico". Quando l'elettricit… divenne meno costosa, si poterono utilizzare le "lampade ad arco" per l'illuminazione. A partire dal 1870 le strade di Parigi e di qualche altra citt… furono illuminate con queste lampade; la loro luce, tuttavia, era cruda e tremolante e persisteva il pericolo d'incendio. Sarebbe stato preferibile portare all'incandescenza un filamento, facendolo percorrere dalla corrente elettrica. Naturalmente, ci• doveva avvenire in assenza di ossigeno, altrimenti dopo poco tempo il filamento si sarebbe ossidato. I primi tentativi di eliminare l'ossigeno consistettero semplicemente nell'eliminare l'aria: nel 1875 Crookes (in occasione delle sue ricerche sui raggi catodici, vedi capitolo settimo) aveva ideato dei sistemi abbastanza rapidi ed economici per produrre un vuoto sufficiente per questo scopo; tuttavia i filamenti si rompevano troppo facilmente. Nel 1878 Thomas Edison, fresco del trionfo riportato con il fonografo, annunci• di voler affrontare il problema. Aveva solo trentun anni, ma la sua fama di inventore era tale che il solo annuncio bast• a far crollare le azioni delle societ… del gas alle borse di New York e di Londra. Dopo centinaia di esperimenti e dopo incredibili frustrazioni, Edison trov• infine un materiale che poteva andar bene come filamento - un filo di cotone carbonizzato. Il 21 ottobre 1879 accese la sua lampadina, che rimase accesa per 40 ore di seguito. La sera dell'ultimo dell'anno, Edison ne diede una trionfale dimostrazione pubblica, illuminando la strada principale di Menlo Park, nel New Jersey, dove si trovava il suo laboratorio. Brevett• subito la sua lampadina e ne avvi• la produzione su vasta scala. Edison non fu per• l'unico inventore della lampada a incandescenza; almeno un altro inventore poteva rivendicare tale scoperta: l'inglese Joseph Swan che aveva esibito una lampada a filamento di carbone a una riunione della Chemical Society di Newcastle-on-Tyne il 18 dicembre 1878; Swan tuttavia riuscŤ a mettere in produzione la sua lampada solo nel 1881. Edison pass• a occuparsi del problema di rifornire le case di elettricit… in misura costante e sufficiente per l'illuminazione domestica - compito che richiedeva almeno altrettanto ingegno quanto l'invenzione della lampadina. In seguito alla lampadina furono apportati due importanti miglioramenti. Nel 1910 William David Coolidge della General Electric Company adott• il tungsteno, un materiale molto resistente al calore, per il filamento; e, nel 1913, Irving Langmuir introdusse nella lampadina l'azoto, un gas inerte, per ostacolare l'evaporazione e la rottura del filamento che si verificavano nel vuoto. L'argo (il cui uso venne introdotto nel 1920) serve allo scopo ancora meglio dell'azoto, perch‚ Š completamente inerte. Il cripto, altro gas inerte, va anche meglio, perch‚ consente al filamento di raggiungere temperature ancora superiori e di illuminare meglio, senza riduzione della durata. Per mezzo secolo il vetro trasparente delle lampadine rimase un inconveniente, poich‚ il filamento all'interno risultava abbacinante e fastidioso da guardare come il sole. Un ingegnere chimico, Marvin Pipkin, ide• un metodo pratico per lavorare la superficie interna del vetro (all'esterno la lavorazione avrebbe solo favorito l'accumulo di polvere, assorbendo in parte la luce). L'uso di "lampadine smerigliate" offrŤ finalmente una luce riposante, piacevole e costante. L'avvento della luce elettrica elimin• il pericolo di incendi, creato in passato dalle fiamme libere. Purtroppo, per•, esistono ancora situazioni in cui si usano fiamme, e probabilmente sempre ne esisteranno - nei caminetti, nelle cucine a gas, nelle caldaie a gas e a petrolio. Particolarmente deprecabile Š il fatto che centinaia di milioni di fumatori portano con s‚ la fiamma, sotto forma di sigarette accese o di accendini sempre in funzione. Le perdite in beni e vite umane dovute a incendi provocati dalle sigarette (incendi di foreste e boscaglie, o addirittura di edifici) difficilmente possono essere sopravvalutati. Il filamento incandescente delle lampadine ("luce da incandescenza", perch‚ prodotta esclusivamente dal riscaldamento del filamento, che oppone resistenza al flusso della corrente elettrica) non costituisce l'unico modo per ottenere luce dall'elettricit…. Per esempio, le cosiddette "luci al neon" (introdotte dal chimico francese Georges Claude nel 1910) sono dei tubi in cui una scarica elettrica eccita gli atomi del gas neon provocando l'emissione di una vivace luminescenza rossastra. La "lampada solare" contiene vapori di mercurio che, quando sono eccitati da una scarica, emettono una radiazione ricca di luce ultravioletta; questa lampada pu• essere usata, oltre che per abbronzarsi, anche per uccidere batteri o generare fluorescenza. Quest'ultima ci conduce alle "lampade fluorescenti", presentate, nella loro forma attuale, nel 1939 alla Fiera Mondiale di New York. Qui la luce ultravioletta emessa dai vapori di mercurio eccita la fluorescenza in un "fosf•ro" che riveste l'interno del tubo. Dato che questa luce fredda disperde poca energia sotto forma di calore, consuma meno elettricit…. Un tubo fluorescente da 40 watt emette altrettanta luce e assai meno calore di una lampadina a incandescenza da 150 watt. Dopo la seconda guerra mondiale, pertanto, c'Š stato un passaggio massiccio all'uso dei tubi fluorescenti. I primi usavano come fosf•ri sali di berillio, che per• diedero origine a casi di grave avvelenamento ("berilliosi") in seguito alla respirazione di polveri che contenevano tali sali o all'introduzione della sostanza attraverso tagli provocati dalla rottura dei tubi. Dopo il 1949 sono stati usati fosf•ri assai meno pericolosi. L'ultimo sviluppo promettente in fatto di illuminazione elettrica Š un metodo che converte direttamente l'elettricit… in luce, senza passare per lo stadio della formazione di luce ultravioletta. Nel 1936 il fisico francese Georges Destriau scoprŤ che una corrente alternata di elevata intensit… poteva rendere luminescente un fosf•ro come il solfuro di zinco. Oggi questo fenomeno, chiamato "elettroluminescenza", viene utilizzato per fabbricare pannelli luminosi di materia plastica o di vetro, contenenti dei fosf•ri; si pu• cosŤ illuminare un locale rendendo luminescente una parete o il soffitto: l'ambiente risulta immerso in una luce diffusa, tenuamente colorata. Tuttavia il rendimento dell'elettroluminescenza Š per il momento ancora troppo basso perch‚ questa forma di illuminazione sia competitiva rispetto agli altri sistemi. Fotografia. Probabilmente nessuna invenzione connessa con la luce ha dato tanto piacere all'umanit… quanto la fotografia. Essa ha avuto inizio dall'osservazione che la luce, entrando attraverso un forellino in una piccola camera oscura, forma un'immagine tenue e invertita della scena che si trova all'esterno della camera. Ricerche su questo fenomeno erano state condotte gi… verso il 1550 dallo studioso napoletano Giambattista della Porta. Il rudimentale congegno prende il nome di "stenoscopio". La quantit… di luce che penetra in uno stenoscopio Š piccolissima; sostituendo al forellino una lente, si pu• concentrare una quantit… molto maggiore di luce, ottenendo un'immagine assai pi— luminosa. Una volta fatto questo passo, occorreva trovare una reazione chimica sensibile alla luce. Parecchi ricercatori si impegnarono in quest'impresa; i pi— noti tra loro furono i francesi Joseph Nicephore Niepce e Louis Jacques Mande Daguerre e l'inglese William Henry Fox Talbot. Niepce cerc• di far annerire dalla luce solare il cloruro d'argento e ottenne la prima rudimentale fotografia nel 1822; essa aveva richiesto 8 ore di esposizione! Daguerre si associ• con Niepce poco prima che questi morisse e miglior• di molto il procedimento. Dopo aver esposto i sali d'argento alla luce solare, egli fece sciogliere quelli che non erano stati modificati in tiosolfato di sodio, secondo un procedimento suggerito dallo scienziato John Herschel (figlio di William Herschel). Nel 1839, Daguerre produceva i "dagherrotipi", le prime vere fotografie, che non richiedevano pi— di venti minuti di esposizione. Talbot miglior• ancora il processo, producendo i "negativi", in cui le zone colpite dalla luce risultano annerite: si ha quindi l'inversione tra zone chiare e zone scure. Da un negativo si possono ottenere quanti "positivi" si vogliono, invertendo nuovamente i chiari e gli scuri, cioŠ riportando le cose come erano nell'originale. Nel 1844 Talbot pubblic• il primo libro illustrato con fotografie. La fotografia ben presto dimostr• la sua enorme utilit… ai fini della documentazione storica: negli anni successivi al 1850 gli inglesi fotografarono scene della guerra di Crimea, e nel decennio seguente il fotografo americano Matthew Brady, con un'apparecchiatura che oggi considereremmo assolutamente troppo primitiva per essere comunque utilizzata, realizz• le sue classiche immagini della Guerra di secessione americana. Per quasi mezzo secolo si dovettero usare "lastre umide", cioŠ lastre di vetro su cui era spalmata un'emulsione di sostanze chimiche; esse andavano preparate sul posto e la fotografia andava fatta prima che l'emulsione si essiccasse. Finch‚ non furono superati questi limiti, solo esperti professionisti potevano fare riprese fotografiche. Nel 1878, per•, un inventore americano, George Eastman, scoprŤ un nuovo procedimento che consisteva nel miscelare l'emulsione con gelatina, e poi spalmarla sulla lastra; lasciandola essiccare fino a che diventava un gel solido, essa era in grado di mantenere a lungo le sue propriet…. Nel 1884 Eastman brevett• la "pellicola fotografica", ottenuta spalmando il gel in un primo tempo sulla carta, poi, nel 1889, sulla celluloide. Nel 1888 mise a punto la Kodak, una macchina fotografica con cui si scattavano le foto semplicemente premendo un bottone; poi la pellicola esposta poteva essere consegnata per lo sviluppo a un laboratorio. Ora la fotografia poteva diventare un hobby per tutti, e lo divenne. Con il diffondersi di emulsioni sempre pi— sensibili, ci fu la possibilit… di scattare foto istantanee, e si poterono eliminare le lunghe pose che facevano assumere espressioni stralunate e innaturali. Si sarebbe pensato che era impossibile semplificare ulteriormente le cose, eppure nel 1947 un inventore americano, Edwin Herbert Land, ide• un apparecchio con un rullino di pellicola a doppio strato, formata da un normale negativo e da carta positiva, tra i quali sono sigillati dei prodotti chimici. Al momento opportuno tali prodotti vengono liberati e sviluppano automaticamente la stampa positiva. Pochi minuti dopo lo scatto, la fotografia Š pronta. Per tutto il diciannovesimo secolo le fotografie erano in bianco e nero, prive di colore. All'inizio del ventesimo secolo il fisico francese, oriundo del Lussemburgo, Gabriel Lippmann invent• un procedimento per la fotografia a colori, per il quale gli fu assegnato il premio Nobel per la fisica del 1908. Tuttavia si trattava di una falsa partenza: solo nel 1936 venne sviluppata una tecnica utilizzabile per la fotografia a colori. Questo secondo, e pi— fortunato, tentativo era basato sull'osservazione, fatta nel 1855 da Maxwell e von Helmholtz, che qualsiasi colore dello spettro pu• essere prodotto dalla combinazione di tre sole luci: rossa, verde e blu. Basandosi su tale principio, la pellicola a colori Š composta di tre strati di emulsione - uno sensibile alle componenti verdi dell'immagine, l'altro a quelle rosse e il terzo a quelle blu. Si formano cosŤ tre immagini distinte sovrapposte, ciascuna delle quali riproduce l'intensit… della luce nella rispettiva porzione dello spettro luminoso analogamente a quanto succede nella fotografia in bianco e nero. Poi la pellicola viene trattata in tre stadi successivi, usando coloranti rossi, blu e verdi per depositare sul negativo i colori appropriati. Ogni punto dell'immagine risulta da una particolare combinazione di rosso, verde e blu, e il cervello interpreta queste combinazioni ricostituendo l'intera gamma dei colori. Nel 1959, Land propose una nuova teoria della visione dei colori. Il cervello, secondo Land, non ha bisogno di una combinazione di tre colori per avere la sensazione di tutti i colori; bastano due diverse lunghezze d'onda, o insiemi di lunghezze d'onda, una pi— lunga dell'altra di una data quantit… minima. Per esempio, uno dei due insiemi di lunghezze d'onda potrebbe essere l'intero spettro, cioŠ la luce bianca. Dato che la lunghezza d'onda media della luce bianca Š nella regione giallo-verde, essa pu• fungere da lunghezza d'onda ®cortaŻ. Ora, un'immagine riprodotta mediante una combinazione di luce bianca e di luce rossa (quest'ultima che funge da lunghezza d'onda ®lungaŻ) risulta di tutti i colori. Land ha anche ottenuto fotografie a colori con luce verde e luce rossa filtrate, nonch‚ con altre appropriate combinazioni di due colori. L'invenzione del cinema deriva da un'osservazione fatta per la prima volta nel 1824 dal medico inglese Peter Mark Roget. Questi not• che le immagini che si formano nell'occhio sono persistenti, cioŠ durano per qualche frazione di secondo. Dopo l'invenzione della fotografia molti sperimentatori, soprattutto in Francia, sfruttarono questo fatto per creare l'illusione del moto, presentando una serie di immagini in rapida successione. Tutti conosciamo quel giochetto che si fa con una serie di cartoncini illustrati, che, fatti scorrere rapidamente, danno l'impressione di una figura in moto che esegue acrobazie. Una serie di immagini, ciascuna leggermente diversa dalla precedente, che venga rapidamente proiettata su uno schermo a intervalli di circa un sedicesimo di secondo, si fonde in virt— della persistenza delle immagini sulla retina, dando l'impressione di un moto continuo. Fu Edison a presentare le prime immagini in movimento, facendo una serie di fotografie su una stessa pellicola, che poi fece scorrere velocemente in un proiettore che ne illuminava ciascuna con un lampo. La prima "pellicola cinematografica" di intrattenimento fu proiettata nel 1894; e, nel 1914, nelle sale cinematografiche si proiettava ormai il lungometraggio "La nascita di una nazione". Al cinema muto venne aggiunta una "colonna sonora" a partire dal 1927. Anche la colonna sonora Š basata su un effetto ottico: la configurazione delle onde sonore della musica e del parlato viene convertita mediante un microfono in una corrente elettrica modulata, la quale fa accendere una lampadina che viene fotografata mentre si sviluppa l'azione del film. Quando il film, con questa traccia ottica laterale, viene proiettato sullo schermo, la luminosit… della lampada, variabile secondo la configurazione delle onde sonore, viene riconvertita in corrente elettrica mediante una fotocellula che sfrutta l'effetto fotoelettrico, e la corrente viene a sua volta riconvertita in suono. Due anni dopo l'uscita del primo "film sonoro", "Il cantante di jazz", il cinema muto apparteneva ormai al passato e quasi altrettanto poteva dirsi del teatro di variet…. Verso la fine degli anni trenta venne aggiunto anche il colore, e gli anni cinquanta videro lo sviluppo delle tecniche dello schermo panoramico, nonch‚ un breve periodo di fortuna degli effetti tridimensionali (3D), ottenuti proiettando sullo stesso schermo due immagini: lo spettatore, usando occhiali polarizzatori, vedeva un'immagine distinta con ciascuno degli occhi, il che produceva un effetto stereoscopico. MOTORI A COMBUSTIONE INTERNA. Mentre il cherosene, una frazione del petrolio, cedeva il passo all'elettricit… nel campo dell'illuminazione artificiale, una frazione pi— leggera del petrolio, la benzina, diventava indispensabile per un altro sviluppo tecnologico destinato a rivoluzionare la vita moderna altrettanto a fondo quanto i vari apparecchi elettrici. Si tratta dello sviluppo del "motore a combustione interna", cosŤ chiamato perch‚ in tale motore il combustibile viene bruciato dentro al cilindro, in modo che i gas formatisi sospingano direttamente il pistone. Le normali macchine a vapore sono motori a combustione esterna, perch‚ il combustibile viene bruciato all'esterno e il vapore viene successivamente introdotto, appena formato, nel cilindro. L'automobile. Questo motore di struttura compatta, nel cui cilindro avvengono piccole esplosioni, ha reso possibile fornire forza motrice a piccoli veicoli, compito per il quale l'ingombrante macchina a vapore non era molto adatta. Certamente ®carrozze senza cavalliŻ azionate dal vapore erano gi… state ideate nel 1786, allorch‚ William Murdock, che pi— tardi avrebbe introdotto l'illuminazione a gas, ne costruŤ una. Un secolo dopo, l'inventore americano Francis Edgar Stanley invent• la famosa ®vaporiera di StanleyŻ, che per un certo tempo fu in competizione con i primi veicoli muniti di motore a combustione interna. Il futuro, per•, era di questi ultimi. In realt… alcuni motori a combustione interna erano stati costruiti all'inizio del diciannovesimo secolo, prima che il petrolio entrasse nell'uso comune. Come carburante, essi bruciavano vapori di trementina o idrogeno. Ma fu solo con la benzina, l'unico liquido che produce vapore ed Š al tempo stesso combustibile e ottenibile in grandi quantit…, che il motore a combustione interna pot‚ diventare qualcosa di pi— di una semplice curiosit…. Il primo motore a combustione interna utilizzabile in pratica fu costruito nel 1860 da un inventore francese, Etienne Lenoir, che lo applic• a un piccolo veicolo divenuto la prima ®carrozza senza cavalliŻ di questo genere. Nel 1876 l'ingegnere tedesco Nikolaus August Otto, avendo avuto notizia del motore di Lenoir, costruŤ un "motore a quattro tempi". Un pistone che scorre a tenuta in un cilindro viene spinto verso il basso, e risucchia nel cilindro una miscela di benzina e aria; poi il pistone viene di nuovo spinto verso l'alto e comprime il vapore. Al punto di massima compressione il vapore viene acceso ed esplode. L'esplosione spinge il pistone verso il basso, ed Š questa fase attiva a far funzionare il motore, che fa girare una ruota, la quale a sua volta sospinge nuovamente il pistone verso l'alto nel cilindro, espellendo i residui della combustione, o "gas di scarico" - quarto e ultimo stadio del ciclo. A questo punto, la ruota, agendo da volano, spinge il pistone in basso e il ciclo ricomincia. Un ingegnere scozzese, Dugald Clerk, introdusse quasi subito un miglioramento: egli colleg• un secondo cilindro, in modo che il suo pistone fosse nella fase attiva mentre l'altro era nella fase morta di scarico; era cosŤ assicurata una erogazione d'energia pi— costante. In seguito l'aggiunta di altri cilindri (oggi in genere i cilindri vanno da 4 a 8) aument• la regolarit… e la potenza del "motore alternativo". Questo genere di motore era indispensabile per avere delle automobili utilizzabili nella pratica; tuttavia occorrevano ancora alcune invenzioni ausiliarie. L'accensione della miscela benzina-aria al momento giusto costituiva un problema. Vennero adottati espedienti ingegnosi di ogni sorta, ma nel 1923 divenne di uso comune un sistema basato sull'elettricit…: quest'ultima viene fornita da una "batteria", che, come tutti i sistemi del genere, fornisce elettricit… prodotta da una reazione chimica; essa, per•, pu• essere ricaricata inviando una corrente elettrica in direzione opposta alla scarica, in modo da invertire la reazione chimica e da poter ottenere poi altra elettricit…. La corrente inversa Š fornita da un piccolo generatore azionato dal motore stesso. Il tipo pi— comune di batteria ricaricabile Š formato da piastre alternate di piombo e ossido di piombo, immerse in una soluzione di acido solforico abbastanza concentrato. La batteria fu inventata dal fisico francese Gaston Plant‚ nel 1859 e perfezionata nel 1881 dall'ingegnere elettrotecnico americano Charles Francis Brush. In seguito sono state inventate batterie pi— resistenti e pi— compatte - per esempio quella a nichel-ferro ideata da Edison verso il 1905 - ma dal punto di vista economico nessuna pu• competere con la batteria al piombo. L'energia fornita dalla batteria viene immagazzinata nel campo magnetico di un trasformatore, chiamato "bobina d'induzione", e la caduta di questo campo fornisce il brusco incremento di tensione che provoca la scintilla di accensione tra gli elettrodi della ben nota candela. Una volta che un motore a combustione interna si Š messo in moto, seguiter… a girare per inerzia tra uno scoppio e l'altro. Ma per metterlo in moto occorre fornire energia dall'esterno. All'inizio esso veniva messo in moto a mano (mediante la manovella); i fuoribordo e i tosaerba vengono ancora oggi avviati a strappo con una corda. La manovella richiedeva una notevole forza; e quando il motore si avviava capitava che la manovella sfuggisse di mano, girasse e rompesse il braccio del malcapitato manovratore. Nel 1912 l'inventore americano Charles Franklin Kettering invent• un dispositivo di "avviamento automatico", che eliminava finalmente la manovella. Esso Š azionato dalla batteria, che fornisce l'energia per i primi giri del motore. Le prime automobili funzionanti furono costruite, indipendentemente, nel 1885 dagli ingegneri tedeschi Gottlieb Daimler e Karl Benz. Ma quello che ne fece veramente un veicolo diffuso fu l'avvento della "produzione in serie". Il primo a ideare questa tecnica fu Eli Whitney, che merita maggior riconoscimento per questo che per la sua invenzione pi— famosa, quella della sgranatrice di cotone. Nel 1789, Whitney ottenne dal governo federale una commessa di fucili per l'esercito; fino ad allora, i fucili erano stati fabbricati uno per uno, mettendo insieme pezzi singoli. Whitney ebbe l'idea di costruire pezzi uniformi, in modo che ciascuno andasse bene per qualsiasi fucile. Quest'unica, semplice innovazione - fabbricare pezzi standard, intercambiabili per un dato tipo di articolo - Š forse il fattore che maggiormente ha contribuito alla nascita della moderna industria basata sulla produzione in serie. Quando si ebbero a disposizione macchine utensili, fu possibile stampare pezzi standard in numero praticamente illimitato. Fu l'ingegnere americano Henry Ford che per primo sfrutt• fino in fondo la nuova idea. Egli aveva costruito la prima automobile (a due cilindri) nel 1892; poi, nel 1899, era passato a lavorare come direttore tecnico per la Detroit Automobile Company. Questa industria intendeva produrre automobili fuori serie, ma Ford aveva in mente qualcos'altro. Nel 1902 diede le dimissioni e si mise a produrre automobili in proprio su vasta scala. Nel 1909, cominci• a sfornare il Modello T; e nel 1913 cominci• a fabbricarlo secondo il sistema di Whitney - automobile dopo automobile, ognuna esattamente uguale a quella precedente, e tutte fatte di parti uguali. Ford comprese di poter accelerare la produzione usando l'uomo come venivano usate le macchine, cioŠ facendo ripetere a ciascuno la stessa operazione parcellizzata in continuazione, con regolarit…. L'inventore americano Samuel Colt (che aveva inventato la rivoltella, la ®sei colpiŻ) aveva fatto i primi passi in questa direzione nel 1847; e l'industriale Ransom E. Olds aveva applicato il sistema all'automobile nel 1900. Tuttavia Olds perse l'appoggio dei suoi finanziatori, e tocc• a Ford cogliere i frutti di questa intuizione. Ford istituŤ la "catena di montaggio", in cui ciascun operaio aggiungeva un pezzo al prodotto quando questo gli passava davanti su un nastro trasportatore, finch‚, alla fine della catena, usciva l'automobile completa. Con questo sistema si conseguivano due vantaggi economici: alti salari per gli operai e automobili che si potevano vendere a prezzi incredibilmente bassi. Nel 1913, Ford fabbricava mille Modello T al giorno. Prima dell'interruzione della produzione, nel 1927, ne erano stati messi in commercio 15 milioni e il prezzo era sceso a 290 dollari. Poi ebbe il sopravvento la mania di cambiare modello ogni anno e Ford fu costretto ad adeguarsi allo sfoggio di variet… e novit… superficiali che fece salire enormemente i prezzi delle automobili e fece perdere agli americani gran parte dei vantaggi della produzione in serie. Nel 1892, l'ingegnere meccanico tedesco Rudolf Diesel introdusse una modifica del motore a combustione interna, che lo rese pi— semplice e pi— economico quanto a combustibile. Egli sottopose a forte pressione la miscela aria-carburante, in modo che bastasse il calore della compressione a causare l'accensione. Il "motore diesel" consentŤ l'utilizzo di frazioni di petrolio a pi— alto punto di ebollizione, che non sono detonanti. A causa dell'elevata compressione, il motore doveva essere pi— solido; pertanto il motore diesel Š considerevolmente pi— pesante di quello a benzina. Ma quando, negli anni venti, fu ideato un sistema conveniente di iniezione del combustibile, il motore diesel cominci• a essere preferito per camion, trattori, autobus, navi e locomotive, e oggi Š l'indiscusso re del trasporto pesante. Miglioramenti nella composizione della stessa benzina aumentarono ulteriormente il rendimento del motore a combustione interna. La benzina Š una miscela complessa di molecole costituite da atomi di carbonio e di idrogeno ("idrocarburi"), alcune delle quali bruciano pi— rapidamente di altre. E' controproducente una combustione troppo rapida, perch‚ farebbe esplodere la miscela aria-benzina in troppi punti contemporaneamente, producendo la "detonazione nel motore". Una combustione pi— lenta produce un'espansione uniforme del vapore, che d… al pistone una spinta regolare ed efficace. L'intensit… di detonazione prodotta da una data benzina Š misurata dal "numero di ottano"; questo Š ottenuto prendendo come riferimento l'"iso-ottano", un idrocarburo che Š molto lento a produrre la detonazione, misto a eptano, che Š invece molto rapido. Una delle ragioni principali - fra molte altre - per cui si raffina la benzina Š proprio quella di ottenere una miscela di idrocarburi con un alto numero di ottano. I motori per le automobili sono stati progettati nel corso degli anni con un "rapporto di compressione" sempre pi— elevato: cioŠ la miscela aria-benzina viene compressa a densit… sempre maggiori prima dell'accensione; si ha cosŤ una maggiore potenza, ma anche una maggiore tendenza alla detonazione; Š per questo che si sono dovute sviluppare benzine con numero di ottano sempre maggiore. Il compito Š stato facilitato dal ricorso a prodotti chimici che, se aggiunti in piccole quantit… alla benzina, fungono da antidetonanti. Tra questi il pi— efficace Š il "piombo tetraetile", un composto del piombo le cui propriet… furono individuate dal chimico americano Thomas Midgley, e che fu utilizzato per la prima volta a questo scopo nel 1925. La benzina che lo contiene Š "benzina al piombo", o "benzina etilata". Se il piombo tetraetile fosse presente da solo, gli ossidi di piombo che si formerebbero durante la combustione sporcherebbero e guasterebbero il motore; per tale ragione si aggiunge anche etilbromuro: l'atomo metallico del piombo tetraetile si combina con l'atomo di bromo dell'etilbromuro formando bromuro di piombo, il quale, alla temperatura a cui brucia la benzina, vaporizza e viene espulso con i gas di scarico. Il ritardo nell'accensione dopo la compressione, nei combustibili per motori diesel (un ritardo eccessivo Š indesiderabile), Š valutato per confronto con quello del "cetano" (o n-esadecano), un idrocarburo che contiene sedici atomi di carbonio nella sua molecola, contro gli otto dell'iso-ottano. Pertanto si parla di "numero di cetano", a proposito dei combustibili diesel. I progressi non sono finiti. Nel 1923, arrivarono i pneumatici a bassa pressione, all'inizio degli anni cinquanta quelli senza camera d'aria, che resero pi— rari gli scoppi. Negli anni quaranta le automobili ebbero il condizionamento dell'aria, ed entr• nell'uso il cambio automatico, che sostituŤ quello manuale. Negli anni cinquanta arrivarono il servosterzo e il servofreno. L'automobile Š diventata a tal punto parte integrante del modo di vivere di ogni giorno che, nonostante l'alto costo della benzina e il crescente pericolo di inquinamento, non sembra proprio che ci sia alcun modo di liberarsene, a meno che non intervenga una catastrofe universale. L 'aeroplano. Versioni pi— grandi dell'automobile furono gli autobus e i camion; il petrolio sostituŤ il carbone sulle grandi navi, ma il massimo trionfo del motore a combustione interna doveva venire dall'aria. Nell'ultimo decennio dell'Ottocento, gli uomini avevano realizzato il vecchio sogno di volare - un sogno pi— vecchio di Dedalo e di Icaro. Il volo a vela era ormai uno sport che contava i suoi appassionati. Il primo "aliante" in grado di portare un uomo a bordo fu costruito nel 1853 dall'inventore inglese George Cayley. In realt… trasportava non proprio un uomo, ma un ragazzo. Il primo vero professionista di questo tipo di impresa sportiva, l'ingegnere tedesco Otto Lilienthal, morŤ nel 1896 durante un volo in aliante. Nel frattempo si era fatta sempre pi— intensa l'aspirazione a decollare con un apparecchio a motore, anche se l'aliante Š rimasto fino a oggi uno sport molto praticato. Il fisico e astronomo americano Samuel Pierpont Langley tent•, nel 1902 e nel 1903, di volare con un aliante munito di un motore a combustione interna e fu a un pelo dal riuscire nella sua impresa; se non gli fossero mancati a un certo punto i soldi, prima o poi probabilmente ci sarebbe riuscito. Le cose andarono diversamente e l'onore tocc• ai fratelli Orville e Wilbur Wright, fabbricanti di biciclette che si dedicavano all'aliante come hobby. Il 17 dicembre 1903, a Kitty Hawk nella Carolina del Nord, i fratelli Wright si staccarono dal suolo su un aliante spinto da un'elica e restarono in aria per 59 secondi, volando per 260 metri. Fu il primo volo in aeroplano della storia, ma pass• quasi del tutto inosservato. Molto maggior interesse suscitarono i fratelli Wright quando volarono per 40 chilometri e pi— e l'ingegnere francese Louis Bl‚riot quando, nel 1909, attravers• la Manica in aeroplano. Le battaglie aeree e le imprese aviatorie della prima guerra mondiale eccitarono ancora di pi— l'immaginazione; e i "biplani" di quei tempi, con le loro due ali tenute precariamente insieme da montanti e cavi, divennero familiari a un'intera generazione postbellica di frequentatori di cinema. L'ingegnere tedesco Hugo Junkers progett• con successo un "monoplano" subito dopo la guerra; e la spessa ala singola, senza montanti, prese il sopravvento. L'ingegnere russo-americano Igor Ivan Sikorsky nel 1939 costruŤ un aereo a pi— motori e progett• il primo "elicottero", un aereo munito di pale nella parte superiore, che poteva decollare e atterrare verticalmente e anche star fermo in volo. Tuttavia, nei primi anni venti, l'aeroplano era ancora pi— o meno una curiosit… - solo un nuovo e pi— terribile strumento di guerra, oppure un oggetto di svago per spericolati e gente alla ricerca del brivido. L'anno di nascita dell'aviazione, nel significato attuale del termine, fu per• il 1927, allorch‚ Charles Augustus Lindbergh compŤ un volo senza scalo da New York a Parigi. Il mondo impazzŤ di entusiasmo per la sua impresa, ed ebbe inizio lo sviluppo di aerei pi— grandi e pi— sicuri. Due importanti innovazioni furono introdotte nel propulsore degli aerei dopo che questi ebbero assunto il ruolo di mezzi di trasporto: la prima fu l'adozione del motore a turbina, nel quale i vapori ad altissima temperatura della combustione, espandendosi, mettevano in moto una girante esercitando una pressione sulle sue palette, anzich‚ spingere i pistoni nei cilindri. Ne derivava un motore pi— semplice ed economico, meno esposto a guasti; l'unico problema da risolvere era quello di trovare delle leghe adatte a sostenere le alte temperature dei gas; leghe con tale caratteristica furono realizzate nel 1939, dopo di che gli "aerei a turboeliche", che usavano un motore a turbina per azionare l'elica, si diffusero sempre pi—. Ciononostante la loro vita fu breve, almeno per quanto riguarda i lunghi voli, perch‚ furono ben presto sostituiti dalla seconda innovazione importante: "l'aereo a reazione", o jet. Qui la forza motrice Š, in linea di principio, la stessa che fa sfrecciare in avanti un palloncino allorch‚ se ne apre l'imboccatura lasciando fuoriuscire l'aria. Il principio in gioco Š quello di azione e reazione: il moto in una data direzione dell'aria che si espande uscendo dal palloncino suscita un moto, o una spinta, uguale nella direzione opposta - cosŤ come il moto in avanti della pallottola di un fucile provoca il rinculo. Nel motore a reazione la combustione del carburante produce gas molto caldi e ad alta pressione, che spingono in avanti l'aereo con gran forza uscendo dallo scarico in direzione opposta. Anche un razzo si muove in base allo stesso principio, salvo che deve portare con s‚ una riserva di ossigeno per bruciare il combustibile. Brevetti per la "propulsione a reazione" erano stati depositati dall'ingegnere francese Ren‚ Lorin fin dal 1913; ma a quell'epoca essi costituivano un progetto del tutto inapplicabile agli aeroplani. La propulsione a reazione Š economica soltanto a velocit… superiori ai 650 chilometri all'ora. Nel 1939 un inglese, Frank Whittle, fece volare un aereo a reazione abbastanza ben funzionante; nel gennaio del 1944, infine, aerei a reazione furono messi in campo durante la guerra dalla Gran Bretagna e dagli Stati Uniti contro le "bombe volanti", le V-1 tedesche, aeromobili senza pilota che portavano nel muso l'esplosivo. Dopo la seconda guerra mondiale furono costruiti jet militari che raggiungevano una velocit… vicina a quella del suono; quest'ultima dipende dall'elasticit… naturale delle molecole dell'aria, cioŠ dalla loro capacit… di spostarsi avanti e indietro. Quando un aereo si avvicina a tale velocit…, le molecole dell'aria non riescono, per cosŤ dire, a togliersi di mezzo e restano compresse davanti all'aereo, che di conseguenza viene sottoposto a sforzi e tensioni di ogni genere. A questo fenomeno si alludeva con l'espressione "barriera del suono", come se esistesse qualcosa di materiale a cui non ci si potesse avvicinare senza pericolo di distruzione. I test effettuati nelle gallerie del vento consentirono per• di migliorare l'aerodinamica dei velivoli, cosŤ che il 14 ottobre 1947 un aereo razzo X-1 americano, pilotato da Charles Elwood Yeager, ®infranse la barriera del suonoŻ. Per la prima volta nella storia un essere umano aveva superato la velocit… del suono. Le battaglie aeree nella guerra di Corea, all'inizio degli anni cinquanta, furono combattute da aerei a reazione che si spostavano a velocit… tali che furono relativamente pochi quelli abbattuti. Il rapporto tra la velocit… di un oggetto e la velocit… del suono (che Š di 1190 chilometri all'ora nell'aria a 0 gradi C) nel mezzo in cui l'oggetto si sposta Š chiamato "numero di Mach", dal nome del fisico austriaco Ernst Mach, che fu il primo a studiare teoricamente, verso la met… del diciannovesimo secolo, le conseguenze del moto a tali velocit…. Negli anni sessanta, le velocit… degli aerei erano superiori a Mach 5, cosa resa possibile dall'aereo sperimentale X-15, i cui razzi lo spingevano per brevi periodi di tempo cosŤ in alto da consentire ai piloti di considerarsi astronauti. Gli aerei militari viaggiano a velocit… inferiori, e quelli commerciali a velocit… ancora pi— basse. Un aereo che si muove a "velocit… supersonica" (superiore a Mach 1) spinge le sue onde sonore dinnanzi a s‚, perch‚ viaggia pi— veloce di loro. Se l'aereo si trova a bassa quota, il cono delle onde d'urto pu• raggiungere il suolo e provocare il ben noto e caratteristico "bang". (Lo schiocco di una frusta Š anch'esso un bang sonico in miniatura perch‚, se si maneggia la frusta opportunamente, il suo apice pu• raggiungere una velocit… supersonica.) Il volo supersonico commerciale fu inaugurato negli anni settanta dall'anglo-francese Concorde, capace di attraversare l'Atlantico in tre ore, viaggiando a velocit… doppia di quella del suono. Una versione americana di aereo S.S.T. ("aeromobile supersonico da trasporto") abortŤ nel 1971, a causa di polemiche sui rumori eccessivi prodotti negli aeroporti e sulla possibilit… di danni all'ambiente. E' stato messo in rilievo da alcuni il fatto che questa Š stata la prima volta che un progresso tecnologico fattibile non Š stato realizzato perch‚ Š apparso non desiderabile, la prima volta che gli esseri umani hanno detto: ®Potremmo, ma preferiamo non farloŻ. In complesso, probabilmente Š stato un bene, perch‚ a quanto pare i vantaggi non giustificavano i costi. Il Concorde Š stato un fallimento dal punto di vista economico, (nota) e il programma S.S.T. sovietico Š stato compromesso quando uno di tali aerei si Š schiantato a terra durante un'esibizione a Parigi, nel 1973. NOTA: A dieci anni dal suo primo volo (21 gennaio 1976) il Concorde Š diventato economicamente attivo. Causa principale di questa inversione di tendenza Š stata l'acquisizione di nuove rotte transatlantiche e il calo del prezzo del greggio. [N.d. R.] ELETTRONICA. La radio. Nel 1888, Heinrich Hertz condusse il famoso esperimento che rivel• le onde radio, la cui esistenza era stata prevista venti anni prima da James Clerk Maxwell (vedi capitolo ottavo). Una corrente alternata ad alta tensione provocava una sovratensione transitoria prima in una sferetta metallica, poi in una seconda, separate da una piccola intercapedine di aria. Ogni volta che il potenziale raggiungeva un massimo in una direzione o nell'altra, scoccava una scintilla fra le due sferette; le equazioni di Maxwell prevedevano che, in una situazione di questo genere, si sarebbe prodotta una radiazione elettromagnetica. Hertz us• un rivelatore formato da una semplice spira metallica interrotta in un punto, per rivelare la presenza di tale energia. Come la corrente dava origine a una radiazione nel primo circuito, cosŤ la radiazione avrebbe dovuto dar origine a una corrente nel circuito rivelatore. Infatti Hertz pot‚ scorgere piccole scintille che saltavano fra i due terminali del rivelatore, situato dalla parte opposta della stanza rispetto alla bobina che emetteva la radiazione. L'energia era stata dunque trasmessa attraverso lo spazio. Spostando il rivelatore in punti diversi della stanza, Hertz riuscŤ a determinare la forma delle onde. Dove le scintille erano forti e brillanti, le onde erano a un massimo o a un minimo. Nei punti in cui non si produceva alcuna scintilla, doveva esserci un nodo delle onde; in tal modo egli pot‚ calcolare la lunghezza d'onda della radiazione e scoprŤ che si trattava di onde enormemente pi— lunghe di quelle della luce. Nel decennio successivo varie persone compresero che era possibile usare le onde hertziane per trasmettere messaggi da un luogo a un altro, perch‚ le onde erano abbastanza lunghe da aggirare gli ostacoli. Nel 1890, il fisico francese Edouard Branly costruŤ un rivelatore pi— avanzato, sostituendo alla spira metallica un tubo di vetro pieno di limatura metallica a cui erano collegati dei fili e una batteria. La limatura non lasciava passare la corrente della batteria se non vi si induceva una corrente alternata ad alta tensione, proprio come avveniva con le onde hertziane. Con questo ricevitore Branly pot‚ rivelare la presenza di onde hertziane alla distanza di quasi 150 metri. In seguito il fisico inglese Oliver Joseph Lodge (che pi— tardi si conquist• una dubbia fama come paladino dello spiritualismo) modific• questo apparecchio riuscendo a captare segnali a una distanza di quasi un chilometro e a inviare messaggi in alfabeto Morse. L'inventore italiano Guglielmo Marconi scoprŤ che si potevano migliorare ulteriormente le cose collegando un lato del generatore e del ricevitore a terra e l'altro a un filo metallico, che fu poi chiamato "antenna" (suppongo per la sua somiglianza con quella di un insetto). Usando generatori molto potenti, Marconi riuscŤ, nel 1896, a inviare segnali a una distanza di una quindicina di chilometri, nel 1898, a far loro attraversare la Manica e, nel 1901, l'Atlantico. Era cosŤ nato il cosiddetto telegrafo senza fili, o, come si disse poi, la "radiotelegrafia", o in breve la "radio". Marconi elabor• un sistema per eliminare dai segnali le "scariche statiche" (o disturbi) e per sintonizzarsi solo sulle lunghezze d'onda emesse dal trasmettitore. Per le sue invenzioni Marconi condivise il premio Nobel per la fisica nel 1909 con il fisico tedesco Karl Ferdinand Braun, che aveva contribuito allo sviluppo della radio mostrando che certi cristalli lasciano passare la corrente in una sola direzione; si poteva cosŤ convertire la normale corrente alternata in corrente continua, come era necessario per la trasmissione radio. I cristalli avevano un comportamento discontinuo, e nel primo decennio del secolo la gente passava ore china sui "ricevitori a galena" nel tentativo di captare i segnali. Il fisico americano Reginald Aubrey Fessenden progett• un generatore speciale di correnti alternate ad alta frequenza (che permetteva di fare a meno del generatore a scintilla) e ide• un sistema per "modulare" l'onda radio in modo che essa trasportasse una configurazione che riproduceva l'onda sonora. Quello che veniva modulato era l'ampiezza (o altezza) delle onde; di conseguenza questo sistema prese il nome di "modulazione di ampiezza", e oggi Š noto come "radio A.M.". La vigilia di Natale del 1906 per la prima volta un ricevitore radio emise della musica e delle parole. I primi entusiasti della radio dovevano star vicini al loro apparecchio, portando una cuffia. Occorreva "amplificare" il segnale, cioŠ rinforzarlo, e il mezzo lo fornŤ una scoperta che era stata fatta da Edison - la sua unica scoperta di scienza ®puraŻ. Nel 1883, in uno dei suoi esperimenti volti a migliorare la lampadina elettrica, Edison sigill• un filo metallico all'interno del bulbo vicino al filamento incandescente e not• con sorpresa che l'elettricit… passava dal filamento incandescente al filo metallico attraverso l'aria interposta. Dato che questo fenomeno non aveva alcuna utilit… per i suoi scopi, Edison, da quell'uomo pratico che era, si limit• ad annotarlo nel suo taccuino e se ne dimentic•. Ma l'"effetto Edison" assunse un'importanza davvero grande quando si scoprŤ l'elettrone e fu chiaro che una corrente che attraversa uno spazio vuoto significa un flusso di elettroni. Il fisico inglese Owen Willans Richardson mostr•, in esperimenti condotti tra il 1900 e il 1903, che gli elettroni ®evaporanoŻ fuoriuscendo dai filamenti metallici riscaldati nel vuoto. Per le sue ricerche egli ricevette il premio Nobel per la fisica del 1928. Nel 1904, l'ingegnere elettrotecnico inglese John Ambrose Fleming applic• brillantemente l'effetto Edison, ponendo in un bulbo, intorno al filamento, una piastrina di metallo cilindrica (detta "placca"), che poteva comportarsi in due modi: se era carica positivamente, attraeva gli elettroni che ®evaporavanoŻ dal filamento riscaldato, creando un circuito in cui passava corrente elettrica; ma se la placca era carica negativamente, respingeva gli elettroni, impedendo il passaggio della corrente. Supponiamo ora di collegare alla placca una sorgente di corrente alternata: quando questa scorre in una direzione, la placca si carica positivamente e lascia passare la corrente nel tubo; quando la direzione della corrente alternata si inverte, la placca si carica negativamente e nel tubo non passa corrente. Pertanto la placca lascia passare corrente in una sola direzione; in pratica, converte una corrente alternata in corrente continua. Dato che un siffatto congegno funge da valvola rispetto al passaggio della corrente, esso viene chiamato, logicamente, "valvola" (anche se talora la si chiama, piuttosto impropriamente, tubo); gli scienziati l'hanno definita "diodo", a causa dei due elettrodi - il filamento e la placca. La "valvola elettronica" (o "tubo elettronico a vuoto"), usata all'inizio soprattutto nella radio, controlla il passaggio di elettroni nel vuoto anzich‚ quello di una corrente elettrica in un filo. Gli elettroni possono essere controllati in modo molto pi— sensibile della corrente, per cui le valvole (e tutti i loro derivati) aprirono la via a innumerevoli nuovi congegni elettronici capaci di svolgere compiti impossibili per un semplice congegno elettrico. Lo studio e l'utilizzazione delle valvole elettroniche e dei loro derivati ha preso il nome di "elettronica". Nella sua forma pi— semplice, la valvola elettronica funge da rettificatore e, essendo molto pi— affidabile, ha sostituito i cristalli usati in precedenza. Nel 1907, l'inventore americano Lee De Forest fece un ulteriore passo avanti, inserendo un terzo elettrodo nel tubo, cioŠ facendone un "triodo". Il terzo elettrodo consiste in una piastrina forata ("griglia") posta tra il filamento e la placca. La griglia attrae gli elettroni e ne accelera il flusso dal filamento alla placca (attraverso i fori). Basta un piccolo aumento della carica positiva della griglia a produrre un forte aumento del flusso degli elettroni; di conseguenza anche la piccola carica aggiunta da deboli segnali radio far… aumentare di molto il flusso di corrente; tale corrente rispecchier… tutte le variazioni provocate dalle onde radio. Il triodo, insomma, funge da amplificatore. I triodi, e altre modificazioni del tubo elettronico ancora pi— complesse, sono diventati essenziali, non solo per gli apparecchi radio, ma per tutti i tipi di apparecchiature elettroniche. Per assicurare alla radio la massima diffusione occorreva fare ancora un passo avanti. Durante la prima guerra mondiale l'ingegnere elettrotecnico americano Edwin Howard Armstrong progett• un apparecchio che abbassava la frequenza delle onde radio, cosa che all'epoca aveva lo scopo di avvistare gli aerei, ma che, dopo la guerra, trov• un'altra applicazione nelle radio. Il "ricevitore a supereterodina" di Armstrong rese possibile sintonizzarsi distintamente con una data frequenza semplicemente girando una manopola, mentre prima era un'impresa abbastanza difficoltosa regolare la ricezione entro una gamma piuttosto vasta di frequenze possibili. Nel 1921, una stazione di Pittsburgh istituŤ per la prima volta dei regolari programmi radio. Altre stazioni seguirono in rapida successione; e con la possibilit… di regolare il volume e di sintonizzarsi su una data stazione solo girando una manopola, gli apparecchi radio si diffusero enormemente. Nel 1927, divenne possibile parlare per telefono attraverso l'oceano con l'aiuto della radio: la "telefonia senza fili" era ormai un fatto compiuto. Restava il problema delle scariche statiche. I sistemi di sintonizzazione introdotti da Marconi e dai suoi successori minimizzavano il ®rumoreŻ provocato da disturbi atmosferici e da altre sorgenti elettriche, ma non li eliminavano del tutto. Fu ancora Armstrong che trov• la soluzione. Nel 1935, alla modulazione di ampiezza, che era soggetta a interferenze da parte di modulazioni di ampiezza casuali, egli sostituŤ la "modulazione di frequenza": cioŠ, mantenne costante l'ampiezza dell'onda radio portante e le sovrappose una variazione di frequenza; se l'onda sonora aveva una grande ampiezza, si rendeva bassa la frequenza dell'onda portante, e viceversa. La modulazione di frequenza ("F.M.") in pratica elimin• le scariche statiche; dopo la seconda guerra mondiale la modulazione di frequenza venne adottata soprattutto per i programmi di musica classica. La televisione. La televisione fu un inevitabile sviluppo della radio, cosŤ come il cinema sonoro fu la continuazione naturale del cinema muto. Il precursore tecnico della televisione fu la trasmissione di immagini mediante filo, il che implicava di tradurre un'immagine in una corrente elettrica. Un sottile pennello di luce attraversava l'immagine su una pellicola fotografica raggiungendo un tubo fotoelettronico posto dietro a essa; dove la pellicola era relativamente opaca, si generava nel tubo una debole corrente mentre l… dove era pi— chiara si formava una corrente pi— intensa. Il pennello luminoso analizzava rapidamente l'immagine da sinistra a destra, riga per riga, producendo una corrente variabile che rappresentava tutta quanta l'immagine. Tale corrente veniva trasmessa via filo, e a destinazione riproduceva l'immagine su una pellicola, invertendo il processo. Queste foto trasmesse via filo (telefoto) gi… nel 1907 viaggiavano tra Parigi e Londra. La televisione Š la trasmissione, anzich‚ di una fotografia ferma, di un immagine in movimento - presa dal vivo o da un film. La trasmissione deve essere estremamente veloce, il che significa che l'azione va analizzata molto rapidamente; la distribuzione dei chiari e degli scuri dell'immagine viene convertita in una distribuzione di impulsi elettrici mediante una fotocamera che usa, al posto della pellicola, un rivestimento di metallo che emette elettroni quando Š colpito dalla luce. Qualcosa di simile alla televisione fu esibito per la prima volta nel 1926 dall'inventore scozzese John Logie Baird. Tuttavia, la prima telecamera (apparecchio da ripresa televisiva) funzionante fu l'"iconoscopio", brevettato nel 1938 dall'inventore americano di origine russa Vladimir Kosma Zworykin. Nell'iconoscopio la parte posteriore dell'apparecchio Š rivestita di un gran numero di minuscole goccioline di cesio-argento, ciascuna delle quali emette elettroni, quando il pennello luminoso la colpisce, proporzionalmente alla intensit… della luce. Pi— tardi l'iconoscopio fu sostituito dall'"orticonoscopio", un perfezionamento in cui il rivestimento di cesio-argento Š tanto sottile da permettere agli elettroni emessi di procedere fino a raggiungere una sottile lastra di vetro che emette ancora pi— elettroni. Questa amplificazione aumenta la sensibilit… della telecamera alla luce, eliminando la necessit… di una forte illuminazione. Il ricevitore televisivo Š una variet… di tubo a raggi catodici. Un fascio di elettroni emessi da un filamento ("cannone elettronico") colpisce uno schermo rivestito di una sostanza fluorescente, che brilla in proporzione all'intensit… del fascio. Coppie di elettrodi, controllando la direzione del fascio, fanno in modo che esso effettui la scansione di tutto lo schermo da destra a sinistra in una serie di centinaia di righe orizzontali, ciascuna immediatamente sotto la precedente; l'intera scansione dell'immagine contenuta sullo schermo viene effettuata in questo modo in un trentesimo di secondo. Il pennello elettronico procede a ®dipingereŻ le immagini successive alla velocit… di trenta al secondo. In nessun istante sullo schermo Š attivato pi— di un punto (luminoso o oscuro, a seconda dei casi), eppure, grazie alla persistenza retinica, noi vediamo non solo delle immagini complete, ma addirittura una sequenza ininterrotta di movimenti e di azione. Trasmissioni televisive a livello sperimentale ebbero inizio negli anni venti, ma l'utilizzo commerciale della televisione dovette attendere fino al 1947; a partire da tale data, essa ha praticamente monopolizzato il campo dello spettacolo e dell'intrattenimento. Verso la met… degli anni cinquanta vennero introdotte due migliorie: venne introdotta la televisione a colori, ottenuta ponendo nello schermo tre tipi di materiali fluorescenti predisposti perch‚ reagissero rispettivamente al verde, al rosso e al blu; e la "videoregistrazione", un tipo di registrazione su nastro abbastanza simile alla colonna sonora dei film, che consentŤ di riprodurre programmi o eventi registrati con una qualit… migliore di quella che si otteneva passando attraverso una pellicola cinematografica. Il transistor. Negli anni ottanta il mondo Š entrato nell'"era della cassetta". Cassette di piccole dimensioni in cui il nastro pu• essere avvolto avanti e indietro riproducendo musica ad alta fedelt… - magari in apparecchi a pila, in modo che la gente possa andarsene in giro o fare i lavori di casa tenendosi la cuffia in testa e ascoltando suoni che gli altri non possono sentire - invasero il mercato, ben presto seguite dalle "videocassette", che consentono di vedere sul proprio piccolo schermo un film o un programma televisivo precedentemente registrati. La valvola elettronica, il cuore di tutti gli apparecchi elettronici, finŤ per diventare un fattore limitante; solitamente le parti che compongono un apparecchio vengono perfezionate gradualmente con il tempo, nel senso che acquistano maggiore efficienza e maggiore flessibilit… e riducono le loro dimensioni e la loro massa, processo che talora viene chiamato "miniaturizzazione". La valvola elettronica, invece, divent• una strozzatura sulla via della miniaturizzazione, perch‚ doveva restare abbastanza grande da contenere un notevole volume di vuoto, se non si voleva che tra i vari componenti al suo interno passasse indebitamente elettricit…, essendo essi troppo poco distanziati. Aveva anche altri difetti: poteva rompersi o ®perdereŻ, diventando inutilizzabile. (Nei primi apparecchi radiofonici e televisivi i tubi venivano sostituiti continuamente; soprattutto per i televisori, sembrava quasi indispensabile la presenza costante di un addetto alle riparazioni.) Inoltre le valvole non entravano in funzione finch‚ i filamenti non si erano riscaldati a sufficienza, il che richiedeva il passaggio di una notevole quantit… di corrente; e ci voleva del tempo perch‚ l'apparecchio ®si scaldasseŻ. Poi, del tutto inaspettatamente, salt• fuori una soluzione. Negli anni quaranta vari scienziati dei Bell Telephone Laboratories si misero a studiare i cosiddetti "semiconduttori", cioŠ dei materiali, come il silicio e il germanio, che conducono l'elettricit… solo parzialmente: si voleva capire la ragione di questo fenomeno. I ricercatori dei Bell Lab scoprirono che si poteva accrescere la conducibilit… miscelando tracce di impurit… con i materiali semiconduttori. Consideriamo il caso di un cristallo di germanio puro: ogni atomo ha quattro elettroni nel suo strato pi— esterno, ciascuno dei quali, nell'ordinato reticolo cristallino, si accoppia con un elettrone di un atomo di germanio contiguo, cosŤ che tutti gli elettroni si trovano accoppiati in legami stabili. Questa disposizione Š simile a quella del diamante; per questo il germanio, il silicio e altre sostanze analoghe vengono detti "adamantini". Se si introduce una piccola quantit… di arsenico in questa disposizione cosiddetta adamantina, le cose si complicano: l'arsenico ha cinque elettroni nel suo strato esterno; un atomo di arsenico che sostituisca un atomo di germanio nel cristallo potr… accoppiare quattro dei suoi cinque elettroni con gli atomi vicini, ma il suo quinto elettrone non trover… un compagno e rester… libero. Se ora si applica una tensione elettrica a questo cristallo, l'elettrone non legato si muover…, dirigendosi verso l'elettrodo positivo. Il suo moto non sar… altrettanto libero quanto quello degli elettroni in un conduttore; purtuttavia il cristallo condurr… l'elettricit… meglio di un nonconduttore, come lo zolfo o il vetro. Fin qui nulla di molto sorprendente; ma ora consideriamo un caso pi— singolare. Aggiungiamo al germanio un po' di boro anzich‚ di arsenico: l'atomo del boro ha nello strato pi— esterno solo tre elettroni, i quali possono accoppiarsi con gli elettroni di tre atomi di germanio; che ne sar… dell'elettrone del quarto atomo di germanio contiguo al boro? Esso si accoppier… con un buco! Il termine ®bucoŻ - in realt… quello tecnico Š ®lacunaŻ - Š appropriato; infatti il luogo in cui l'elettrone dovrebbe trovare il suo partner nel cristallo di germanio puro si comporta effettivamente come un posto vuoto: se si applica una tensione al cristallo ®drogatoŻ con il boro, l'elettrone pi— vicino, attratto dall'elettrodo positivo, andr… a finire nella lacuna, lasciando a sua volta una lacuna nel luogo in cui si trovava; l'elettrone contiguo, pi— distante dall'elettrodo positivo, si sposter… nella nuova lacuna. CosŤ, in pratica, sar… la lacuna a spostarsi, dirigendosi verso l'elettrodo negativo, cioŠ muovendosi esattamente come un elettrone, ma in direzione opposta. In breve, il cristallo Š diventato un conduttore di corrente elettrica. Per funzionare a dovere, il cristallo deve essere quasi perfettamente puro, con l'aggiunta di una ben definita quantit… della impurit… in questione (arsenico o boro). Il semiconduttore germanio-arsenico, con il suo elettrone vagante, viene chiamato di "tipo n" (negativo), mentre quello germanio-boro, in cui a vagare Š una lacuna che si comporta come se fosse carica positivamente, Š detto di "tipo p" (positivo). A differenza di quanto avviene nei conduttori normali, la resistenza elettrica dei semiconduttori cala al crescere della temperatura, perch‚ le temperature superiori indeboliscono la presa degli atomi sugli elettroni, consentendo a questi ultimi di muoversi pi— liberamente. (Nei conduttori metallici gli elettroni sono gi… abbastanza liberi alle temperature ordinarie, cosŤ che, accrescendo le temperature, si aumenta il moto casuale, che ostacola il flusso degli elettroni in risposta al campo elettrico.) Determinando la resistenza di un semiconduttore si possono misurare temperature troppo alte per venire convenientemente misurate in altro modo: semiconduttori di questo genere vengono pertanto chiamati "termistori". Ma i semiconduttori in combinazione tra loro possono fare ben altro: supponiamo di fabbricare un cristallo di germanio per met… di tipo "p" e per met… di tipo "n". Se colleghiamo la parte di tipo "n" a un elettrodo negativo e quella di tipo "p" a uno positivo, gli elettroni della parte di tipo "n" si sposteranno attraverso il cristallo verso l'elettrodo positivo, mentre le lacune della parte di tipo "p" migreranno in direzione opposta, verso l'elettrodo negativo, generando quindi una corrente nel cristallo. Invertendo la situazione - collegando, cioŠ, la parte "n" del semiconduttore con l'elettrodo positivo e viceversa - si otterr… di far viaggiare gli elettroni della parte di tipo "n" verso l'elettrodo positivo - allontanandosi, cioŠ, dalla parte di tipo "p" - mentre le lacune della parte "p" si sposteranno allontanandosi dalla parte "n"; il risultato sar… che le zone prossime alla giunzione tra parte "n" e parte "p" perderanno elettroni liberi e lacune, interrompendo il circuito: non passer… quindi corrente. In breve, abbiamo creato un sistema che pu• fungere da raddrizzatore: se applichiamo una corrente alternata a questo cristallo ®doppioŻ, esso la lascer… passare in una direzione e non nell'altra, convertendo la corrente alternata in corrente continua; il cristallo funzioner… come un diodo, proprio analogamente a una valvola elettronica. In un certo senso l'elettronica ha compiuto un giro completo: il tubo elettronico aveva sostituito il cristallo, e ora il cristallo tornava a sostituire la valvola elettronica; si trattava per• di un cristallo di tipo nuovo, assai pi— sensibile e affidabile di quelli introdotti da Braun circa mezzo secolo prima. Il nuovo cristallo offriva vantaggi enormi rispetto al tubo elettronico: non richiedeva il vuoto, quindi poteva essere piccolo; non si rompeva; non ®perdevaŻ; poich‚ funzionava a temperatura ambiente, richiedeva poca corrente e non aveva bisogno di tempo per riscaldarsi. Insomma, aveva solo vantaggi e nessuno svantaggio, alla sola condizione di riuscire a produrlo in modo abbastanza economico e con sufficiente precisione. I nuovi cristalli, che erano solidi in ogni loro parte, aprirono la via a quella che venne chiamata l'"elettronica dello stato solido". Il nuovo componente fu chiamato "transistor" (su proposta di John Robinson Pierce dei Bell Lab), perch‚ trasferisce (in inglese, "transfers") un segnale attraverso un "resistore". Nel 1948, William Bradford Shockley, Walter Houser Brattain e John Bardeen dei Bell Lab produssero un transistor che poteva fungere da amplificatore; si trattava di un cristallo di germanio con un sottile strato di tipo "p" posto a sandwich tra due strati di tipo "n". Era cioŠ un triodo, con l'equivalente di una griglia tra filamento e placca. Regolando la carica positiva dello strato "p" intermedio, si poteva fare in modo che le lacune migrassero attraverso le giunzioni regolando il flusso di elettroni; inoltre, con una piccola variazione della corrente nello strato "p" intermedio, si poteva ottenere una grande variazione della corrente che attraversa l'intera struttura. Ci• consentiva di usare il triodo a semiconduttore come amplificatore, proprio come un triodo a valvola elettronica. Shockley e i suoi collaboratori Brattain e Bardeen ricevettero il premio Nobel per la fisica nel 1956. Per quanto, in teoria, i transistor facessero un lavoro eccellente, la loro utilizzazione pratica richiese alcuni progressi tecnologici concomitanti - come del resto accade sempre nella scienza applicata. Il rendimento dei transistor dipendeva in modo decisivo dall'uso di materiali di purezza estrema, che permettessero di controllare attentamente la natura e la concentrazione delle impurit… aggiunte deliberatamente. Fortunatamente, William Gardner Pfann nel 1952 introdusse la tecnica della "raffinazione a zone". Una barra, per esempio di germanio, viene posta nella cavit… di un elemento circolare riscaldante, che ammorbidisce e comincia a far fondere una sezione della barra; questa viene spinta attraverso la cavit…, cosŤ che la zona fusa si sposta al suo interno; le impurit… della barra tendono a restare nella zona fusa e sono perci• letteralmente ®lavateŻ verso le estremit… della barra; dopo qualche passaggio di questo genere, il corpo centrale del cristallo di germanio acquista una purezza senza precedenti. Verso il 1953 minuscoli transistor cominciarono a essere utilizzati negli apparecchi acustici, che potevano cosŤ essere costruiti tanto piccoli da stare all'interno dell'orecchio. In poco tempo i transistor vennero sviluppati in modo che potessero operare con frequenze pi— elevate, reggere a temperature superiori e venir fabbricati ancora pi— piccoli. Anzi, essi finirono per essere tanto piccoli che non furono pi— usati singolarmente: piccoli chip (schegge) di silicio vennero incisi in modo da formare dei "circuiti integrati", capaci di fare quello per cui prima era necessario un gran numero di valvole. Negli anni settanta erano ormai talmente piccoli da meritarsi di esser chiamati "microchips". Questi minuscoli microcircuiti a stato solido sono oggi usati universalmente e costituiscono forse la pi— sbalorditiva tra tutte le rivoluzioni scientifiche avvenute nella storia dell'umanit…. Essi hanno consentito di fabbricare le radioline, di inserire nel volume ridotto dei satelliti e delle sonde spaziali un enorme numero di funzioni; ma la cosa pi— importante Š che hanno reso possibile lo sviluppo di computer sempre pi— piccoli, sempre pi— economici e sempre pi— versatili, e poi, negli anni ottanta, anche di robot. MASER E LASER. I maser. Un altro recente progresso di straordinaria importanza ha inizio con le ricerche sulla molecola di ammoniaca (NH3). I tre atomi di idrogeno di tale molecola possono esser pensati come situati ai tre vertici di un triangolo equilatero, mentre l'unico atomo di azoto se ne sta a una certa distanza dal piano del triangolo, al di sopra del suo centro. La molecola di ammoniaca pu• vibrare, cioŠ l'atomo di azoto pu• spostarsi, attraversando il piano del triangolo, fino a occupare la posizione simmetrica dall'altra parte, per poi ritornare alla posizione originaria, e cosŤ via. E' possibile mettere in vibrazione la molecola di ammoniaca, che ha una frequenza naturale di 24 miliardi di cicli al secondo. Questo periodo di vibrazione Š estremamente costante, assai pi— di quello di qualsiasi dispositivo artificiale che vibri - perfino pi— regolare del moto dei corpi celesti. Si pu• fare in modo che queste molecole in vibrazione controllino delle correnti elettriche, che a loro volta controlleranno dei congegni per misurare il tempo con una precisione senza precedenti - come fu dimostrato per la prima volta nel 1949 dal fisico americano Harold Lyons. Alla met… degli anni cinquanta questi "orologi atomici" superavano ormai tutti i normali cronometri. Mediante gli atomi di idrogeno si Š potuto ottenere una misurazione del tempo con l'approssimazione di 1 secondo su 1700000 anni. La molecola di ammoniaca, vibrando, emette un fascio di radiazione elettromagnetica con la frequenza di 24 miliardi di cicli al secondo. Questa radiazione ha una lunghezza d'onda di 1,25 centimetri e si trova nella regione spettrale delle microonde. Un altro modo di considerare questo fatto Š immaginare che la molecola di ammoniaca possa occupare l'uno o l'altro di due livelli energetici, con una differenza di energia pari a quella di un fotone corrispondente alla radiazione di 1,25 centimetri. Se la molecola di ammoniaca scende dal livello di energia superiore a quello di energia inferiore, emette un fotone come quello descritto. Se una molecola nel livello di energia inferiore assorbe un fotone con queste caratteristiche, sale nel livello superiore. Cosa accade, per•, se una molecola di ammoniaca si trova gi… nel livello energetico superiore e viene esposta a questi fotoni? Gi… nel 1917 Einstein aveva fatto osservare che, se un fotone di caratteristiche appropriate avesse colpito una molecola nel livello energetico superiore, quest'ultima avrebbe dovuto scendere al livello inferiore, emettendo un fotone con le stesse caratteristiche e la stessa direzione del fotone incidente. Ci sarebbero quindi stati due fotoni identici, l… dove prima ve ne era uno solo. La teoria fu confermata sperimentalmente nel 1924. L'ammoniaca esposta a radiazioni di microonde subir… quindi uno tra i due cambiamenti possibili: le molecole possono venir ®pompateŻ dal livello inferiore a quello superiore, oppure riportate da quello superiore a quello inferiore. In condizioni normali prevarr… il primo dei due processi, perch‚ solo una piccolissima percentuale delle molecole di ammoniaca si troverebbero, in un dato istante, nel livello energetico superiore. Supponiamo, per•, che si trovi un metodo per portare tutte, o quasi tutte, le molecole nel livello energetico superiore. Allora prevarrebbe il passaggio dal livello superiore a quello inferiore, e accadrebbe una cosa abbastanza interessante: nel fascio incidente di microonde un fotone farebbe abbassare una molecola di livello; verrebbe emesso un secondo fotone, ed entrambi proseguirebbero colpendo due molecole, cosŤ che verrebbero liberati altri due fotoni. Tutti e quattro determinerebbero l'emissione di altri quattro fotoni, e cosŤ via. Il fotone iniziale avrebbe cosŤ provocato una valanga di fotoni, tutti aventi esattamente la stessa energia e la stessa direzione. Nel 1953, il fisico americano Charles Hard Townes ide• un metodo per isolare le molecole di ammoniaca situate nel livello energetico superiore e le sottopose alla stimolazione da parte di fotoni appartenenti alla regione delle microonde e aventi l'energia appropriata. I fotoni incidenti erano pochissimi, quelli in uscita erano una valanga: la radiazione in entrata era stata quindi grandemente amplificata. A questo processo venne dato il nome di ®amplificazione di microonde mediante emissione stimolata di radiazioneŻ (in inglese MIcrowave Amplification by stimulated Emission of Radiation), abbreviato in "maser", nome con il quale viene indicata anche l'apparecchiatura con cui si ottiene il processo. Vennero ben presto messi a punto dei maser a stato solido, cioŠ solidi in cui si poteva far assumere agli elettroni l'uno o l'altro di due livelli energetici. I primi maser, sia a gas che a stato solido, erano intermittenti, cioŠ prima si dovevano ®pompareŻ al livello energetico superiore, per poi stimolarli. Dopo una rapida emissione di radiazione, non si poteva pi— ottenere nulla finch‚ non si ripeteva il processo di pompaggio. Per superare questo inconveniente, al fisico olandese-americano Nicolaas Bloembergen venne l'idea di far uso di un sistema a tre livelli: se nel materiale prescelto per il nucleo del maser gli elettroni potevano occupare uno qualsiasi dei tre livelli - uno inferiore, uno mediano e uno superiore - pompaggio ed emissione potevano procedere simultaneamente. Gli elettroni vengono pompati dal livello energetico inferiore a quello superiore, raggiunto il quale ricadono verso i livelli inferiori in seguito a una stimolazione appropriata - prima ricadono nel livello mediano, poi in quello pi— basso. Fotoni di energia diversa sono necessari rispettivamente per il pompaggio e per l'emissione stimolata, cosŤ che i due processi non interferiscono tra loro. Abbiamo in tal modo ottenuto un maser continuo. In quanto amplificatori di microonde, i maser possono essere usati come rivelatori molto sensibili in radioastronomia, dove fasci di microonde estremamente deboli provenienti dallo spazio esterno vengono fortemente intensificati mantenendo un'ottima fedelt… alle caratteristiche della radiazione originale. (Riproduzione senza perdita delle caratteristiche originali equivale a riproduzione ®con basso rumoreŻ: in questo senso i maser si possono considerare straordinariamente ®silenziosiŻ.) I maser hanno dimostrato la loro utilit… anche nello spazio esterno: a bordo del satellite sovietico "Cosmos 97", lanciato il 30 novembre 1965, si trovava un maser, che fornŤ un'ottima prestazione. Per le sue ricerche Townes ricevette il premio Nobel per la fisica del 1964, premio che condivise con due fisici sovietici, Nicolaj Gennedjevic' Basov e Aleksandr Mikhailovic' Prochorov, che avevano lavorato indipendentemente alla teoria dei maser. I laser. In linea di principio la tecnica dei maser pu• essere applicata alle onde elettromagnetiche di qualsiasi lunghezza d'onda, e in particolare a quelle della luce visibile. Townes mise in evidenza la possibilit… concreta di tale applicazione nel 1958; un maser che produca onde luminose si pu• chiamare "maser ottico", e il relativo processo ®amplificazione della luce mediante emissione stimolata di radiazioneŻ, da cui la ben nota abbreviazione "laser". Il primo laser funzionante fu costruito nel 1960 dal fisico americano Theodore Harold Maiman, che us•, per questo scopo, una barra di rubino sintetico, che Š essenzialmente ossido di alluminio con l'aggiunta di un po' di ossido di cromo. Se si espone tale barretta alla luce, gli elettroni degli atomi di cromo vengono ®pompatiŻ ai livelli energetici superiori e, dopo poco tempo, cominciano a ridiscendere. I primi pochi fotoni di luce emessi (con una lunghezza d'onda di 6943 A) stimolano l'emissione di altri fotoni simili, e la barra emette improvvisamente un fascio di luce rosso scuro avente un'intensit… quadrupla di quella della luce alla superficie solare. Prima della fine del 1960 laser in continua erano stati costruiti da un fisico iraniano, Ali Javan, che lavorava ai Bell Laboratories; egli aveva fatto uso di una miscela di gas (neon ed elio) come sorgente luminosa. Il laser rese possibile una forma completamente nuova di luce. La luce era la pi— intensa che fosse mai stata prodotta, e anche quella pi— rigorosamente monocromatica (cioŠ costituita da una sola lunghezza d'onda); ma era ancora di pi—. La luce normale, prodotta in qualsiasi altro modo - da un fuoco di legna, dal sole o da una lucciola - consiste di ®pacchettiŻ di onde relativamente brevi, che si possono descrivere come spezzoni di onda orientati in tutte le direzioni. La luce normale Š fatta di innumerevoli spezzoni di questo genere. La luce prodotta da un laser, invece, Š formata di fotoni identici, che si muovono nella stessa direzione; pertanto, i pacchetti d'onda hanno tutti la stessa frequenza; e poich‚ sono allineati - per cosŤ dire - esattamente uno dopo l'altro, si fondono. La luce appare costituita da lunghi segmenti di onda di ampiezza (altezza) e frequenza costanti, cioŠ di luce che viene detta "coerente", perch‚ i pacchetti appaiono ®attaccatiŻ l'uno all'altro. I fisici sapevano produrre radiazione coerente a lunghezze d'onda maggiori, ma fino al 1960 ci• non era mai stato fatto per la luce. Inoltre il laser era stato studiato in modo da accentuare la tendenza naturale dei fotoni a muoversi nella stessa direzione. Le due estremit… del rubino erano lavorate con molta cura e argentate, in modo che diventassero simili a specchi piani. I fotoni emessi sfrecciavano avanti e indietro lungo la barra, causando l'emissione di altri fotoni a ogni passaggio, fin quando avevano accumulato un'intensit… sufficiente ad attraversare l'estremit… argentata pi— sottilmente. Riuscivano a emergere quei fotoni che erano stati emessi in una direzione esattamente parallela all'asse maggiore della barra, perch‚ erano quelli che continuavano a muoversi avanti e indietro, colpendo e ricolpendo le estremit… argentate. Se per caso fotoni aventi energia appropriata ma direzione diversa (anche di pochissimo) fossero entrati nella barra dando l'avvio a un treno di fotoni stimolati in tale diversa direzione, questi avrebbero ben presto attraversato le pareti della barra, al massimo dopo qualche riflessione. Un fascio di luce laser Š costituito da onde coerenti cosŤ parallele da poter viaggiare per lunghi percorsi senza divergere in modo indesiderato. Lo si pu• focalizzare con grandissima precisione, tanto da riuscire a scaldare una caffettiera a distanza di migliaia di chilometri. I fasci laser hanno raggiunto perfino la luna, nel 1962, allargandosi su un diametro di soli tre chilometri, dopo aver percorso quasi 400 mila chilometri! Una volta inventato il laser, l'interesse per i suoi ulteriori sviluppi divenne travolgente; nel giro di qualche anno erano stati costruiti laser capaci di produrre luce coerente in centinaia di diverse lunghezze d'onda, dall'ultravioletto vicino all'infrarosso lontano. A tale scopo sono state usate le pi— svariate sostanze solide, ossidi metallici, fluoruri, tungstati, semiconduttori, liquidi e colonne di gas. Ogni variet… ha i suoi vantaggi e i suoi svantaggi. Nel 1964 il primo "laser chimico" fu realizzato dal fisico americano Jerome V. V. Kasper. In questo laser la sorgente di energia Š una reazione chimica (nel primo costruito, si trattava della dissociazione di CF3I da parte di un impulso luminoso). Il vantaggio del laser chimico rispetto al tipo comune di laser sta nel fatto che la reazione chimica che produce energia pu• essere incorporata nello stesso laser, e non occorre una fonte di energia esterna. La differenza Š simile a quella tra un apparecchio alimentato a pile e uno collegato a una presa. C'Š un ovvio guadagno di trasportabilit…, per non parlare del fatto che sembra che i laser chimici abbiano un rendimento considerevolmente pi— elevato di quelli ordinari (12 per cento e pi—, in confronto al 2 per cento o meno). I "laser organici" - quelli in cui un colorante organico complesso viene usato come sorgente di luce coerente - sono stati sviluppati nel 1966 da John R. Lankard e Peter Sorokin. La complessit… della molecola rende possibile produrre luce mediante una variet… di transizioni elettroniche e pertanto in una variet… di lunghezze d'onda. Un laser organico pu• essere "sintonizzato" in modo che emetta una qualsiasi lunghezza d'onda entro un determinato intervallo, mentre gli altri tipi di laser sono limitati a un'unica lunghezza d'onda. La sottigliezza del fascio di luce laser significa che si pu• concentrare molta energia in una zona piccolissima, nella quale la temperatura raggiunge livelli altissimi. Il laser pu• vaporizzare metalli consentendo una rapida analisi spettroscopica, e all'occorrenza pu• saldare, tagliare, praticare fori di qualsiasi forma voluta in sostanze con un alto punto di fusione. Inviando fasci di luce laser nell'occhio, i chirurghi sono riusciti a saldare retine distaccate cosŤ rapidamente che i tessuti vicini non hanno avuto il tempo di risentirne negativamente. Analogamente i laser sono stati usati per distruggere i tumori. Per mostrare la vasta gamma delle applicazioni del laser, Arthur L. Shawlow ha ideato il banale (ma di grande effetto) "cancellatore- laser", in cui un lampo brevissimo fa evaporare l'inchiostro dei caratteri dattilografati senza intaccare minimamente la carta sottostante; all'altro estremo, gli "interferometri a laser" possono effettuare misurazioni di precisione senza precedenti. Laser posti a distanza possono rivelare l'intensificazione delle deformazioni della crosta terrestre: spostamenti delle frange d'interferenza della loro luce mettono infatti in evidenza i minimi movimenti nella terra con la precisione di una parte su un trilione. I primi uomini giunti sulla luna, inoltre, vi hanno lasciato un sistema riflettente destinato a rinviare fasci laser sulla terra; con questo metodo si pu• determinare la distanza della luna con precisione superiore a quella generalmente ottenibile nella misurazione delle distanze da un punto all'altro della superficie terrestre. Un'applicazione possibile che ha suscitato grande interesse fin dall'inizio Š stato l'utilizzo di raggi laser come onde portanti nelle comunicazioni. L'alta frequenza della luce coerente, rispetto a quella delle onde radio coerenti usate oggi nella radio e nella televisione, fa sperare nella possibilit… di addensare migliaia di canali nello spazio oggi occupato da uno solo. Si apre cosŤ la prospettiva che ogni uomo o donna sulla terra possa avere una propria lunghezza d'onda personale. Naturalmente la luce laser va modulata. Variazioni nelle correnti elettriche prodotte dal suono vanno tradotte in variazioni della luce laser (mediante cambiamenti di ampiezza o di frequenza, o forse semplicemente accendendola e spegnendola); tali modulazioni possono a loro volta essere usate per produrre altrove variazioni in una corrente elettrica. Sistemi del genere sono allo studio. Potrebbe darsi che, siccome la luce Š pi— soggetta delle onde radio all'interferenza di nuvole, nebbia e polvere, si debba trasmettere la luce laser lungo tubature contenenti lenti (per riconcentrare di quando in quando il fascio) e specchi (per permetterle di aggirare gli angoli). Comunque, Š stato costruito un "laser all'anidride carbonica" che produce fasci laser continui, di potenza senza precedenti, che si trovano nell'infrarosso, a lunghezza d'onda tali da risentire ben poco delle condizioni atmosferiche. Ci• potrebbe rendere possibile anche la comunicazione via atmosfera. Di fattibilit… assai pi— immediata Š l'uso di fasci laser modulati all'interno di "fibre ottiche", filamenti di vetro supertrasparente pi— sottili di un capello umano, che possono sostituire i fili di rame nelle comunicazioni telefoniche. Il vetro costa assai meno del rame ed Š disponibile in quantit… assai maggiori, e pu• portare molta pi— informazione sotto forma di luce laser. Gi… gli ingombranti cavi di rame stanno lasciando, da pi— parti, il posto ai meno ingombranti fasci di fibre ottiche. Un'applicazione ancora pi— affascinante del laser, che Š gi… alle porte, riguarda un nuovo tipo di fotografia. Nella fotografia comune un fascio di luce ordinaria riflessa da un oggetto incide su una pellicola fotografica; ci• che viene registrato Š la sezione trasversale della luce, che non rappresenta assolutamente tutta l'informazione che potenzialmente Š contenuta in essa. Supponiamo che invece un fascio di luce sia diviso in due. Una parte colpisce un oggetto e viene riflessa con tutte le irregolarit… che questo oggetto le imprime. La seconda parte viene riflessa da uno specchio senza irregolarit…: le due parti si incontrano sulla pellicola fotografica e l'interferenza delle varie lunghezze d'onda viene registrata. In teoria la registrazione di questa figura di interferenza include tutti i dati relativi a ciascun fascio di luce. La fotografia che registra questa figura d'interferenza, quando viene sviluppata, sembra vuota, ma se vi si invia sopra della luce che la attraversa rilevando tutte le caratteristiche dell'interferenza, questa luce produce un'immagine che contiene l'informazione completa; l'immagine Š tridimensionale cosŤ come lo era la superficie da cui Š stata riflessa la luce, e si possono fare ordinarie fotografie dell'immagine da vari angoli che mostrano il cambiamento di prospettiva. Quest'idea fu elaborata per la prima volta dal fisico inglese di origine ungherese Dennis Gabor nel 1947, mentre cercava un metodo che rendesse pi— nitide le immagini prodotte dal microscopio elettronico. Egli chiam• questo metodo "olografia" (da una voce latina che significa ®scrittura integraleŻ). L'idea di Gabor era ben fondata teoricamente, ma non poteva essere realizzata, perch‚ la luce ordinaria non era adatta. A causa delle diverse lunghezze d'onda che si muovevano in tutte le direzioni, le frange d'interferenza prodotte dai due fasci di luce sarebbero state cosŤ caotiche da non fornire alcuna informazione. Sarebbe stato come produrre un milione di immagini confuse tutte sovrapposte in posizioni leggermente diverse. L'introduzione della luce laser cambi• del tutto la situazione. Nel 1965, Emmet N. Leith e Juris Upatnieks dell'Universit… del Michigan riuscirono a produrre i primi ologrammi; da allora la tecnica Š stata affinata al punto di rendere possibile l'olografia a colori: ora le frange d'interferenza fotografate si possono osservare assai bene anche in luce ordinaria. La "microolografia" promette di aggiungere (letteralmente) una nuova dimensione alle ricerche in biologia, e nessuno pu• dire dove questo ci porter…. Capitolo 10. IL REATTORE. L'ENERGIA. I rapidi progressi della tecnologia del ventesimo secolo sono avvenuti al prezzo di un aumento enorme dei consumi delle risorse energetiche terrestri. Man mano che le nazioni sottosviluppate, con i loro miliardi di abitanti, raggiungeranno l'elevato livello di vita dei paesi industrializzati, il consumo di combustibile crescer… in misura spettacolare. Dove potremo trovare le risorse di energia necessarie per sostentare la nostra civilt…? Abbiamo gi… visto scomparire buona parte del legname della terra: la legna Š stato il nostro primo combustibile. Gi… all'inizio dell'era cristiana, molte zone della Grecia, dell'Africa settentrionale e del Vicino Oriente erano state diboscate senza piet…, in parte per procurarsi combustibile, in parte per sgomberare la terra e usarla per il pascolo e l'agricoltura. Il taglio incontrollato delle foreste ha costituito un duplice disastro: non solo ha distrutto le riserve di legno, ma anche ha reso improduttivo - in modo pi— o meno permanente - il terreno, messo allo scoperto in modo cosŤ drastico. La maggior parte di queste antiche regioni, che una volta sostentavano fiorenti civilt…, sono oggi sterili e improduttive, e la gente che vi abita vive oppressa dalla povert…. Il Medioevo ha visto il graduale diboscamento dell'Europa occidentale, e i tempi moderni hanno assistito a un diboscamento assai pi— rapido del continente nordamericano. Si pu• affermare che nelle zone temperate del mondo, salvo il Canada e la Siberia, non restino pi— grandi aree di foresta vergine. Carbone e petrolio: combustibili fossili. II carbone e il petrolio hanno preso da molto tempo il posto del legno come combustibili. Gi… nel 200 avanti Cristo il botanico greco Teofrasto citava il carbone, ma le prime notizie di estrazione effettiva del carbone in Europa non risalgono a prima del dodicesimo secolo. Nel diciassettesimo secolo l'Inghilterra, ormai disperatamente a corto del legname necessario per la sua flotta, cominci• a passare all'uso su larga scala del carbone come combustibile, ispirata forse dal fatto che gli olandesi avevano gi… cominciato a scavare in cerca di carbone. (Non furono, comunque, i primi: Marco Polo, nel famoso resoconto dei viaggi in Cina da lui fatti alla fine del '200, aveva narrato come in quelle terre, allora le pi— avanzate del mondo dal punto di vista tecnologico, bruciassero il carbone.) Nel 1660 l'Inghilterra produceva 2 milioni di tonnellate di carbone all'anno, cioŠ pi— dell'80 per cento di tutto il carbone che veniva prodotto nel mondo. In un primo tempo esso venne usato soprattutto come combustibile domestico; ma, nel 1603 un inglese, Hugh Platt, scoprŤ che, se si riscaldava il carbone evitando il contatto con l'ossigeno, la sostanza catramosa presente si separava e bruciava, lasciando solo carbonio puro; questo residuo venne chiamato "coke". Sulle prime il coke non era di buona qualit…, ma con il tempo venne migliorato e alla fine fu possibile usarlo al posto del carbone di legna per fondere i minerali di ferro. Il coke bruciava ad alta temperatura: i suoi atomi di carbonio si combinavano con quelli di ossigeno del minerale di ferro, lasciando come residuo ferro metallico. Nel 1709 un altro inglese, Abraham Darby, introdusse l'uso del coke su grande scala per la produzione del ferro. Quando arriv• la macchina a vapore, si us• il carbone per riscaldare l'acqua e farla bollire, il che contribuŤ all'avvento della Rivoluzione industriale. Altrove il cambiamento avvenne pi— lentamente. Ancora nel 1800 il legno copriva il 94 per cento del fabbisogno di combustibile negli Stati Uniti, giovane stato ricco di foreste. Nel 1885, comunque, il legno copriva soltanto il 50 per cento del fabbisogno; nel 1980, meno del 3 per cento. Nel frattempo era diminuita l'importanza relativa del carbone ed era aumentato l'uso del petrolio e del gas naturale. Negli Stati Uniti, nel 1900, l'energia fornita dal carbone era dieci volte quella fornita dal petrolio e dal gas naturale messi insieme. Mezzo secolo dopo il carbone forniva soltanto un terzo dell'energia rispetto a petrolio e gas. Nell'antichit… l'olio usato nelle lampade per l'illuminazione era derivato da fonti vegetali e animali. Tuttavia, durante le lunghissime ere geologiche era spesso accaduto che piccoli animali ricchi di olio, che vivevano nelle acque marine non troppo profonde, sfuggissero, dopo la morte, alla sorte di venir mangiati; immersi nella fanghiglia, erano rimasti sepolti negli strati sedimentari. Dopo aver subŤto una lenta trasformazione chimica, l'olio si Š convertito in una complessa miscela di idrocarburi, che oggi viene appropriatamente chiamata petrolio (che significa ®olio derivato dalla pietraŻ). Tale Š stata l'importanza del petrolio per l'umanit… durante le ultime due generazioni che, in inglese, si indica il petrolio con il termine "oil" (olio), senza tema di creare confusioni con l'olio di oliva o di cocco. Qualche volta il petrolio si trovava alla superficie della terra, particolarmente nel Medio Oriente, che ne Š ricco. Era la "pece" con cui NoŠ, seguendo le istruzioni ricevute, dovette spalmare l'interno e l'esterno dell'Arca per renderla impermeabile. Analogamente, anche il canestro di giunchi galleggiante in cui fu deposto MosŠ appena nato era stato spalmato di pece perch‚ non affondasse. Frazioni pi— leggere del petrolio ("nafta") venivano talvolta raccolte e utilizzate nelle lampade o nei bracieri usati nelle cerimonie religiose. Dopo il 1850 aument• la domanda di liquidi infiammabili per le lucerne: c'era l'olio di balena e anche l'olio ricavato dal carbone (ottenuto riscaldando il carbone in assenza di aria). Un'altra fonte erano gli scisti bituminosi, un materiale molle, simile alla cera, che riscaldato secerne un liquido, il "cherosene"; tale materiale fu trovato nella Pennsylvania occidentale; nel 1859 un ferroviere americano, Edwin Laurentine Drake, tent• una strada nuova. Drake sapeva che si scavavano pozzi per estrarne l'acqua e sapeva che talora si scavava pi— in profondit… per attingere dell'acqua salmastra da cui si ricavava il sale. Talora insieme a essa sgorgava una sostanza oleosa molto infiammabile. Si diceva che in Cina e in Birmania, duemila anni prima, questa sostanza oleosa venisse bruciata per far evaporare l'acqua salmastra e ottenere il sale. Perch‚, allora, non scavare in cerca di questo olio? A quei tempi il petrolio non veniva usato solo per le lampade, ma anche nella preparazione di medicine; e Drake pensava che se fosse riuscito a estrarlo avrebbe potuto venderlo bene. Scav• un pozzo profondo una ventina di metri a Titusville, nella Pennsylvania occidentale e, il 28 agosto 1859, trov• il petrolio: aveva trivellato il primo "pozzo petrolifero". Per il primo mezzo secolo gli usi del petrolio furono limitati; ma, con l'avvento del motore a combustione interna, la domanda di petrolio crebbe a dismisura. Una frazione del liquido che fosse pi— leggera del cherosene (cioŠ pi— volatile) era proprio quel che ci voleva per il nuovo tipo di motore. Questa frazione era la "benzina"; la grande caccia al petrolio era cominciata, e da un secolo a questa parte non Š mai cessata. I giacimenti petroliferi della Pennsylvania si esaurirono ben presto, ma all'inizio del ventesimo secolo se ne scoprirono di molto pi— grandi nel Texas, poi, negli anni quaranta e cinquanta, di pi— grandi ancora nel Medio Oriente. Il petrolio offre molti vantaggi rispetto al carbone. Non Š necessario far scendere degli esseri umani nel sottosuolo per strapparlo alla terra; n‚ occorre caricarne innumerevoli mezzi di trasporto; n‚ si deve immagazzinare il combustibile nelle cantine o introdurlo a palate nelle fornaci; e non si ha il problema delle ceneri da smaltire. Il petrolio viene estratto dalla terra pompandolo, viene distribuito in condotte (o viaggia in navi cisterna), Š immagazzinato in serbatoi sotterranei e introdotto automaticamente nei bruciatori, che si possono accendere e spegnere a piacere, senza produrre ceneri. Soprattutto dopo la seconda guerra mondiale il mondo intero Š passato dall'uso del carbone a quello del petrolio. Il carbone Š rimasto una materia prima vitale per la produzione di ferro e acciaio e per vari altri scopi, ma il petrolio Š diventato la principale risorsa del mondo come combustibile. Alcune frazioni del petrolio sono cosŤ volatili che a temperatura ordinaria sono sotto forma di vapore; si tratta del "gas naturale", pi— spesso indicato semplicemente con il termine "gas". Esso Š ancora pi— conveniente del petrolio, e il suo consumo Š aumentato anche pi— rapidamente di quello delle frazioni liquide del petrolio. Queste risorse, per•, sono pur sempre limitate. Il gas, il petrolio e il carbone sono "combustibili fossili", residui di vita vegetale e animale di lontane ere geologiche, e non possono essere sostituiti una volta esauriti. Per quanto riguarda i combustibili fossili, l'umanit… sta consumando il proprio capitale a un tasso davvero insostenibile. In particolare il petrolio sta esaurendosi rapidamente. Oggi il mondo brucia pi— di 4 milioni di barili di petrolio ogni ora; e nonostante tutti gli sforzi di limitarlo, il tasso dei consumi continuer… a crescere nel futuro prossimo. Anche se rimane sulla terra quasi un trilione di barili, al livello attuale dei consumi essi non possono bastare per pi— di una trentina di anni. Certo, Š possibile ottenere altro petrolio combinando il carbone, che Š pi— abbondante, con idrogeno, sotto pressione. Il primo a sviluppare questo processo fu, negli anni venti, il chimico tedesco Friedrich Bergius, che per il suo lavoro ebbe, insieme ad altri, il premio Nobel per la chimica nel 1931. La riserva di carbone Š veramente ingente, forse attorno ai 7 trilioni di tonnellate, ma non tutto Š di facile estrazione. Verso il venticinquesimo secolo, se non prima, il carbone potrebbe diventare un bene troppo costoso. Possiamo anche pensare di trovare nuovi giacimenti. Forse, per quanto riguarda carbone e petrolio, ci aspettano delle sorprese in Australia, nel Sahara, perfino nell'Antartide. Inoltre qualche progresso tecnologico potrebbe rendere economico lo sfruttamento di filoni di carbone pi— profondi e pi— sottili o la ricerca del petrolio a maggiori profondit… e la sua estrazione dagli scisti bituminosi e dai giacimenti sottomarini. Senza dubbio troveremo anche il modo di elevare il rendimento del combustibile di cui disponiamo. Nel corso del processo in cui si brucia combustibile per produrre calore, per convertire acqua in vapore e far funzionare un generatore di elettricit… molta energia va sprecata. Gran parte di queste perdite potrebbe essere evitata se si riuscisse a convertire direttamente il calore in elettricit…. Tale possibilit… era gi… stata intravista nel 1823, quando un fisico tedesco, Thomas Johann Seebeck, osserv• che, formando un circuito chiuso con due metalli diversi e riscaldando la giunzione dei due elementi, si poteva far deviare l'ago di una bussola posta nelle vicinanze: ci• indicava che il calore faceva circolare una corrente elettrica nel circuito ("termoelettricit…"). Seebeck, tuttavia, interpret• in modo sbagliato la propria scoperta, la quale sul momento non ebbe alcun seguito. Con l'avvento delle tecnologie basate sui semiconduttori, il vecchio "effetto Seebeck" torn• alla ribalta. I congegni termoelettrici fanno normalmente uso dei semiconduttori: riscaldando un estremo di un semiconduttore, si crea un potenziale elettrico nel materiale: in un semiconduttore di tipo p l'estremo freddo diventa negativo e, in uno di tipo n, diventa positivo; se si congiungono questi due tipi di semiconduttore in una struttura a U, con la giunzione n-p sul fondo della U, e si riscalda tale parte, l'estremo superiore del ramo p acquista una carica negativa e l'estremo superiore del ramo n una carica positiva; di conseguenza, la corrente scorrer… fra un estremo e l'altro, mantenendosi fintantoch‚ sussiste la differenza di temperatura. (Inversamente, si pu• usare una corrente per produrre un abbassamento di temperatura, il che consente di usare un apparecchio termoelettrico anche nella refrigerazione.) La pila termoelettrica, non richiedendo un dispendioso generatore o un'ingombrante macchina a vapore, Š portatile e pu• essere installata in zone isolate come sorgente di elettricit… su piccola scala. Tutto ci• che le occorre come fonte di energia Š del cherosene per il riscaldamento. Sembra che apparecchi di questo genere siano usati comunemente nelle zone rurali dell'Unione Sovietica. Nonostante tutti i possibili aumenti di rendimento del combustibile usato oggi, e malgrado la possibilit… che si trovino nuovi giacimenti di petrolio o di carbone, si tratta sempre di fonti di energia decisamente limitate. Verr… il giorno, non molto lontano nel futuro, in cui n‚ il carbone n‚ il petrolio potranno pi— essere la principale fonte energetica su larga scala. Si dovr… ridurre l'impiego dei combustibili fossili, e ci• probabilmente assai prima che queste riserve siano effettivamente esaurite: sussistono infatti dei pericoli nel loro crescente impiego. Il carbone non Š carbonio puro, il petrolio non Š un idrocarburo puro; entrambi contengono piccole quantit… di azoto e di composti dello zolfo. Bruciando combustibili fossili (specie il carbone), si immettono nell'aria ossidi di azoto e di zolfo. Anche se una tonnellata di carbone ne immette una piccola quantit…, quando si fa il conto del totale, si arriva ai circa 90 milioni di tonnellate di ossidi di zolfo che sono stati annualmente scaricati nell'atmosfera nel corso degli anni settanta. Queste impurit… sono una delle fonti principali di inquinamento e (se le condizioni atmosferiche ne favoriscono la formazione) dello "smog" che avvolge le citt…, provocando seri danni ai polmoni e in certi casi addirittura la morte di chi gi… soffre di gravi disturbi respiratori. L'aria viene ripulita dall'inquinamento per l'intervento della pioggia, il che per• non fa che creare problemi nuovi, forse maggiori. Gli ossidi di azoto e di zolfo, sciogliendosi nell'acqua, la rendono leggermente acida, cosŤ che quella che raggiunge il terreno Š "pioggia acida". La pioggia non Š abbastanza acida da farci direttamente del male, ma rende acidi gli stagni e i laghi in cui cade - non tanto, ma a sufficienza per causare la morte di buona parte dei pesci e delle altre forme di vita acquatica, specialmente quando i laghi non hanno letti di calce che potrebbero neutralizzare in parte l'acidit…. La pioggia acida danneggia anche gli alberi; tale danno Š pi— grave l… dove la combustione di carbone Š pi— massiccia e la pioggia cade verso est per il prevalere dei venti occidentali. CosŤ, la zona orientale del Canada subisce la caduta di pioggia acida a causa del carbone bruciato nel Midwest americano, mentre la Svezia risente della combustione del carbone effettuata nell'Europa occidentale. I danni di tale inquinamento potranno aggravarsi in modo preoccupante, se l'impiego di combustibili fossili seguiter… a crescere. Gi… si tengono conferenze internazionali per far fronte a questo problema. Per correggere questa situazione, si dovrebbero ®pulireŻ carbone e petrolio prima di usarli - un processo che Š possibile, ma che ovviamente fa salire il costo del combustibile. Tuttavia, anche se il carbone fosse carbonio puro e il petrolio fosse idrocarburo puro, non sarebbero eliminati tutti i problemi creati dalla loro combustione. Il carbonio bruciando d… origine a anidride carbonica, mentre l'idrocarburo d… origine a anidride carbonica e acqua. Si tratta di sostanze in se stesse relativamente poco dannose (bench‚ sia inevitabile che si formi in qualche misura anche monossido di carbonio, che invece Š decisamente tossico), e tuttavia la questione non pu• essere trascurata. Tanto l'anidride carbonica che il vapore acqueo sono costituenti naturali dell'atmosfera. La quantit… di vapore acqueo varia sia nel tempo che da luogo a luogo, mentre l'anidride carbonica Š presente nella percentuale costante dello 0,03 per cento circa in peso. Il vapor d'acqua immesso nell'atmosfera a causa dell'impiego di combustibili fossili finisce negli oceani, dove costituisce un'aggiunta insignificante. Quanto all'anidride carbonica, in parte si scioglie nell'oceano e in parte reagisce con le rocce, ma un po' ne resta nell'atmosfera. La quantit… di anidride carbonica presente nell'atmosfera Š aumentata della met… dal 1900 a oggi, grazie alla combustione di petrolio e carbone, e cresce di anno in anno in misura apprezzabile; essa non crea problemi per quanto riguarda la respirazione, anzi la si pu• addirittura considerare benefica per la vita vegetale. Essa, per•, accresce leggermente l'effetto serra e innalza la temperatura media complessiva della terra, anche se in misura limitata. Anche qui, si tratta di effetti appena apprezzabili, ma l'aumento di temperatura tende a far innalzare la pressione di vapore dell'oceano e a mantenere nel complesso pi— vapor d'acqua nell'aria; anche questo accresce l'effetto serra. E' possibile, quindi, che l'impiego di combustibili fossili inneschi un aumento della temperatura tale da poter a sua volta innescare uno scioglimento delle calotte polari, con effetti disastrosi per le linee costiere dei continenti. Un altro effetto a lungo termine potrebbe essere un deterioramento del clima. Sussiste perfino una piccola probabilit… che l'effetto serra assuma proporzioni dirompenti, facendo evolvere la terra verso uno stato analogo a quello di Venere; tuttavia dovremmo saperne molto di pi— sulla dinamica atmosferica e sugli effetti della temperatura per fare previsioni che non siano semplici congetture. Comunque, Š indispensabile considerare con grande prudenza la questione dell'impiego prolungato di combustibili fossili. Eppure i nostri bisogni di energia non diminuiranno, anzi aumenteranno in continuazione. Cosa dunque si pu• fare? Energia solare. Una possibilit… consiste nel ricorrere maggiormente alle fonti rinnovabili di energia: vivere cioŠ del reddito energetico della terra, anzich‚ attingere al capitale. Una di queste risorse pu• essere il legno, se si fanno crescere le foreste ®mietendoleŻ poi come un raccolto; ma il legno, da solo, non pu• assolutamente soddisfare il nostro fabbisogno globale di energia. Potremmo inoltre fare un uso molto maggiore dell'energia eolica e dell'energia idrica, che anch'esse, per•, non possono essere nulla pi— che fonti sussidiarie di energia. Lo stesso si pu• dire di alcune altre fonti potenziali di energia esistenti sulla terra, come il calore presente al suo interno (energia geotermica, che si manifesta, per esempio, nelle sorgenti calde) o l'energia delle maree. A lungo termine un interesse molto maggiore lo presenta la possibilit… di attingere direttamente all'enorme quantit… di energia che il sole riversa di continuo sulla terra. L'energia prodotta nell'unit… di tempo dall'insolazione Š pari a 50 mila volte il nostro attuale consumo energetico. Particolarmente promettente sotto questo aspetto Š la "batteria solare", o "cella fotovoltaica", che si avvale della tecnologia dello stato solido per convertire direttamente la luce solare in elettricit…. La batteria solare, cosŤ come Š stata realizzata nel 1954 dai Bell Telephone Laboratories, Š un sandwich piatto di semiconduttori di tipo n e di tipo p, che fanno parte di un circuito elettrico. La luce solare che colpisce il semiconduttore ne estrae alcuni elettroni - secondo il consueto effetto fotoelettrico. Gli elettroni liberati si muovono verso il polo positivo, mentre le lacune si muovono verso il polo negativo, dando cosŤ origine a una corrente. Non viene prodotta molta corrente in confronto a una normale batteria chimica, ma il vantaggio della batteria solare Š che non contiene liquidi n‚ prodotti chimici corrosivi n‚ parti mobili, ma seguita a generare indefinitamente elettricit…, semplicemente stando esposta al sole. Il satellite artificiale "Vanguard Primo", lanciato dagli Stati Uniti il 17 marzo 1958, Š stato il primo equipaggiato con batterie solari per l'alimentazione dei segnali radio; essi seguitarono a essere emessi per anni, dato che non c'era un interruttore per spegnerli. La quantit… di energia che cade su un ettaro di terreno mediamente soleggiato Š di 23,2 milioni di kilowatt/ora all'anno. Se si ricoprissero estese superfici delle regioni desertiche, come la Valle della Morte e il Sahara, di batterie solari e sistemi per immagazzinare l'elettricit…, essi potrebbero soddisfare il fabbisogno mondiale di elettricit… per un tempo indefinito - in pratica per tutto il tempo in cui Š prevedibile che esister… la razza umana, sempre che non si suicidi prima. Naturalmente il punto debole Š quello economico. I cristalli di silicio puro, tagliati in sottili fette per costruire le celle, sono costosi. Anche se il loro prezzo si Š ridotto a 1 su 250 rispetto al 1958, l'elettricit… solare costa ancora dieci volte di pi— di quella prodotta a partire dal petrolio. Sicuramente nel futuro le batterie solari potranno diventare pi— economiche e pi— efficienti, ma raccogliere luce solare non Š poi cosŤ facile come sembra. La luce solare Š abbondante, ma diluita; per soddisfare il fabbisogno mondiale, essa andrebbe raccolta su superfici molto vaste, come ho gi… precisato; e poi, Š notte per met… del tempo e anche di giorno possono esserci le nuvole, o la nebbia o la foschia. Perfino l'aria pura nel deserto assorbe una notevole frazione della radiazione solare, specie quando il sole Š basso sull'orizzonte. La conversione di luce solare in energia su queste vaste aree sarebbe comunque difficile e dispendiosa. Alcuni scienziati suggeriscono di collocare centrali a energia solare in orbita intorno alla terra; in tali condizioni l'illuminazione solare sarebbe praticamente ininterrotta e non subirebbe le interferenze dell'atmosfera, e ci• consentirebbe una produzione sessanta volte maggiore per unit… di superficie; ma non Š molto probabile che un simile progetto venga realizzato in un futuro immediato. USO BELLICO DEL NUCLEO. Tra l'attuale impiego su larga scala dei combustibili fossili e quello futuro su larga scala dell'energia solare vi Š un'altra fonte di energia, disponibile in grandi quantit…, che ha fatto la sua comparsa alquanto inaspettatamente meno di mezzo secolo fa e che ha la potenzialit… di colmare il vuoto energetico del periodo intermedio. Alludo all'"energia nucleare", l'energia immagazzinata nel minuscolo nucleo atomico. L'energia nucleare viene chiamata talvolta "energia atomica", ma tale denominazione Š alquanto inesatta; a rigor di termini, l'energia atomica Š quella prodotta dalle reazioni chimiche, come la combustione del carbone o del petrolio, perch‚ esse dipendono dal comportamento dell'atomo nel suo insieme. L'energia liberata dai cambiamenti che avvengono all'interno del nucleo ha natura del tutto diversa ed Š quantitativamente molto superiore. La scoperta della fissione. Poco dopo la scoperta del neutrone da parte di Chadwick nel 1932, i fisici compresero di avere una chiave magica capace di dischiudere loro il nucleo. Il neutrone, essendo privo di carica elettrica, poteva penetrare facilmente nell'interno del nucleo, che Š dotato di carica. I fisici cominciarono immediatamente a bombardare vari nuclei con neutroni, per vedere quali reazioni nucleari sarebbero avvenute; tra i ricercatori che con pi— entusiasmo usarono questo nuovo strumento vi fu l'italiano Enrico Fermi: nel giro di pochi mesi, egli aveva ottenuto nuovi isotopi radioattivi di trentasette elementi diversi. Fermi e il suo gruppo scoprirono che avevano risultati migliori se rallentavano i neutroni facendoli passare prima attraverso l'acqua o la paraffina, dove i neutroni, urtando i protoni, subivano un rallentamento come accade a una palla da biliardo quando colpisce altre biglie. Quando un neutrone Š ridotto alla "velocit… termica" (la normale velocit… di moto degli atomi), ha una maggior probabilit… di venir assorbito da un nucleo, perch‚ resta pi— a lungo nelle sue vicinanze. Un altro modo di rendersi conto di quanto avviene Š considerare che la lunghezza dell'onda associata al neutrone rallentato Š maggiore, dato che essa Š inversamente proporzionale alla quantit… di moto della particella. Metaforicamente parlando, il neutrone diventa pi— ®sfumatoŻ e occupa un volume maggiore, pertanto esso colpisce pi— facilmente il nucleo, proprio come una boccia da bowling ha maggior probabilit… di una palla da golf di colpire un birillo. La probabilit… che una data specie di nucleo catturi un neutrone Š chiamata "sezione d'urto", termine che descrive metaforicamente il nucleo come un bersaglio di determinata grandezza: Š pi— facile colpire con una palla da baseball il lato di un granaio che colpire alla stessa distanza un'asse larga trenta centimetri. Le sezioni d'urto dei nuclei per bombardamento con neutroni sono espresse in trilionesimi di trilionesimo di centimetro quadrato (10 alla meno ventiquattresima centimetri quadrati). Questa unit… Š stata in effetti chiamata "barn" (granaio) dai fisici americani M. G. Holloway e C. P. Baker nel 1942; il nome serviva a nascondere quanto stava realmente succedendo in quei febbrili giorni di guerra. Quando un nucleo cattura un neutrone, il suo numero atomico resta immutato (perch‚ la carica del nucleo rimane la stessa), ma il suo numero di massa sale di un'unit…. L'idrogeno 1 diventa idrogeno 2, l'ossigeno 17 diventa ossigeno 18 e cosŤ via. L'energia conferita al nucleo dall'ingresso del neutrone pu• eccitare il nucleo, cioŠ accrescere il suo contenuto energetico. Questo surplus di energia viene poi emesso sotto forma di raggio gamma. Il nuovo nucleo spesso Š instabile. Per esempio, quando l'alluminio 27 cattura un neutrone e diventa alluminio 28, uno dei neutroni del nuovo nucleo decade immediatamente in un protone (emettendo un elettrone). Questo aumento della carica positiva del nucleo trasmuta l'alluminio (numero atomico 13) in silicio (numero atomico 14). Dato che il bombardamento con i neutroni Š un facile metodo per convertire un elemento in quello successivo, Fermi pens• di bombardare l'uranio per vedere se si sarebbe formato un elemento artificiale - di numero atomico 93. Nei prodotti del bombardamento dell'uranio, egli e i suoi collaboratori trovarono tracce di nuove sostanze radioattive; credendo di aver ottenuto l'elemento 93, lo chiamarono "uranio X". Ma come identificare con certezza il nuovo elemento? Che tipo di propriet… chimiche avrebbe dovuto avere? L'elemento 93, si pensava, avrebbe dovuto trovarsi nella tavola periodica sotto il renio, al quale avrebbe dovuto quindi essere simile dal punto di vista chimico. (In realt…, anche se nessuno allora lo comprese, l'elemento 93 apparteneva a una nuova serie di terre rare, il che significava che era simile all'uranio, non al renio - vedi capitolo sesto. Pertanto la ricerca per la sua identificazione era partita decisamente con il piede sbagliato.) Se era simile al renio, forse la piccola quantit… di ®elemento 93Ż creata avrebbe potuto essere isolata mescolando i prodotti del bombardamento con il renio, e poi separando il renio con metodi chimici. Il renio avrebbe agito da "trasportatore", portando con s‚ l'®elemento 93Ż, chimicamente simile. Se il renio avesse manifestato propriet… radioattive, ci• avrebbe indicato la presenza dell'elemento 93. Otto Hahn e Lise Meitner, gli scopritori del protoattinio, lavorando insieme a Berlino, seguirono questa linea sperimentale. L'elemento 93 non risult• presente insieme al renio. Hahn e la Meitner allora cercarono di stabilire se il bombardamento con i neutroni avesse trasformato l'uranio in altri elementi vicini nella tavola periodica. A questo punto - si era nel 1938 - ci fu l'occupazione dell'Austria da parte della Germania: la Meitner, che fino ad allora, come cittadina austriaca, era stata al sicuro nonostante fosse ebrea, fu obbligata a scappare dalla Germania di Hitler, rifugiandosi a Stoccolma. Hahn continu• il proprio lavoro con il fisico tedesco Fritz Strassman. Alcuni mesi pi— tardi, Hahn e Strassman scoprirono che il bario, mescolato all'uranio bombardato, trasportava con s‚ tracce di radioattivit…, e pensarono che essa fosse dovuta al radio, l'elemento che sta sotto il bario nella tavola periodica. Conclusero quindi che, bombardando l'uranio con neutroni, se ne trasformava una parte in radio. Ma questo radio si dimostrava assai strano: per quanto tentassero, Hahn e Strassman non riuscivano a separarlo dal bario. In Francia IrŠne Joliot-Curie e il suo collaboratore P. Savitch fecero lo stesso tentativo con analoghi esiti negativi. Poi la Meitner, dal suo rifugio in Scandinavia, svel• coraggiosamente il mistero, rendendo di pubblico dominio un'idea che Hahn stava esprimendo in privato, ma che esitava a pubblicare. In una lettera comparsa nella rivista inglese ®NatureŻ nel gennaio 1939, la Meitner chiarŤ che non riusciva a separare il ®radioŻ dal bario per la semplice ragione che non vi era affatto del radio. Il presunto radio era in realt… bario radioattivo: era bario ottenuto bombardando l'uranio con i neutroni! Questo bario radioattivo decadeva emettendo una particella beta e trasformandosi in lantanio. (Hahn e Strassman avevano scoperto che, aggiungendo del comune lantanio ai prodotti del bombardamento, questo trasportava con s‚ una certa radioattivit…, che per• essi avevano attribuito all'attinio; in realt… si trattava di lantanio radioattivo.) Ma come aveva potuto formarsi del bario a partire dall'uranio? Il bario era un atomo di peso intermedio, e nessun processo noto di decadimento radioattivo poteva trasformare un elemento pesante in uno avente met… del suo peso. La Meitner giunse arditamente a concludere che il nucleo dell'uranio si fosse spaccato in due. L'assorbimento di un neutrone aveva provocato quella che fu da lei definita "fissione". I due elementi in cui si era spezzato, sosteneva la Meitner, erano il bario e l'elemento 43, quello al di sopra del renio nella tavola periodica. Un nucleo di bario e uno dell'elemento 43 (che in seguito fu chiamato "tecnezio") insieme avrebbero costituito un nucleo di uranio. L'intuizione era particolarmente audace perch‚ il bombardamento con i neutroni forniva solo 6 milioni di elettronvolt, e quanto si sapeva a quei tempi sulla struttura del nucleo faceva pensare che, per ottenere un effetto del genere, ci sarebbero voluti centinaia di milioni di elettronvolt. Il nipote della Meitner, Otto Robert Frisch, si affrett• a recarsi in Danimarca per sottoporre la nuova teoria a Bohr, ancor prima della pubblicazione. Bohr si trov• di fronte al problema della sorprendente facilit… con cui - secondo la nuova ipotesi - si sarebbe potuto spaccare in due il nucleo, ma fortunatamente in quel periodo egli stava lavorando intorno alla teoria della struttura nucleare a goccia liquida, e ritenne che tale teoria sarebbe riuscita a spiegare la cosa. (Negli anni seguenti tale teoria, completata con il concetto di strato nucleare, avrebbe spiegato nei minimi dettagli il fenomeno della fissione, compresa la ragione per cui il nucleo si spacca in due parti disuguali.) In tutti i casi, teoria o no, Bohr afferr• immediatamente tutte le implicazioni; egli stava proprio partendo alla volta di Washington, per partecipare a un congresso di fisica teorica; lŤ Bohr mise al corrente i fisici di ci• che era venuto a sapere in Danimarca a proposito dell'ipotesi della fissione. Eccitatissimi, i fisici tornarono ai loro laboratori per verificare tale ipotesi, e, nel giro di un mese, erano state comunicate una mezza dozzina di conferme sperimentali. Il premio Nobel per la chimica del 1944 and• ad Hahn. La reazione a catena. La fissione liberava una quantit… straordinaria di energia, di gran lunga maggiore di quella liberata dalla semplice radioattivit…. Ma non era solo questa energia in pi— a rendere la fissione un fenomeno cosŤ portentoso. Ancora pi— importante era il fatto che nella reazione venivano liberati due o tre neutroni. Nel giro di due mesi dalla pubblicazione della lettera della Meitner, parecchi fisici avevano intuito la terribile possibilit… di una "reazione nucleare a catena". Una reazione a catena Š un fenomeno comune in chimica. Anche un pezzo di carta che brucia Š una reazione a catena. Un fiammifero fornisce il calore necessario per innescare la reazione; una volta cominciata la combustione, Š essa stessa a fornire il calore, necessario per mantenere e diffondere la fiamma. La combustione produce altra combustione, su scala sempre pi— vasta. Tutto ci• Š piuttosto simile a quanto avviene in una reazione a catena nucleare. Un neutrone provoca la fissione di un nucleo di uranio, liberando due neutroni che possano produrre due fissioni, che a loro volta liberano quattro neutroni che possano produrre quattro fissioni, e cosŤ via. La fissione del primo atomo produce 200 Mev di energia; il passo successivo ne produce 400, quello ancora successivo 800, poi 1600, e cosŤ via. Dato che i passi successivi si susseguono a intervalli di circa un cinquantesimo di trilionesimo di secondo, Š facile capire che entro una piccolissima frazione di secondo viene liberata una quantit… sbalorditiva di energia. (In realt… il numero medio dei neutroni prodotti in una fissione Š 2,47, cosŤ che le cose vanno ancora pi— velocemente di quanto indicano i nostri calcoli semplificati.) La fissione di un chilogrammo di uranio produce altrettanta energia quanto la combustione di quasi 3000 tonnellate di carbone o di oltre 3 milioni di litri di petrolio. Usata a fini pacifici, la fissione dell'uranio potrebbe, in teoria, cancellare tutte le nostre preoccupazioni immediate circa l'esaurimento dei combustibili fossili e la crescita del nostro consumo energetico. Ma la scoperta della fissione avvenne proprio quando il mondo stava per essere sommerso da una guerra senza quartiere. I fisici stimarono che la fissione di 1 chilogrammo di uranio avrebbe fornito una potenza esplosiva pari a circa 20 mila tonnellate di T.N.T. (tritolo). Il pensiero delle conseguenze di una guerra combattuta con armi di questo genere era orribile, ma l'idea di un mondo in cui la Germania nazista avesse posto le mani su un simile esplosivo prima degli Alleati era ancora pi— orribile. Il fisico americano di origine ungherese Leo Szilard, che meditava da anni sulle reazioni nucleari a catena, previde il futuro possibile con estrema lucidit…. Insieme ad altri due fisici ungheresi-americani, Eugene Wigner e Edward Teller, egli convinse il gentile e pacifico Einstein, nell'estate del 1939, a scrivere una lettera al presidente Franklin Delano Roosevelt, esponendo le potenzialit… offerte dalla fissione dell'uranio e suggerendo che si facesse ogni sforzo per sviluppare quest'arma prima che vi riuscissero i nazisti. La lettera fu scritta il 2 agosto 1939 e fu consegnata al presidente l'11 ottobre del 1939. Tra queste due date c'era stato lo scoppio della seconda guerra mondiale in Europa. I fisici della Columbia University, sotto la direzione di Fermi, che aveva lasciato l'Italia per l'America l'anno prima, erano al lavoro per realizzare la fissione autosostenuta di una grande quantit… di uranio. Alla fine, lo stesso governo degli Stati Uniti prese provvedimenti sulla scorta della lettera di Einstein. Il 6 dicembre 1941 il presidente Roosevelt (assumendosi un grosso rischio politico, in caso di insuccesso) autorizz• l'organizzazione di un progetto gigantesco, che prese il nome volutamente vago di Manhattan Engineer District; il progetto consisteva nel mettere a punto una bomba atomica. Il giorno dopo i giapponesi attaccarono Pearl Harbor e gli Stati Uniti si trovarono in guerra. La prima pila atomica. Come c'era da aspettarsi, la pratica non seguŤ certo facilmente alla teoria, ma ci volle un gran lavoro per mettere a punto una reazione a catena. In primo luogo occorreva una notevole quantit… di uranio sufficientemente puro perch‚ i neutroni non andassero sprecati restando assorbiti dalle impurit…. L'uranio Š un elemento abbastanza comune nella crosta terrestre: in media sono presenti 2 grammi di uranio per tonnellata di roccia; l'uranio pertanto Š 400 volte pi— abbondante dell'oro. Ma Š anche molto disperso, cosŤ che sono rari i luoghi nel mondo in cui lo si trova in minerali ricchi o anche solo in concentrazione ragionevole. Inoltre, prima del 1939, quasi non esistevano utilizzazioni dell'uranio e quindi neppure tecnologie per la sua purificazione. Fino ad allora era stata prodotta negli Stati Uniti meno di un'oncia (28,35 grammi) di uranio metallico. Sotto la direzione di Spedding i laboratori dello Iowa State College si misero a studiare il problema della purificazione mediante resine scambiatrici di ioni (vedi capitolo sesto), e nel 1942 cominciarono a produrre uranio metallico ragionevolmente puro. Ma questo non era che un primo passo. A quel punto si dovevano separare le frazioni pi— fissili dell'uranio. L'isotopo uranio 238 (U 238) ha un numero pari di protoni (92) e un numero pari di neutroni (146): i nuclei con un numero pari di nucleoni sono pi— stabili di quelli con un numero dispari. L'altro isotopo dell'uranio naturale - l'uranio 235 - ha un numero dispari di neutroni (143); ci• aveva consentito a Bohr di prevedere che la fissione dell'uranio 235 sarebbe stata pi— facile di quella dell'uranio 238. Nel 1940 un gruppo di ricerca, sotto la guida del fisico americano John Ray Dunning, isol• una piccola quantit… di uranio 235 e dimostr• che la congettura di Bohr era esatta. La fissione dell'U 238 avviene solo quando esso Š colpito da neutroni veloci dotati di un'energia superiore a una certa soglia, mentre per la fissione dell'U 235 sono sufficienti neutroni di qualsiasi energia, addirittura anche i semplici neutroni termici. Il problema era che nell'uranio naturale purificato solo un atomo su 140 Š U 235, mentre il resto Š U 238; pertanto la maggior parte dei neutroni liberati nella fissione dell'U 235 venivano catturati da atomi di U 238 senza produrre fissione alcuna. Anche bombardando l'uranio con neutroni abbastanza veloci da scindere l'U 238, i neutroni liberati dalla fissione dell'U 238 non avevano energia sufficiente a sostenere una reazione a catena negli atomi restanti di questo isotopo pi— comune. In altre parole, la presenza dell'U 238 smorzava la reazione a catena, fino a farla estinguere, un po' come se si cercasse di far bruciare delle foglie bagnate. Non restava altro da fare, allora, che cercare di separare su grande scala l'U 235 dall'U 238, o almeno tentare di asportare abbastanza U 238 da ottenere un sostanziale arricchimento del contenuto di U 235 nel miscuglio. I fisici affrontarono il problema con vari metodi, ciascuno dei quali offriva solo una debole speranza di successo. Quello che finŤ per funzionare meglio fu la "diffusione gassosa", che Š rimasto il metodo preferito fino al 1960, nonostante i suoi costi spaventosi. Uno scienziato della Germania occidentale ha in seguito elaborato una tecnica molto pi— economica per isolare l'U 235, la "centrifugazione": le molecole pi— pesanti vengono proiettate verso l'esterno, separandosi da quelle pi— leggere, che contengono l'U 235. Questo processo mette alla portata economica delle potenze minori la fabbricazione delle bombe nucleari, fatto non del tutto desiderabile. La massa dell'atomo dell'uranio 235 Š inferiore dell'1,3 per cento a quella dell'uranio 238; di conseguenza se gli atomi fossero nello stato gassoso, quelli dell'U 235 sarebbero un po' pi— veloci di quelli dell'U 238, dai quali, proprio per la loro pi— veloce diffusione, si separerebbero passando attraverso una serie di barriere filtranti. Ma per utilizzare questo principio, si doveva prima disporre di uranio allo stato gassoso. A tale scopo si ricorse all'unico (o quasi) metodo possibile: combinarlo con il fluoro, ottenendo l'"esafluoruro di uranio", un liquido volatile composto di un atomo di uranio e sei di fluoro; in questo composto una molecola contenente U 235 Š pi— leggera di meno dell'1 per cento di una molecola contenente U 238, una differenza che si Š comunque dimostrata sufficiente perch‚ il metodo funzionasse. Si fece quindi passare il vapore di esafluoruro di uranio sotto pressione attraverso barriere porose; a ogni passaggio le molecole contenenti U 235 guadagnavano, in media, un po' di terreno e tale vantaggio a favore dell'U 235 si accumulava attraversando le varie barriere successive. Ci sarebbero volute, per•, migliaia di barriere per ottenere quantit… notevoli di esafluoruro di uranio 235 quasi puro; ma ne bastava un numero molto pi— piccolo per ottenere una concentrazione sufficientemente arricchita di U 235. Nel 1942, si aveva ormai la ragionevole certezza che il metodo della diffusione gassosa (insieme a uno o due altri) era in grado di produrre uranio arricchito in gran quantit…: vennero allora costruiti degli impianti di separazione (che costarono un miliardo di dollari ciascuno e consumavano altrettanta elettricit… quanto la citt… di New York) nella cittadina segreta di Oak Ridge, nel Tennessee, chiamata talvolta, da scienziati irriverenti, Dogpatch, come citt… immaginaria di "Li'l Abner" nelle storie di Al Capp. Nel frattempo i fisici calcolarono la "dimensione critica" necessaria perch‚ una reazione a catena si autosostenga. Se il blocco di uranio arricchito Š troppo piccolo, dalla sua superficie sfuggono troppi neutroni senza essere assorbiti dagli atomi di U 235; per minimizzare questa perdita, il pezzo d'uranio deve avere un volume grande rispetto alla superficie. Raggiunta una certa dimensione critica, i neutroni intercettati dagli atomi di U 235 saranno in numero sufficiente per tenere in vita una reazione a catena. I fisici scoprirono anche un modo per accrescere il rendimento dei neutroni disponibili. Come ho gi… detto, i neutroni "termici" (cioŠ, lenti) sono assorbiti dall'uranio 235 meglio di quelli veloci; pertanto, si ricorse a un "moderatore", che facesse diminuire le alte velocit… con cui i neutroni emergevano dalle reazioni di fissione. L'acqua comune sarebbe stata un ottimo agente di rallentamento, ma purtroppo i nuclei dell'idrogeno ordinario catturavano troppi neutroni. Il deuterio (idrogeno 2) assolveva il compito assai meglio, non avendo in pratica tendenza ad assorbire neutroni; pertanto, ai fini della fissione, acquist• un grande interesse la produzione di ingenti quantitativi di acqua pesante. Fino al 1943, essa veniva preparata soprattutto per elettrolisi; l'acqua ordinaria si dissocia in idrogeno e ossigeno pi— facilmente dell'acqua pesante: pertanto, dopo l'elettrolisi di una grande quantit… di acqua, quella che resta alla fine Š ricca di acqua pesante. Dopo il 1943, il metodo favorito fu quello della distillazione frazionata. L'acqua ordinaria ha punto di ebollizione pi— basso; pertanto il residuo finale di acqua non ancora evaporata Š ricco di acqua pesante. Nei primi anni quaranta l'acqua pesante era diventata preziosa. La storia di come i Joliot-Curie riuscirono a far uscire le riserve francesi di acqua pesante dal paese al momento dell'occupazione nazista, nel 1940, Š rocambolesca. Circa 500 litri di acqua pesante, che erano stati prodotti in Norvegia, caddero nelle mani dei nazisti tedeschi e furono distrutti dal raid di un commando inglese nel 1942. Tuttavia anche l'acqua pesante aveva i suoi inconvenienti: avrebbe potuto evaporare quando la reazione a catena avesse raggiunto temperature altissime, e avrebbe corroso l'uranio. Gli scienziati impegnati nel Progetto Manhattan decisero di usare come moderatore il carbonio, sotto forma di grafite molto pura. Un altro moderatore possibile, il berillio, presentava lo svantaggio della tossicit…; la "berilliosi" fu infatti riscontrata per la prima volta proprio all'inizio degli anni quaranta in uno dei fisici che lavoravano alla bomba atomica. Ora, cerchiamo di immaginare come avvenga una reazione a catena. Si comincia con l'inviare un fascio di neutroni di innesco nel complesso costituito da moderatore e uranio arricchito. Un certo numero di atomi di uranio 235 subisce la fissione, liberando dei neutroni, che a loro volta colpiscono altri atomi di uranio 235; anche questi subiscono la fissione e liberano ulteriori neutroni, alcuni dei quali verranno assorbiti da atomi che non sono di U 235, mentre altri ancora sfuggiranno dalla pila. Ma se in ogni fissione 1 neutrone (esattamente 1) ha l'effetto di produrre un'altra fissione, allora la reazione a catena sar… autosostenuta. Se il "fattore di moltiplicazione" Š maggiore di uno, anche di pochissimo (per esempio, se Š 1,001), la reazione a catena crescer… rapidamente, fino a provocare un'esplosione. Questo va bene nel caso delle bombe, ma non certo per gli scopi sperimentali. Era quindi necessario trovare un modo per tenere sotto controllo il processo di fissione: ci• poteva essere ottenuto inserendo delle barre di una sostanza come il cadmio, che ha un'elevata sezione d'urto per la cattura dei neutroni. La reazione a catena si sviluppa cosŤ rapidamente che le barre di controllo di cadmio non potrebbero essere inserite con sufficiente rapidit… se non fosse per il fortunato particolare che gli atomi di uranio non emettono tutti i loro neutroni all'istante, durante la fissione. Circa 1 neutrone ogni 150 Š un "neutrone ritardato", viene cioŠ emesso qualche minuto dopo la fissione, perch‚ non proviene direttamente dagli atomi di uranio che hanno subito la fissione, ma da atomi pi— piccoli, formatisi nel corso della fissione stessa. Quando il fattore di moltiplicazione supera di poco l'unit…, questo ritardo basta per dare il tempo di inserire le barre che controllano la reazione. Nel 1941, vennero condotti degli esperimenti con miscugli di uranio e grafite; l'informazione raccolta fu sufficiente perch‚ i fisici ritenessero che, anche senza uranio arricchito, fosse possibile innescare una reazione a catena, se si fosse usato un pezzo di uranio abbastanza grande. I fisici si accinsero allora a costruire un reattore di dimensioni critiche all'Universit… di Chicago. A quell'epoca erano disponibili circa sei tonnellate di uranio puro, che furono integrate con ossido di uranio. Vennero sovrapposti strati alterni di uranio e grafite: cinquantasette strati in tutto, attraversati da fori in cui fosse possibile inserire le barre di controllo di cadmio. La struttura venne chiamata "pila" - un evasivo nome in codice, che non ne rivelava la vera funzione. (Durante la prima guerra mondiale, per analogo scopo di segretezza vennero chiamati "tank" i carri armati; tale nome rest• in uso, mentre la denominazione "pila atomica" fu sostituita da quella pi— appropriata di "reattore nucleare".) La pila di Chicago, costruita sotto lo stadio da football, aveva una larghezza di 9 metri, una lunghezza di 9,75 metri e un'altezza di 6,5 metri: pesava 1300 tonnellate e ne conteneva 46 di uranio, fra metallo e ossido. (Si sa che, usando uranio 235 puro, la massa critica non avrebbe superato i 255 grammi.) Il 2 dicembre 1942 le barre di controllo di cadmio vennero estratte lentamente. Alle 15,45 il fattore di moltiplicazione raggiunse il valore 1: era in corso una reazione di fissione autosostenuta. In quel momento l'umanit… entrava, senza saperlo, nell'Era Nucleare. Il fisico che dirigeva il progetto era Enrico Fermi: Eugene Wigner gli offrŤ una bottiglia di Chianti per celebrare il momento storico. Arthur Compton, anch'egli presente, fece una telefonata interurbana a James Bryant Conant ad Harvard, annunciandogli il successo: ®Il navigatore italiano,Ż egli disse, ®Š giunto nel Nuovo MondoŻ. Conant chiese: ®Come erano gli indigeni?Ż. La pronta risposta fu: ®Molto amichevoli!Ż. E' curioso e interessante il fatto che il primo navigatore italiano scoprŤ un mondo nuovo nel 1492, e il secondo ne scoprŤ un altro nel 1942. L'Era nucleare. Nel frattempo si era scoperto un altro combustibile adatto per la fissione: l'uranio 238, dopo aver assorbito un neutrone termico, diventa uranio 239, che ben presto decade in nettunio 239, il quale a sua volta si disintegra con analoga rapidit… dando origine al plutonio 239. Il plutonio 239, avendo nel nucleo un numero dispari di neutroni (145) ed essendo pi— complesso dell'uranio 235, dovrebbe essere molto instabile. Sembrava logico prevedere che il plutonio 239 subisse la fissione per effetto dei neutroni termici; nel 1941 questa previsione venne confermata sperimentalmente; non sapendo ancora con certezza se la separazione dell'U 235 si sarebbe rivelata concretamente realizzabile, i fisici decisero di mettersi le spalle al sicuro, tentando di produrre il plutonio su vasta scala. Speciali reattori furono costruiti nel 1943 a Oak Ridge e ad Hanford, nello stato di Washington, per preparare il plutonio. Essi costituivano un grande passo avanti rispetto alla pila di Chicago. Per prima cosa erano progettati in modo che fosse possibile estrarne periodicamente l'uranio; il plutonio prodotto poteva essere separato dall'uranio con mezzi chimici; anche i prodotti di fissione, alcuni dei quali assorbivano molto i neutroni, potevano venir separati e rimossi. Inoltre, i nuovi reattori erano raffreddati ad acqua, per prevenire il surriscaldamento. (La pila di Chicago poteva funzionare solo per brevi periodi, perch‚ era raffreddata esclusivamente ad aria.) Nel 1945 erano ormai disponibili quantit… di uranio 235 e di plutonio 239 sufficienti per costruire delle bombe. Questa parte del progetto fu realizzata in una terza citt… segreta, Los Alamos, nel Nuovo Messico, sotto la direzione del fisico americano J. Robert Oppenheimer. Per costruire una bomba era necessario accelerare il pi— possibile i tempi della reazione a catena, il che richiedeva l'uso di neutroni veloci per ridurre l'intervallo tra una fissione e l'altra. Venne pertanto eliminato il moderatore e la bomba venne chiusa in un massiccio involucro per tenere insieme l'uranio finch‚ buona parte di esso subisse la fissione. Dato che una massa critica di materiale fissile sarebbe esplosa spontaneamente (innescata dai neutroni vaganti presenti nell'aria), il combustibile per la bomba venne suddiviso in due o pi— sezioni. Il meccanismo di innesco era un esplosivo convenzionale, che provocava il contatto delle varie sezioni al momento della detonazione: un dispositivo era chiamato ®Thin ManŻ (uomo magro) - un tubo con due pezzi di uranio 235 agli estremi - mentre un altro, detto ®Fat ManŻ (uomo grasso), aveva la forma di una palla in cui un guscio composto di materiale fissile "implodeva" verso il centro; per effetto dell'implosione e di un pesante involucro esterno, detto "tamper", veniva allora a formarsi momentaneamente una densa massa critica. L'involucro aveva anche la funzione di riflettere i neutroni rinviandoli nella massa in cui era in corso la fissione, riducendo in tal modo le dimensioni critiche. Sperimentare su scala ridotta questo ordigno era impossibile. Per funzionare, la bomba doveva superare la dimensione critica. Di conseguenza, la prima verifica fu l'esplosione di una bomba a fissione nucleare vera e propria, chiamata di solito, ma impropriamente, "bomba atomica", o bomba-A. Alle 5,30 del 16 luglio 1945 ad Alamogordo, nel Nuovo Messico, venne fatta esplodere una bomba, che ebbe effetti veramente terrificanti: la sua potenza esplosiva era pari a 20 mila tonnellate di T.N.T. Si narra che I. I. Rabi, a cui venne chiesto pi— tardi cosa avesse visto, abbia risposto con tristezza: ®Non posso dirvelo, ma non aspettatevi di morire di morte naturaleŻ. (E' doveroso riferire anche che la persona che ricevette questa risposta morŤ, qualche anno dopo, proprio di morte naturale.) Furono preparate altre due bombe a fissione. Una era una bomba all'uranio chiamata ®Little BoyŻ, lunga 3 metri e larga 60 centimetri, del peso di 4 tonnellate, che fu sganciata su Hiroshima il 6 agosto 1945; a farla esplodere fu un'onda radar. Alcuni giorni dopo, fu sganciata su Nagasaki la seconda bomba, una bomba al plutonio, di 3,3 per 1,5 metri, del peso di 4,5 tonnellate, chiamata ®Fat ManŻ. Insieme le due bombe avevano la potenza esplosiva di 35 mila tonnellate di T.N.T. Con il bombardamento di Hiroshima l'Era Nucleare, che pure era iniziata gi… da tre anni, giunse clamorosamente a conoscenza del mondo. Durante i quattro anni che seguirono, gli americani si cullarono nell'illusione che la bomba nucleare potesse rimanere segreta, solo che opportune misure di sicurezza ne impedissero la costruzione in altre nazioni. In realt…, gli studi teorici e la sperimentazione pratica relativi alla fissione nucleare erano gi… a conoscenza degli scienziati di altri paesi fin dal 1939, e l'Unione Sovietica era impegnata a fondo in questo settore di ricerca fin dal 1940. Se la seconda guerra mondiale non avesse impegnato le risorse di quella nazione (certo inferiori a quelle degli Stati Uniti), assai pi— di quanto non impegnasse quelle della nazione americana, nella sua posizione di paese non invaso, l'URSS avrebbe potuto avere una bomba nucleare nel 1945, come gli Stati Uniti. Comunque, l'Unione Sovietica fece esplodere la sua prima bomba nucleare il 22 settembre 1949, suscitando sgomento e sorpresa (abbastanza fuori luogo) nella maggior parte degli americani. La bomba sovietica aveva una potenza sei volte maggiore di quella di Hiroshima e un effetto esplosivo pari a 200 mila tonnellate di T.N.T. Il 3 ottobre 1952, la Gran Bretagna divenne la terza potenza nucleare con l'esplosione di una propria bomba sperimentale. Il 13 febbraio 1960, la Francia si unŤ al ®club nucleareŻ come quarto membro, facendo esplodere nel Sahara una bomba al plutonio. Il 16 ottobre 1964, la Repubblica popolare cinese annunci• l'esplosione di una bomba nucleare, e divent• il quinto membro del club. Nel maggio 1974, l'India fece esplodere la propria bomba nucleare, per la quale aveva usato del plutonio sottratto surrettiziamente da un reattore (destinato a scopi pacifici) che le era stato fornito dal Canada, e divenne il sesto membro. Da allora parecchi paesi, tra cui Israele, il Sudafrica, l'Argentina e l'Iraq, sono stati sospettati di essere sul punto di dotarsi di armi nucleari. Questa proliferazione nucleare Š diventata motivo di allarme per molti. E' gi… molto preoccupante vivere sotto la minaccia di una guerra nucleare a cui potrebbe dar inizio una delle due superpotenze - le quali per altro si sono astenute dall'usare le loro armi atomiche per quarant'anni nella consapevolezza delle catastrofiche conseguenze di uno scontro nucleare. Ma essere alla merc‚ delle piccole potenze, che possono agire in base a reazioni di rabbia, spinte da interessi locali e guidate da governanti di vedute mentali ristrette, sembrerebbe proprio intollerabile. La reazione termonucleare. Nel frattempo la bomba a fissione Š diventata un'arma superata: gli uomini sono riusciti a innescare un'altra reazione nucleare capace di produrre bombe ancora pi— devastanti. Nella fissione dell'uranio, lo 0,1 per cento della massa del suo atomo si converte in energia; nella fusione degli atomi di idrogeno in cui si forma l'elio, non meno dello 0,5 per cento della loro massa si converte in energia, come era stato messo in evidenza per la prima volta nel 1915 dal chimico americano William Draper Harkins. A temperature di milioni di gradi, l'energia dei protoni Š abbastanza alta per consentire la loro fusione: cosŤ due protoni possono unirsi, e dopo aver emesso un positrone e un neutrino (un processo che converte uno dei protoni in un neutrone) costituire un nucleo di deuterio; questo, a sua volta, pu• fondersi con un protone dando origine a un nucleo di tritio, che pu• fondersi con un altro protone formando elio 4; oppure i nuclei di deuterio e di tritio possono combinarsi in vari modi, sempre formando elio 4. Queste reazioni nucleari possono avvenire soltanto in presenza di altissime temperature: pertanto vengono chiamate "reazioni termonucleari". Negli anni trenta, si pensava che l'unico luogo in cui potessero esistere le temperature necessarie fosse il centro delle stelle; nel 1938 il fisico di origine tedesca Hans Albrecht Bethe (che aveva lasciato la Germania di Hitler nel 1935, stabilendosi negli Stati Uniti) aveva avanzato l'idea che reazioni di fusione fossero responsabili dell'energia irradiata dalle stelle. Fu la prima spiegazione del tutto soddisfacente dell'energia stellare avanzata da quando Helmholtz aveva sollevato il problema, circa un secolo prima. Ora, la bomba basata sulla fissione dell'uranio forniva le temperature necessarie, sulla terra; essa poteva fungere da fiammifero abbastanza caldo per innescare nell'idrogeno una reazione di fusione a catena. Per un certo tempo si dubit• che fosse possibile utilizzare una simile reazione per fabbricare una bomba: per prima cosa, il combustibile, cioŠ l'idrogeno sotto forma di una miscela di deuterio e di tritio, doveva formare una massa assai densa, il che significava che doveva essere liquefatto e mantenuto a una temperatura solo pochi gradi sopra lo zero assoluto. In altri termini, si sarebbe dovuto far esplodere un frigorifero di grande massa, ma soprattutto, anche supposto che fosse possibile fabbricare una bomba all'idrogeno, a cosa sarebbe servita? La bomba a fissione era gi… sufficientemente devastante da radere al suolo intere citt…; una bomba all'idrogeno non avrebbe fatto che accrescere le distruzioni e spazzare via intere popolazioni civili. Malgrado queste prospettive poco attraenti, Stati Uniti e Unione Sovietica si sentirono obbligati a proseguire su questa strada. La Commissione per l'energia atomica degli Stati Uniti provvide alla produzione di una certa quantit… di tritio, predispose un ordigno da 60 tonnellate basato sulla fissione-fusione su un atollo corallino del Pacifico e, il primo novembre 1952, provoc• la prima esplosione termonucleare nella storia del nostro pianeta (una "bomba all'idrogeno", o "bomba H"). Essa conferm• le pi— spaventose previsioni: l'esplosione produsse l'equivalente di 10 milioni di tonnellate di T.N.T. (10 megaton) - 500 volte i miserabili 20 chiloton di energia della bomba di Hiroshima. L'atollo fu spazzato via dall'esplosione. I russi non erano molto in ritardo: il 12 agosto 1953 a loro volta provocarono un'esplosione termonucleare con una bomba abbastanza leggera da essere trasportata con un aereo. Gli americani produssero una bomba H trasportabile solo nel 1954; mentre a loro erano occorsi sette anni e mezzo dopo la bomba a fissione per mettere a punto la bomba a fusione, ai russi bastarono cinque anni. Intanto era stato elaborato un progetto per generare una reazione termonucleare a catena in modo pi— semplice, confinandola in una bomba portatile. La chiave per questa reazione fu fornita dall'elemento litio. Quando l'isotopo litio 6 assorbe un neutrone, esso si scinde in un nucleo di elio e uno di tritio, emettendo 4,8 Mev di energia. Supponiamo ora di usare come combustibile un composto del litio e dell'idrogeno, quest'ultimo sotto forma di deuterio; questo composto Š solido, cosŤ non occorre il refrigerante per condensare il combustibile: una fissione di innesco fornir… neutroni per la scissione del litio; il calore dell'esplosione causer… la fusione del deuterio presente nel composto e del tritio prodotto dalla fissione del litio. In altri termini, avverranno varie reazioni energetiche: la fissione del litio, la fusione del deuterio con altro deuterio e la fusione del deuterio con il tritio. Ora, oltre a liberare energie tremende, queste reazioni producevano anche un gran numero di neutroni in eccesso. I costruttori della bomba si chiesero: perch‚ non usare questi neutroni per la fissione di una massa di uranio? Si pu• provocare la fissione anche nel comune uranio 238, purch‚ i neutroni siano molto veloci (anche se pi— difficilmente che nell'uranio 235). La violenta esplosione di neutroni veloci prodotti dalle reazioni di fusione potrebbe provocare la fissione di un considerevole numero di atomi di U 238; supponiamo di costruire una bomba con un nocciolo di U 235 (per l'innesco) che abbia intorno una carica esplosiva di deuteruro di litio, il tutto avvolto da un mantello di uranio 238 che funga anch'esso da esplosivo. Si avrebbe una bomba davvero potente. Si potrebbe dare qualsiasi spessore si desideri al mantello di U 238, perch‚ questo non ha una dimensione critica oltre la quale la reazione a catena avviene spontaneamente. Ci• che risulta viene chiamato talvolta "bomba U". Anche questa bomba venne costruita. E fu anche fatta esplodere, a Bikini, nelle Isole Marshall, il primo marzo 1954: il turbamento fu grande in tutto il mondo. L'energia prodotta si aggirava sui 15 megaton. Ancora pi— drammatica fu una pioggia di particelle radioattive da cui furono investiti ventitr‚ pescatori giapponesi che si trovavano sul peschereccio "The Lucky Dragon". La radioattivit… distrusse il carico di pesce, fece ammalare i pescatori, uno dei quali finŤ per morire, e non miglior• certo la salute del resto dell'umanit…. Dal 1954 in poi le bombe termonucleari sono entrate a far parte dell'arsenale degli Stati Uniti, dell'Unione Sovietica e della Gran Bretagna. Nel 1967 la Cina divenne il quarto membro del ®club termonucleareŻ: aveva impiegato solo tre anni per passare dalla fissione alla fusione termonucleare. L'Unione Sovietica ha fatto esplodere bombe all'idrogeno di potenza compresa tra 50 e 100 megaton, e gli Stati Uniti sono perfettamente in grado di costruirne anche di pi— grandi, in breve tempo. Negli anni settanta vennero sviluppate bombe nucleari che minimizzavano l'effetto esplosivo e massimizzavano la radiazione, particolarmente di neutroni, il che significa un minor danno alle cose e uno maggiore agli esseri umani. Queste "bombe al neutrone" piacciono a chi tiene in gran conto i beni materiali e in poco conto la vita umana. Le prime bombe nucleari, usate negli ultimi giorni della seconda guerra mondiale, furono sganciate da aeroplani. Oggi Š possibile lanciarle mediante "missili balistici intercontinentali" (I.C.B.M.), che si avvalgono di razzi; il loro lancio, mirato con estrema precisione, pu• essere effettuato da qualsiasi punto della terra verso qualsiasi altro punto. Stati Uniti e Unione Sovietica hanno entrambi grandi arsenali di tali missili, tutti suscettibili di essere armati con testate nucleari. Per questa ragione una guerra termonucleare generale tra le due superpotenze, se ingaggiata senza quartiere da entrambe le parti, pu• porre fine alla civilt… (e, forse, a gran parte delle capacit… della terra di sostentare la vita) in non pi— di mezz'ora. Se mai Š esistito al mondo un argomento di riflessione capace di far rinsavire, si direbbe che Š proprio questo. USO PACIFICO DEL NUCLEO. L'uso drammatico dell'energia nucleare sotto forma di bombe dall'incredibile potere distruttivo ha contribuito a far apparire lo scienziato nel ruolo dell'orco pi— di qualsiasi altro fatto avvenuto dalle origini della scienza. In un certo senso ci• Š giustificato, perch‚ nessuna argomentazione o razionalizzazione pu• cambiare il fatto che gli scienziati hanno costruito effettivamente la bomba nucleare, conoscendone fin dal principio il potere distruttivo e sapendo che sarebbe stata probabilmente utilizzata. E' per• doveroso aggiungere che gli scienziati agirono sotto la pressione di una guerra terribile combattuta contro nemici spietati, avendo di fronte la prospettiva terrificante che un folle come Adolf Hitler potesse arrivare a costruire la bomba per primo. Si deve anche aggiungere che, in generale, gli scienziati che lavorarono alla bomba si sentirono profondamente a disagio per quello che facevano, che molti si opposero al suo uso, e che qualcuno addirittura abbandon• in seguito il campo della fisica nucleare, in preda a qualcosa che non pu• essere definito se non come senso di colpa. Nel 1945 un gruppo di fisici, capeggiati dal premio Nobel James Frank (oggi cittadino americano), fecero una petizione al Ministero della guerra contro l'uso della bomba nucleare sulle citt… giapponesi, esponendo dettagliatamente quale sarebbe stata la pericolosa situazione di stallo che sarebbe seguita al suo uso. Assai minori furono gli scrupoli di coscienza dei capi politici e militari che presero la decisione vera e propria di usare la bomba e che, per qualche strana ragione, sono considerati come patrioti da molti di coloro che vedono gli scienziati come demoni. Inoltre, non possiamo e non dobbiamo sottovalutare il fatto che, liberando l'energia del nucleo atomico, gli scienziati ci hanno messo a disposizione un potenziale che pu• essere usato costruttivamente e non solo distruttivamente. E' importante sottolineare questo punto in un mondo e in un'epoca in cui la minaccia della distruzione nucleare ha messo la scienza e gli scienziati in una delicata posizione difensiva, e in particolare in un paese come gli Stati Uniti tradizionalmente sensibile alla tesi di Rousseau secondo la quale l'istruzione sarebbe una fonte di corruzione della condizione integra e ingenua degli esseri umani nello stato di natura. Perfino l'esplosione di una bomba atomica potrebbe non essere soltanto distruttiva. Come gli esplosivi chimici, di potenza minore, da tempo usati nella tecnica mineraria e nella costruzione di dighe e autostrade, anche gli esplosivi nucleari potrebbero apportare enormi vantaggi in progetti costruttivi. A questo proposito sono stati proposti sogni di tutti i generi: creare porti, scavare canali, frantumare formazioni rocciose del sottosuolo, apprestare riserve di calore per la produzione di energia - si Š pensato di utilizzare l'energia nucleare perfino per la propulsione a grandi distanze delle navi spaziali. La prospettiva del pericolo di contaminazione radioattiva o di spese superiori al previsto o di entrambe le cose ha frenato questi ambiziosi progetti. Eppure Š stata realizzata un'applicazione costruttiva dell'energia nucleare, basata proprio sul tipo di reazione a catena nata sotto lo stadio dell'Universit… di Chicago. Un reattore nucleare controllato pu• sviluppare grandi quantit… di calore, che, naturalmente, possono essere convogliate altrove da un "refrigerante", come l'acqua o anche un metallo fuso, per produrre elettricit… o riscaldare un edificio. Navi a propulsione nucleare. Reattori nucleari sperimentali in grado di produrre elettricit… furono costruiti in Gran Bretagna e negli Stati Uniti gi… nei primi anni dopo la guerra. Gli Stati Uniti oggi possiedono una flotta di pi— di 100 sottomarini nucleari, il primo dei quali, il "Nautilus" (costato 50 milioni di dollari), fu varato nel gennaio 1954. Questa unit…, cosŤ importante a quell'epoca come lo era stato il "Clermont" di Fulton ai suoi tempi, era dotata di motori che potevano contare su una fonte virtualmente illimitata di energia; ci• permette ai sottomarini di restare sott'acqua per periodi indefinitamente lunghi, mentre i sottomarini ordinari devono tornare spesso in superficie per ricaricare le batterie mediante generatori diesel che richiedono aria per il loro funzionamento. Inoltre, mentre i sottomarini ordinari viaggiano a una velocit… di otto nodi, un sottomarino nucleare viaggia a venti nodi e pi—. Il primo nocciolo del reattore del "Nautilus" dur• per 100 mila chilometri, durante i quali fu data una dimostrazione spettacolare. Il "Nautilus" attravers• l'Oceano Artico in immersione nel 1958, rilevando una profondit… dell'oceano al polo nord pari a 4090 metri, assai pi— di quanto si era pensato. Un secondo sottomarino nucleare, pi— grande, il "Triton", circumnavig• il globo restando sempre in immersione, seguendo la rotta di Magellano, in ottantaquattro giorni, tra il febbraio e il maggio del 1960. Anche l'Unione Sovietica possiede sottomarini nucleari e, nel dicembre del 1957, var• la prima nave nucleare di superficie, il rompighiaccio "Lenin". Poco prima gli Stati Uniti avevano messo in cantiere un'imbarcazione nucleare di superficie; e nel luglio del 1959 furono varati il "Long Beach" (un incrociatore) e il "Savannah" (una nave mercantile). Il "Long Beach" Š azionato da due reattori nucleari. Meno di dieci anni dopo il varo delle prime imbarcazioni nucleari, gli Stati Uniti avevano, tra quelle in servizio, in costruzione o in procinto di essere costruite, quattro imbarcazioni di superficie nucleari. Eppure, salvo che per i sottomarini, l'entusiasmo per la propulsione nucleare Š andato scemando. Nel 1967, il Savannah Š stato posto in disarmo dopo due anni di vita; il suo costo di esercizio ammontava a 3 milioni di dollari all'anno, spesa che venne considerata eccessiva. Reattori nucleari per la produzione di elettricit…. Ma non esistono soltanto gli scopi militari. Il primo reattore nucleare costruito per produrre energia elettrica destinata a usi civili Š entrato in funzione nell'Unione Sovietica nel giugno del 1954; era piuttosto piccolo, con una potenza non superiore a 5000 kilowatt. Nell'ottobre del 1956, la Gran Bretagna mise in funzione la centrale di Calder Hall, con una potenza di pi— di 50 mila kilowatt. Gli Stati Uniti arrivarono terzi in questo campo. Il 26 maggio 1958, la Westinghouse mise in funzione un piccolo reattore nucleare per la produzione di energia elettrica per usi civili a Shippingport, in Pennsylvania, con una potenza di 60 mila kilowatt. Altri reattori seguirono ben presto negli Stati Uniti e altrove. Nel giro di poco pi— di dieci anni furono costruiti reattori nucleari in una dozzina di paesi, e quasi la met… dell'elettricit… distribuita negli Stati Uniti per usi civili proveniva dalla fissione nucleare. Anche lo spazio esterno fu conquistato: il 3 aprile 1965, fu lanciato un satellite azionato da un piccolo reattore. Eppure il problema della contaminazione radioattiva Š assai serio. All'inizio degli anni settanta l'opposizione pubblica alla continua proliferazione delle centrali nucleari divenne sempre pi— forte. Poi, il 28 marzo 1979, ci fu il pi— serio incidente nucleare della storia americana; avvenne a Three Mile Island, sul fiume Susquehanna, vicino a Harrisburg. In realt… non vi fu rilascio di quantit… significative di radioattivit… e nessun pericolo per le persone, anche se per vari giorni si rasent• il panico. Il reattore fu comunque messo fuori esercizio a tempo indefinito, essendo molto lunghe e costose le operazioni di disinquinamento. La vittima principale di questo incidente fu l'industria dell'energia nucleare: un'ondata di sentimenti antinucleari si rovesci• sugli Stati Uniti e anche su varie altre nazioni: la probabilit… che vengano messi in funzione nuovi reattori nucleari negli Stati Uniti Š diminuita drasticamente. A quanto pare, l'incidente, oltre a far comprendere agli americani in modo drammatico cosa possa voler dire una contaminazione radioattiva, ha anche rafforzato l'opposizione della pubblica opinione mondiale contro la produzione (per non parlare dell'uso) di bombe nucleari, cosa certamente ottima agli occhi di qualsiasi essere ragionevole. (nota) Eppure non si pu• rinunciare tanto facilmente all'energia nucleare nei suoi aspetti pacifici. Il fabbisogno umano di energia Š soverchiante; come gi… ho messo in luce in questo stesso capitolo, Š possibile che i combustibili fossili non ci bastino a lungo e non Š probabile, almeno per un certo tempo, che riusciamo a sostituirli con l'energia solare. L'energia nucleare, invece, Š a portata di mano, e non mancano coloro che sostengono che, con le adeguate misure di sicurezza, essa "non" sia pi— pericolosa dei combustibili fossili, anzi lo sarebbe di meno. (Anche per quanto riguarda la contaminazione radioattiva, si deve ricordare che il carbone contiene piccole quantit… di impurit… radioattive e che bruciando esso immette nell'aria pi— radioattivit… dei reattori nucleari - almeno cosŤ si sostiene.) NOTA: A rinvigorire tale opposizione ha contribuito notevolmente il gravissimo incidente avvenuto alla fine di aprile del 1986 presso la centrale nucleare sovietica di Chernobyl. [N.d.R.] Reattori autofertilizzanti. Supponiamo allora di considerare la fissione nucleare come una fonte di energia. Quanto a lungo potremmo contare su di essa? Non molto a lungo, se dovessimo far conto esclusivamente sul poco abbondante uranio 235 fissionabile; per fortuna Š possibile creare altri combustibili fissili, partendo dall'uranio 235. Abbiamo visto che uno di questi combustibili creati dall'uomo Š il plutonio. Supponiamo di costruire un piccolo reattore che utilizzi uranio arricchito come combustibile, omettendo il moderatore: avremo allora dei neutroni veloci che affluiranno in una ®camiciaŻ di uranio naturale posta tutt'intorno, convertendo l'uranio 238 in plutonio; se facciamo in modo che siano pochi i neutroni che vanno persi, da ogni fissione di un atomo di uranio 235 del nocciolo del reattore ricaveremo pi— di un atomo di plutonio. In altri termini, produrremo pi— combustibile di quello che consumiamo. Il primo di questi reattori autofertilizzanti Š stato costruito sotto la guida del fisico americano-canadese Walter Henry Zinn ad Arco, nell'Idaho, nel 1951. Fu chiamato E.B.R.-1 (Experimental Breeder Reactor-1). Oltre a dimostrare la realizzabilit… del processo di autofertilizzazione, esso produceva elettricit…. Fu messo fuori esercizio perch‚ obsoleto nel 1964 (tanto veloce Š il progresso in questo campo). L'autofertilizzazione pu• moltiplicare di molte volte l'energia che si pu• ricavare dall'uranio, perch‚ fa dell'uranio 238, il pi— comune isotopo dell'uranio, un potenziale combustibile. Un altro combustibile fissile potenziale Š l'elemento torio, di cui esiste esclusivamente l'isotopo 232; l'assorbimento di neutroni veloci lo trasforma nell'isotopo artificiale torio 233, che decade in breve tempo diventando uranio 233, per la fissione del quale bastano neutroni lenti; esso Š in grado di dar vita a una reazione a catena autosostenuta. CosŤ, si pu• aggiungere il torio alle fonti di energia disponibili; il torio, inoltre, Š cinque volte pi— abbondante dell'uranio sulla terra. E' stato stimato che nelle prime centinaia di metri di profondit… della crosta terrestre sono contenute in media 4200 tonnellate di uranio e torio per chilometro quadrato. Naturalmente non tutto questo materiale Š facilmente estraibile. Nel complesso si pu• ritenere che la quantit… totale di energia ricavabile dalle riserve di uranio e di torio sia circa venti volte quella ricavabile dal carbone e dal petrolio che ci rimangono. Tuttavia, le preoccupazioni nutrite dalla gente a proposito dei reattori ordinari non possono che aggravarsi nel caso dei reattori autofertilizzanti. Il plutonio Š molto pi— pericoloso dell'uranio, e alcuni sostengono che sia, tra i materiali che possono essere prodotti in grandi quantitativi, il pi— tossico in assoluto, e che se soltanto un po' di plutonio si diffondesse nell'ambiente provocherebbe una catastrofe irreversibile. Sussiste anche il timore che il plutonio destinato a reattori pacifici possa essere rubato o trafugato e usato per costruire una bomba nucleare (come ha gi… fatto l'India), che potrebbe poi essere usata per ricatti criminali. Forse si tratta di timori esagerati, tuttavia pur sempre ragionevoli; inoltre gli incidenti e i furti non sono gli unici motivi di preoccupazione. Anche se non vi fosse tema alcuna di incidenti, i reattori nucleari resterebbero pericolosi. Per capire il perch‚, consideriamo la radioattivit… e la radiazione ad alta energia a cui essa d… origine. I pericoli della radiazione. Certo, la vita sulla terra Š stata sempre esposta alla radioattivit… naturale e ai raggi cosmici. Tuttavia, la produzione di raggi X in laboratorio e la concentrazione di sostanze naturalmente radioattive, come il radio, che ordinariamente esistono in tracce diluitissime nella crosta terrestre, hanno moltiplicato il pericolo. Alcuni dei primi ricercatori che lavorarono con i raggi X e con il radio ricevettero addirittura dosi letali: tanto Marie Curie che sua figlia IrŠne Joliot-Curie morirono di leucemia dovuta all'esposizione a tali raggi, e vi Š poi il caso famoso degli operai che verniciavano i quadranti degli orologi negli anni venti, che morirono perch‚ si passavano sulle labbra i pennelli sporchi di radio. Il fatto che l'incidenza generale della leucemia sia aumentata sostanzialmente negli ultimi decenni pu• esser dovuto, in parte, all'aumentato uso dei raggi X destinati a varie applicazioni. L'incidenza della leucemia tra i medici, che hanno parecchie occasioni di venir esposti ai raggi X, Š doppia che nella popolazione in generale. Tra i radiologi, che sono specialisti che usano appunto i raggi X, l'incidenza Š dieci volte maggiore. Non fa meraviglia che si sia cercato di sostituire i raggi X con altre tecniche, come quelle basate sugli ultrasuoni. L'avvento della fissione ha peggiorato le cose. Nelle bombe o nei reattori nucleari il processo di fissione libera radioattivit… su una scala che potrebbe rendere sempre pi— pericoloso per la vita umana tutto ci• che mangiamo, beviamo o respiriamo, nonch‚ l'intera atmosfera e gli oceani. La fissione ha introdotto una forma di inquinamento il cui controllo metter… a dura prova l'ingegno umano. I "prodotti della fissione" degli atomi di uranio o di plutonio assumono varie forme. Tra i frammenti si possono trovare isotopi di bario, di tecnezio o di vari altri elementi. In totale sono stati identificati all'incirca 200 differenti prodotti radioattivi della fissione, che sollevano molti problemi di tecnologia nucleare, perch‚ alcuni di essi assorbono facilmente i neutroni smorzando la reazione. Per questa ragione il combustibile di un reattore deve essere estratto e purificato a intervalli abbastanza frequenti. Oltre a ci•, questi frammenti di fissione sono tutti pericolosi per la vita in vario grado, a seconda della natura e dell'energia della radiazione. Per esempio, l'introduzione nel corpo umano di particelle alfa Š pi— pericolosa di quella di particelle beta. Anche la velocit… di decadimento Š importante: un nuclide che decade rapidamente bombarda chi vi Š esposto con una maggiore quantit… di radiazione al secondo o all'ora di un altro che decade lentamente. Il tasso di decadimento di un nuclide radioattivo Š qualcosa di cui si pu• parlare solo in presenza di un gran numero di suoi atomi. Un singolo nucleo pu• disintegrarsi in qualsiasi momento - nel prossimo istante o tra un miliardo di anni o in qualsiasi momento intermedio - e non Š possibile prevedere quando lo far…. Ogni specie radioattiva, tuttavia, ha un tasso medio di decadimento; pertanto, se in un processo Š implicato un grande numero di atomi, Š possibile prevedere con grande precisione quale frazione del totale si disintegrer… nell'unit… di tempo. Per esempio, supponiamo che l'esperienza dimostri che, in un dato campione di un atomo che chiameremo X, gli atomi decadono al tasso di 1 su 2 all'anno. Alla fine di un anno, su ogni 1000 atomi X del campione originario, 500 saranno rimasti atomi X; alla fine del secondo anno, 250; alla fine del terzo, 125, e cosŤ via. Il tempo necessario perch‚ decada la met… degli atomi originari Š chiamato "tempo di dimezzamento" di quel dato atomo (un'espressione introdotta da Rutherford nel 1904); di conseguenza il tempo di dimezzamento dell'atomo X Š un anno. Ogni nuclide radioattivo ha un proprio tempo di dimezzamento caratteristico, che non cambia mai in condizioni ordinarie. (Gli unici tipi di influenza esterna che possono modificarlo sono il bombardamento del nucleo con una particella o la temperatura estremamente alta presente all'interno di una stella - in altre parole, eventi violenti, capaci di attaccare il nucleo stesso.) Il tempo di dimezzamento dell'uranio 238 Š 4,5 miliardi di anni. Non Š sorprendente, quindi, che esista ancora sulla terra dell'uranio 238, nonostante il decadimento degli atomi di tale elemento. Un semplice calcolo mostra che occorrerebbe un periodo pi— di sei volte maggiore del tempo di dimezzamento per ridurre un nuclide radioattivo all'1 per cento della sua quantit… originaria. Perfino tra 30 miliardi di anni, ci sar… ancora un residuo di circa un chilogrammo di uranio per ogni tonnellata oggi esistente nella crosta terrestre. Gli isotopi di un elemento, pur essendo praticamente identici dal punto di vista chimico, possono differire molto per le loro propriet… nucleari. L'uranio 235, per esempio, decade con velocit… sei volte maggiore di quella dell'uranio 238; il suo tempo di dimezzamento Š di soli 710 milioni di anni, dal che si pu• desumere che, in epoche molto remote del passato, l'uranio fosse molto pi— ricco di uranio 235 di quanto non sia oggi. Sei miliardi di anni orsono, per esempio, l'uranio 235 doveva costituire circa il 70 per cento dell'uranio naturale. Tuttavia l'umanit… non si trova di fronte agli ultimi sgoccioli di uranio 235; anche se avessimo scoperto la fissione un milione di anni pi— tardi, la terra avrebbe ancora avuto il 99,9 per cento dell'uranio 235 che ha oggi. E' evidente che qualsiasi nuclide con un tempo di dimezzamento inferiore ai 100 milioni di anni deve essersi ridotto fino a scomparire nel corso della lunga vita dell'universo; Š per questo che oggi non possiamo trovare altro che tracce di plutonio. L'isotopo del plutonio di vita media pi— lunga, il plutonio 244, ha un tempo di dimezzamento di soli 70 milioni di anni. L'uranio, il torio e altri elementi radioattivi di lunga vita media dispersi finemente nel suolo e nelle rocce producono piccole quantit… di radiazione, che Š sempre presente nell'aria intorno a noi. Noi stessi, esseri umani, siamo leggermente radioattivi, perch‚ tutti i tessuti viventi contengono tracce di un isotopo del potassio relativamente raro e instabile (il potassio 40), il cui tempo di dimezzamento Š di 1,3 miliardi di anni. (Disintegrandosi, il potassio 40 d… origine a una certa quantit… di argo 40, il che probabilmente spiega il fatto che quest'ultimo Š di gran lunga il pi— comune nuclide di gas inerte che esista sulla terra: il rapporto potassio-argo Š stato usato per determinare l'et… dei meteoriti.) Anche un isotopo radioattivo del carbonio, il carbonio 14, avendo un tempo di dimezzamento di soli 5770 anni, normalmente non dovrebbe pi— trovarsi sulla terra; esso, per•, si forma di continuo per l'impatto di particelle presenti nei raggi cosmici sugli atomi di azoto della nostra atmosfera. Perci• vi sono sempre tracce di carbonio 14, che vengono continuamente incorporate nell'anidride carbonica dell'atmosfera. Essendo presente nell'anidride carbonica, tale nuclide viene inglobato nei tessuti vegetali da cui passa in quelli animali, e anche nei nostri corpi. Il carbonio 14, sempre presente nel corpo umano, ha una concentrazione molto minore del potassio 40; ma il carbonio 14, avendo un tempo di dimezzamento molto pi— breve, si disintegra con frequenza molto maggiore. Il numero totale di disintegrazioni del carbonio 14 pu• essere circa un sesto di quello delle disintegrazioni del potassio 40; ma una certa percentuale di carbonio 14 Š contenuta nel nostro patrimonio genetico; tale percentuale, disintegrandosi, pu• provocare dei cambiamenti fondamentali nelle singole cellule - cambiamenti che invece non vengono prodotti dalla disintegrazione del potassio 40. Per questa ragione si potrebbe sostenere che il carbonio 14 Š l'atomo radioattivo pi— importante che si trovi naturalmente nel corpo umano; questa possibilit… fu segnalata dal biochimico russo-americano Isaac Asimov gi… nel 1955. I vari nuclidi radioattivi e le radiazioni energetiche che si presentano in natura (come i raggi cosmici e i raggi gamma) costituiscono la "radiazione naturale". L'esposizione costante alla radiazione naturale ha svolto probabilmente una parte nell'evoluzione, producendo mutazioni; essa potrebbe anche essere in parte responsabile del flagello del cancro. Ma gli organismi viventi hanno convissuto con essa per miliardi di anni. La radiazione nucleare Š diventata un serio pericolo solo nella nostra epoca, prima quando abbiamo cominciato a fare esperimenti con il radio, poi con l'avvento della fissione e dei reattori nucleari. All'epoca in cui ebbe inizio il Progetto Manhattan, i fisici avevano appreso da una dolorosa esperienza i pericoli della radiazione nucleare, cosŤ che sofisticate misure protettive circondarono le persone che lavoravano al progetto stesso. I prodotti ®caldiŻ della fissione e altri materiali radioattivi erano sistemati dietro pareti schermanti di grande spessore e osservati solo attraverso vetri al piombo; vennero costruiti strumenti per manipolare i materiali mediante comandi a distanza; ognuno doveva avere sugli abiti una striscia di pellicola fotografica o altri sistemi di rilevamento per controllare l'esposizione accumulata. Vennero condotti esperimenti su vasta scala con animali per stimare la "massima esposizione tollerabile". (I mammiferi sono pi— sensibili di altre forme di vita alla radiazione; tra i mammiferi, per•, gli esseri umani presentano una resistenza media.) Nonostante tutto, avvennero degli incidenti, e alcuni fisici nucleari morirono di "malattie da radiazione", causate da dosi troppo massicce. I rischi, comunque, ci sono in qualsiasi professione, anche quella pi— sicura: chi lavora nel campo dell'energia nucleare oggi non sta peggio degli altri, grazie alle maggiori conoscenze sui rischi e alle precauzioni intese a evitarli. Tuttavia, in un mondo pieno di reattori nucleari, in cui i prodotti di fissione ammontassero a tonnellate o a migliaia di tonnellate, le cose sarebbero un po' diverse. Come si farebbe a smaltire tutto quel materiale letale? Gran parte di esso ha una radioattivit… di breve durata, che svanisce fino a diventare innocua nel giro di qualche settimana o di qualche mese; Š quindi possibile tenerlo immagazzinato durante quel breve periodo e poi gettarlo via. Pi— pericolosi sono i nuclidi che hanno tempi di dimezzamento compresi tra uno e trenta anni, cioŠ abbastanza brevi da produrre un'intensa radiazione, ma anche abbastanza lunghi da essere pericolosi per generazioni e generazioni. Un nuclide con un tempo di dimezzamento di trenta anni impiegher… due secoli per perdere il 99 per cento della sua attivit…. Utilizzo dei prodotti di fissione. I prodotti di fissione trovano applicazioni molto utili. Come fonti di energia, possono alimentare piccole apparecchiature o strumenti. Le particelle emesse da un isotopo radioattivo vengono assorbite e la loro energia viene convertita in calore, utilizzato da termocoppie per produrre elettricit…. Le batterie che producono elettricit… a partire dai radioisotopi vengono indicate con la sigla SNAP (Systems for Nuclear Auxiliary Power); esse vanno anche sotto il nome pi— altisonante di batterie atomiche. Possono pesare meno di due chili, generare fino a 60 watt e durare per anni. Le batterie atomiche sono state usate nei satelliti - nel "Transit 4A" e nel "Transit 4B", per esempio, messi in orbita dagli Stati Uniti nel 1961 e destinati a servire come sussidi per la navigazione. L'isotopo pi— comunemente usato nelle batterie SNAP Š lo stronzio 90, su cui torneremo tra poco a proposito di un'altra questione. Si usano anche alcuni isotopi del plutonio e del curio. Gli astronauti discesi sulla luna hanno sistemato sulla sua superficie questo tipo di generatori nucleari, per alimentare gli apparecchi necessari per alcuni esperimenti lunari e un emettitore di segnali radio. Questi strumenti hanno continuato per anni a compiere il loro lavoro in modo irreprensibile. I prodotti di fissione possono essere utilizzati anche in medicina (per esempio, nella cura del cancro), per uccidere batteri, per conservare gli alimenti e in molti settori industriali, compresa la preparazione di prodotti chimici. Per esempio, la Hercules Powder Company ha progettato un reattore di cui usare le radiazioni per produrre glicole etilenico, che serve come anticongelante. Per•, a conti fatti, tutti questi impieghi, e altri ancora immaginabili, non possono utilizzare pi— di una piccola frazione delle grandi quantit… di prodotti di fissione che verranno scaricati dai reattori. Questo rappresenta un grave problema di carattere generale: si stima che per ogni 200 mila kilowatt di potenza elettrica ottenuta col nucleare vengano prodotti 0,7 chili di scorie di fissione al giorno. Cosa farne? Gli Stati Uniti hanno gi… sotterrato milioni di litri di liquidi radioattivi; e si stima che, nel 2000, pi— di due milioni di litri di liquidi radioattivi dovranno essere smaltiti ogni giorno! Stati Uniti e Gran Bretagna hanno affondato nel mare contenitori in cemento pieni di prodotti di fissione. Si Š proposto di affondare le scorie radioattive negli abissi oceanici, di accumularle in saline fuori uso, di imprigionarle in vetro fuso e sotterrarle quando fossero solide. Resta per• sempre l'apprensione che la radioattivit… possa sfuggire in un modo o nell'altro, contaminando il suolo o i mari. Un incubo particolarmente allarmante Š la possibilit… che una nave a propulsione nucleare possa naufragare e riversare i prodotti della fissione accumulati nell'oceano. L'affondamento del sottomarino nucleare americano "Thresher" nell'Atlantico settentrionale, avvenuto il 10 aprile 1963, diede corpo a queste paure, anche se nel caso specifico non ci fu, a quanto pare, contaminazione. Ricaduta radioattiva. Se Š vero che l'inquinamento prodotto dall'uso pacifico dell'energia nucleare costituisce un pericolo potenziale, quanto meno esso verr… tenuto sotto controllo con ogni mezzo e con buone probabilit… di successo. Vi Š per• un tipo di inquinamento che si Š gi… diffuso in tutto il mondo e che potrebbe venir diffuso deliberatamente in una situazione di guerra: si tratta della ricaduta ("fallout") di materiale radioattivo in seguito all'esplosione di bombe atomiche. La ricaduta Š prodotta da tutte le bombe nucleari, anche da quelle sperimentali; il fallout viene trasportato ovunque dal vento, portato a terra dalla pioggia, cosŤ che Š praticamente impossibile che una nazione qualsiasi faccia esplodere una bomba nucleare nell'atmosfera senza che le altre se ne accorgano. Nell'eventualit… di una guerra nucleare, la ricaduta radioattiva nel lungo periodo potrebbe produrre pi— vittime e pi— danni alla biosfera che lo scoppio stesso delle bombe nei paesi direttamente attaccati. Vi sono tre tipi di ricaduta: "locale", "troposferica" e "stratosferica". La ricaduta locale Š provocata dalle esplosioni a terra: gli isotopi radioattivi vengono adsorbiti sulle particelle del suolo e si depositano rapidamente entro un raggio di 150 chilometri dal luogo dell'esplosione. Quando esplodono nell'aria bombe nucleari a fissione dell'ordine del chilotone, i prodotti della fissione vanno a finire nella troposfera, e si depositano nel giro di un mese, dopo esser stati trasportati dai venti verso est per qualche migliaio di chilometri. L'enorme emissione di prodotti di fissione da parte della prima superbomba, fatta esplodere nel Pacifico il primo marzo 1954, colse gli scienziati di sorpresa. Non si aspettavano che il fallout di una bomba a fusione fosse tanto ®sporcoŻ. Rest• gravemente contaminata una superficie vasta quanto il Massachussets (o il Veneto), circa 18 mila chilometri quadrati. Gli scienziati ne compresero per• la ragione quando vennero a sapere che intorno al nocciolo di fusione vi era un mantello di U 238, in cui i neutroni avevano indotto la fissione; esso, infatti, oltre a moltiplicare la potenza dell'esplosione, aveva dato origine a una nube di prodotti di fissione molto pi— vasta di quella provocata da una semplice bomba a fissione del tipo usato a Hiroshima. La ricaduta radioattiva prodotta dai test nucleari effettuati fino a oggi ha accresciuto solo di poco la radioattivit… naturale terrestre; tuttavia, anche un piccolo aumento rispetto al livello naturale pu• far salire l'incidenza del cancro, causare danni genetici e accorciare, anche se di poco, la vita media. Le stime pi— prudenti dei rischi sono concordi nell'affermare che, aumentando il tasso di mutazione, la ricaduta radioattiva prepara una buona dose di guai per le generazioni future. Uno dei prodotti di fissione Š particolarmente pericoloso per la vita umana: si tratta dello stronzio 90 (tempo di dimezzamento 28 anni), l'isotopo tanto utile per le batterie atomiche. Lo stronzio 90 che cade sul terreno o nelle acque viene assorbito dalle piante e quindi introdotto nei corpi di quegli animali (tra cui l'uomo) che si nutrono, direttamente o indirettamente, di vegetali. Esso Š particolarmente pericoloso perch‚, essendo molto simile chimicamente al calcio, va a finire nelle ossa, dove si insedia per lungo tempo. I componenti delle ossa hanno un ricambio lento, cioŠ non vengono sostituiti con la stessa frequenza delle sostanze presenti nei tessuti molli; per tale ragione lo stronzio 90, una volta assorbito, pu• restare nel corpo di un individuo per gran parte della sua vita. Lo stronzio 90 Š entrato a far parte del nostro ambiente molto di recente; non ne esisteva sulla terra in quantit… misurabile fino a quando gli scienziati non provocarono la fissione dell'uranio. Oggi per•, in meno di una generazione, un po' di stronzio 90 Š gi… insediato nelle ossa di qualsiasi essere umano, nonch‚ in quelle di tutti i vertebrati. Considerevoli quantit… di stronzio 90 fluttuano tuttora nella stratosfera, e aumenteranno, presto o tardi, la sua concentrazione nelle nostre ossa. Tale concentrazione si misura in "unit… di stronzio" (U.S.), una delle quali equivale a 1 picocurie di stronzio 90 per grammo di calcio nel corpo. Il "curie" Š un'unit… di radiazione (naturalmente il nome Š in onore dei Curie), che in origine veniva ritenuta equivalente alla radiazione prodotta da 1 grammo di radio in equilibrio con il rado, un prodotto della sua disintegrazione; oggi, per•, viene considerata, in modo pi— generale, pari a 37 miliardi di disintegrazioni al secondo. Un picocurie Š 1 trilionesimo di curie, ovvero 2,22 disintegrazioni al minuto. Un'unit… di stronzio significa quindi 2,22 disintegrazioni al minuto per grammo di calcio presente nel corpo. La concentrazione di stronzio 90 nello scheletro umano varia molto da luogo a luogo e da individuo a individuo; si sono trovate persone che ne hanno fino a settantacinque volte la quantit… media; i bambini hanno in media una concentrazione almeno quadrupla di quella degli adulti, a causa del pi— rapido ricambio di sostanze nelle ossa durante la crescita. Anche le stesse stime della media variano, perch‚ sono basate soprattutto su stime delle quantit… di stronzio 90 presenti nella dieta. (Tra l'altro, il latte, da questo punto di vista, non Š un alimento particolarmente pericoloso; infatti al calcio ingerito con gli ortaggi Š associata una dose maggiore di stronzio 90: il "sistema di filtraggio" delle mucche elimina parte dello stronzio da esse assunto nutrendosi di foraggi vegetali.) Le stime della concentrazione media di stronzio 90 presente nelle ossa della popolazione americana nel 1959, prima che fossero bandite le esplosioni nucleari nell'atmosfera, andavano da meno di un'unit… di stronzio a molto pi— di cinque. (Il "massimo tollerabile" Š stato stabilito, dalla Commissione internazionale per la protezione dalle radiazioni, nella misura di 67 U.S.) Le medie, comunque, dicono ben poco, soprattutto perch‚ lo stronzio 90 pu• raccogliersi in "punti caldi" nelle ossa e raggiungere un livello sufficientemente alto per far insorgere la leucemia o il cancro. L'importanza degli effetti della radiazione ha avuto come conseguenza, tra l'altro, l'adozione di numerose unit… diverse per misurarli. Una di tali unit…, il "r”ntgen", che prende il nome dallo scopritore dei raggi X, si basa sul numero di ioni prodotti dai raggi X o gamma in questione. Pi— di recente Š stato introdotto il "rad", che equivale all'assorbimento di 100 erg di radiazione di qualsiasi tipo per grammo. Anche la natura della radiazione Š importante: un rad di particelle di grande massa induce maggiori cambiamenti chimici nei tessuti rispetto a un rad di particelle leggere; pertanto una data energia sotto forma di particelle alfa Š pi— dannosa della stessa energia sotto forma di elettroni. Da un punto di vista chimico il danno da radiazione Š causato soprattutto dalla scissione delle molecole di acqua (che costituiscono la maggior parte della massa dei tessuti viventi) in frammenti altamente attivi ("radicali liberi") che a loro volta reagiscono con le complicate molecole dei tessuti. Il danno inferto al midollo osseo, implicato nella produzione delle cellule del sangue, Š una forma molto grave di patologia dovuta alla radiazione, che, in uno stadio avanzato, Š irreversibile e pu• condurre alla morte. Molti eminenti scienziati ritengono fermamente che il fallout dei test nucleari costituisca un grave pericolo per la razza umana. Il chimico americano Linus Pauling ha sostenuto che la ricaduta di una sola superbomba potrebbe provocare 100 mila decessi per leucemia e altre malattie nel mondo, e ha messo in rilievo il fatto che il carbonio 14, radioattivo, prodotto dai neutroni liberati in un'esplosione nucleare, rappresenta un serio pericolo genetico. Per tali ragioni Pauling ha svolto un'energica azione a favore della cessazione degli esperimenti con bombe nucleari, sostenendo tutti i movimenti intesi a far diminuire il pericolo di una guerra e a promuovere il disarmo. Altri scienziati, invece, tra cui il fisico ungherese-americano Edward Teller, hanno minimizzato l'entit… del rischio rappresentato dal fallout. La simpatia del mondo in genere va a Pauling, come forse indica il fatto che gli Š stato assegnato il premio Nobel per la pace nel 1963. Nell'autunno del 1958 gli Stati Uniti, l'Unione Sovietica e la Gran Bretagna sospesero gli esperimenti nucleari in base a un accordo sulla fiducia (il che non ha impedito alla Francia di far esplodere la sua prima bomba nucleare nell'atmosfera nella primavera del 1960). Per tre anni la situazione parve rosea: la concentrazione di stronzio 90, dopo aver raggiunto un massimo, intorno al 1960 si stabilizz• su un valore ben al di sotto di quello stimato come il massimo compatibile con la sicurezza. Nondimeno circa 25 milioni di curie di stronzio 90 e di cesio 137 (un altro pericoloso prodotto di fissione) erano stati immessi nell'atmosfera durante i tredici anni di test nucleari, nei quali si erano fatte esplodere non meno di 150 bombe di tutte le variet…. Solo due di queste sono state fatte esplodere in una situazione di conflitto, ma gli effetti sono stati davvero atroci. Nel 1961, senza preavviso, l'Unione Sovietica pose termine alla moratoria e riprese i test nucleari. Poich‚ l'URSS aveva fatto esplodere bombe termonucleari di potenza senza precedenti, gli Stati Uniti a loro volta si sentirono in obbligo di riprendere i test. L'opinione pubblica mondiale, risvegliata dall'interruzione della moratoria, reagŤ con grande indignazione. Pertanto il 10 ottobre 1963 le tre maggiori potenze nucleari firmarono un trattato che bandiva parzialmente i test nucleari ("non pi—" un semplice accordo sulla fiducia): venivano bandite le esplosioni di bombe nucleari nell'atmosfera, nello spazio e sott'acqua. Erano permesse solo le esplosioni sotterranee, perch‚ esse non producono ricaduta radioattiva. Questa Š stata la mossa nella direzione della sopravvivenza umana che maggiormente ha indotto alla speranza, dall'inizio dell'Era Nucleare a oggi. FUSIONE NUCLEARE CONTROLLATA. Da pi— di trent'anni i fisici nucleari nutrono un sogno segreto ancora pi— affascinante di quello di volgere a fini costruttivi la fissione nucleare: il sogno di padroneggiare l'energia ottenuta dalla fusione nucleare. La fusione, dopo tutto, Š il motore che fa andare il nostro mondo: le reazioni di fusione nel sole sono la fonte basilare di tutte le nostre forme di energia e della vita stessa. Se riuscissimo in qualche modo a riprodurre e a controllare tali reazioni sulla terra, avremmo risolto tutti i nostri problemi energetici. La nostra riserva di combustibile sarebbe grande quanto l'oceano, perch‚ il combustibile sarebbe l'idrogeno. Cosa strana, non sarebbe la prima volta che l'idrogeno verrebbe usato come combustibile. Poco tempo dopo la scoperta dell'idrogeno e lo studio delle sue propriet…, esso si era guadagnato un posto come combustibile chimico. Lo scienziato americano Robert Hare nel 1801 aveva ideato un cannello ossidrico, e in seguito le elevate temperature della combustione dell'idrogeno in atmosfera di ossigeno hanno avuto parecchi impieghi industriali. L'idrogeno liquido, poi, ha avuto un'importanza straordinaria come combustibile per i razzi; si Š anche proposto di usare l'idrogeno come combustibile particolarmente pulito per produrre elettricit… e azionare automobili e veicoli in generale. (In questi ultimi casi, per•, resta il problema della facilit… con cui l'idrogeno esplode a contatto con l'aria.) Comunque, Š come combustibile per la fusione nucleare che l'idrogeno apre oggi le prospettive pi— allettanti. L'energia prodotta con la fusione nucleare sarebbe immensamente pi— conveniente di quella prodotta dalla fissione. Con uguale peso di combustibile, un reattore a fusione produrrebbe da cinque a dieci volte l'energia prodotta da un reattore a fissione. Un chilogrammo di idrogeno pu• produrre per fusione 77 milioni di kilowattora di energia; inoltre la fusione si baserebbe su isotopi dell'idrogeno facilmente ricavabili dal mare in grandi quantit…, mentre per la fissione occorre estrarre i minerali di uranio e di torio - compito molto pi— difficile. E ancora: la fusione produce, per esempio, neutroni e idrogeno 3, che non sono - cosŤ si prevede - tanto difficili da controllare quanto i prodotti della fissione. Infine - e forse pi— importante di tutto - una reazione di fusione, in caso di una qualsiasi difficolt…, si limiterebbe a spegnersi, mentre una reazione di fissione pu• sfuggire al controllo ("escursione nucleare"), producendo un "meltdown" dell'uranio (anche se la cosa non Š mai successa), che diffonderebbe la radioattivit… in modo molto pericoloso. Se la fusione nucleare controllata fosse resa realizzabile, essa fornirebbe dunque - considerate la disponibilit… del combustibile e l'abbondanza dell'energia prodotta - una riserva di energia che potrebbe bastare per miliardi di anni - tanto quanto durer… la terra. L'unica conseguenza indesiderabile sarebbe allora l'"inquinamento termico" - l'energia prodotta dalla fusione si andrebbe ad aggiungere al calore totale che arriva sulla superficie della terra. Tale aumento potrebbe far salire, anche di poco, la temperatura, con risultati analoghi a quelli dell'effetto serra. Ci• vale anche per l'energia solare ottenuta da qualsiasi fonte diversa dalla radiazione solare che raggiunge la terra in modo naturale. Per esempio, se si installassero nello spazio delle centrali a energia solare, si aumenterebbe la quantit… di calore che arriva alla superficie della terra. In entrambi i casi, l'umanit… dovrebbe o limitare il proprio uso dell'energia o trovare il modo di rinviare nello spazio parte del calore a un ritmo pi— sostenuto di quanto non avvenga naturalmente. Tutto ci•, comunque, ha un interesse teorico solo se si riuscir… a produrre la fusione nucleare controllata prima in laboratorio e poi in un processo realizzabile su scala commerciale. Dopo una generazione di lavoro, non abbiamo ancora raggiunto questo stadio. Dei tre isotopi dell'idrogeno, l'idrogeno 1 Š il pi— comune, ma anche il pi— difficile da usare ai fini della fusione. Esso Š il combustibile del sole, ma il sole pu• contare sulla sua massa enorme, su un intensissimo campo gravitazionale che lo tiene insieme e su temperature centrali di molti milioni di gradi. Solo in una minuscola percentuale dell'idrogeno presente nel sole avviene, in ogni dato istante, il processo della fusione nucleare; ma, data l'enorme massa presente, anche quella piccola percentuale Š sufficiente. L'idrogeno 3 Š il pi— idoneo per la fusione, ma esiste in quantit… cosŤ piccole e richiede un tale dispendio di energia per essere prodotto che non Š assolutamente il caso, per ora, di considerarlo un combustibile utilizzabile da solo. Resta l'idrogeno 2, che Š pi— facile da manipolare dell'idrogeno 1 e molto pi— comune dell'idrogeno 3. Nell'idrogeno di tutto il mondo, solo 1 atomo ogni 6000 Š di deuterio; ma tanto basta. Vi sono 35 trilioni di tonnellate di deuterio nell'oceano, abbastanza per rifornire ampiamente di energia l'umanit… per tutto il futuro prevedibile. Vi sono, per•, dei problemi; la cosa pu• sorprendere, dato che le bombe basate sulla fusione esistono. Se siamo capaci di ottenere la fusione dell'idrogeno, perch‚ non possiamo costruire un reattore, come costruiamo una bomba? E' presto spiegato: per realizzare una bomba a fusione, ci occorre un innesco costituito da una bomba a fissione, e poi bisogna far esplodere il tutto. Per fare un reattore a fusione, ci occorre ovviamente un innesco meno drastico, e in seguito dobbiamo mantenere la reazione a un livello costante, controllato, non esplosivo. Il primo problema Š quello meno difficile: correnti ad alta intensit…, onde sonore ad alta energia, raggi laser e cosŤ via, sono tutti in grado di produrre temperature dell'ordine dei milioni di gradi in tempi brevi. Non c'Š dubbio che la temperatura necessaria possa essere facilmente raggiunta. Ben altro problema Š mantenere la temperatura voluta, riuscendo insieme a confinare l'idrogeno in fusione (almeno cosŤ si spera). Ovviamente nessun contenitore materiale potrebbe confinare un gas a una temperatura di oltre 100 milioni di gradi. O il contenitore vaporizzerebbe o il gas si raffredderebbe. Il primo passo verso una soluzione sta nel ridurre la densit… del gas assai al di sotto della pressione normale, riducendo cosŤ il contenuto di calore, ma mantenendo alta l'energia delle particelle. Il secondo passo Š un'idea veramente geniale: in un gas a una temperatura molto alta gli atomi hanno perso tutti i loro elettroni, ed esso Š ormai un "plasma" (termine introdotto da Irving Langmuir all'inizio degli anni trenta), fatto di elettroni e di nuclei nudi. Dato che esso Š costituito solo di particelle cariche, perch‚ non usare, per confinarlo, un intenso campo magnetico al posto di un contenitore materiale? Il fatto che i campi magnetici potessero obbligare le particelle cariche a restar confinate entro un fascio era noto gi… dal 1907 e l'effetto veniva chiamato reostrizione ("pinch effect"). L'idea della "bottiglia magnetica" venne messa alla prova e risult• che funzionava - ma solo per un tempo brevissimo. I fili di plasma confinati nella bottiglia si contorcevano immediatamente come serpenti, si spezzavano e si estinguevano. Un altro approccio consiste nel fare in modo che il campo magnetico sia pi— intenso agli estremi del tubo, in modo da ®intrappolareŻ il plasma. Anche questo espediente si Š dimostrato non del tutto soddisfacente. Se si riuscisse a tener confinato il plasma a 100 milioni di gradi anche per un solo secondo, la reazione di fusione verrebbe innescata e si potrebbe ricavare energia dal sistema; tale energia potrebbe essere usata per rendere pi— stabile e pi— potente il campo magnetico e per mantenere la temperatura al livello appropriato. La reazione di fusione allora sarebbe autosostenuta e verrebbe controllata dalla stessa energia da essa prodotta. Ma impedire la fuga del plasma anche per quel breve secondo Š pi— di quanto oggi riusciamo a fare. Dato che la fuga di plasma avviene con particolare facilit… all'estremit… del tubo, si Š pensato di abolire le estremit…, dando al tubo una forma a ciambella (toro). Una configurazione particolarmente vantaggiosa Š quella a otto, progettata per la prima volta nel 1951 da Spitzer e chiamata "stellarator". Un sistema ancora pi— promettente Š stato ideato dal fisico sovietico Lev Andreevic' Artsimovic': si chiama Camera Magnetica Toroidale, abbreviato in Tokamak. Anche i fisici americani stanno lavorando sui Tokamak, e inoltre con un apparecchio chiamato Scyllac, progettato per confinare gas aventi densit… maggiori, allo scopo di ridurre il tempo di confinamento. Per circa venti anni i fisici hanno progredito a piccoli passi verso la meta costituita dalla fusione: i progressi sono stati lenti, ma per ora nulla fa pensare che si sia giunti a un punto morto. Nel frattempo la ricerca sulla fusione ha gi… portato delle applicazioni concrete: la "torcia a plasma", assolutamente silenziosa e capace di emettere getti che raggiungono i 50 mila gradi C, Š di gran lunga superiore ai cannelli chimici; Š stato suggerito che essa potrebbe fornire la soluzione definitiva al problema dei rifiuti: nella sua fiamma tutto - proprio "tutto" - verrebbe ridotto agli elementi costitutivi, e tutti gli elementi sarebbero pronti per essere riciclati e convertiti nuovamente in materiali utili. BIBLIOGRAFIA. Al lettore italiano che volesse approfondire gli argomenti trattati nel presente volume segnaliamo le seguenti opere: In generale: I. Asimov, "Catastrofi a scelta", Mondadori, Milano 1980. - "Esplorando la terra e il cosmo", Mondadori, Milano 1983. 1. AA.VV., "Storia delle scienze" (diretta da E. Agazzi), Citt… Nuova Ed., Roma 1984. J. D. Bernal, "Storia della scienza", 2 volumi, Editori Riuniti, Roma 1956. A. C. Crombie, "Da Agostino a Galileo", Feltrinelli, Milano 1970. J. L. E. Dreyer, "Storia dell'astronomia da Talete a Keplero", Feltrinelli, Milano 1970. A. R. Hau, "La rivoluzione scientifica 1500-1800", Feltrinelli, Milano 1976; nuova versione: "La rivoluzione nella scienza 1500-1750", Feltrinelli, Milano 1986. E. Nagel, "La struttura della scienza", Feltrinelli, Milano 1968. 2. I. Asimov, "Il collasso dell'universo", Mondadori, Milano 1978. Enciclopedie Cambridge, "Astronomia", Laterza, Bari 1981. Abetti-Hack, "Le nebulose e gli universi-isole", Boringhieri, Torino 1968. M. Bondi, "Sguardi sull'universo", Zanichelli, Bologna 1964. W. Bonnor, "Universo in espansione", Boringhieri, Torino 1967. G. Ganow, "La creazione dell'universo", Mondadori, Milano 1956. L. Gratton, "Relativit… Cosmologia Astrofisica", Boringhieri, Torino 1968. -, "Introduzione all'astrofisica", 2 volumi, Zanichelli, Bologna 1978. M. Hack, "L'universo", Feltrinelli, Milano 1967. F. Hoyle, "Galassie, nuclei e quasar", Einaudi, Torino 1970. A. Koyr‚, "Dal mondo chiuso all'universo infinito", Feltrinelli, Milano 1970. P. Maffei, "Al di l… della luna", Mondadori, Milano 1973. - "I mostri del cielo", Mondadori, Milano 1976. - "L'universo nel tempo", Milano, Mondadori 1982. D. Sciama, "Cosmologia moderna", Mondadori, Milano 1973. R. e M. Sexl, "Nane bianche e buchi neri", Boringhieri Torino 1981. M. Shapley, "Le stelle e l'uomo", Mondadori, Milano 1961. M. L. Shipman, "Buchi neri, quasar e universo", Zanichelli, Bologna 1981. R. M. Wald, "Teoria del Big Bang e buchi neri", Boringhieri, Torino 1980. G. S. Weinberg, "I primi tre minuti", Mondadori, Milano 1977. 3. G. Abetti, "Le stelle e i pianeti", Boringhieri, Torino, 1963. P. Francis, "I pianeti", Boringhieri, Torino 1985. G. Ohring, "Le atmosfere dei pianeti", Zanichelli, Bologna 1968. K. Gatland (a cura di), "L 'esplorazione dello spazio", De Agostini, Novara 1983. 4. I. Asimov, "Esplorando la terra e il cosmo", Mondadori, Milano 1983. Bolt, "I terremoti", Zanichelli, Bologna 1982. P. Cattermole - P. Moore, "Storia della terra", Laterza, Bari 1985. R. e B. Decker, "I vulcani", Zanichelli, Bologna 1984. Enciclopedie Cambridge, "Scienze della terra", Laterza, Bari 1982. N. Morello, "La macchina della terra. Teorie geologiche dal Seicento all'Ottocento", Loescher Torino 1979. P. Rossi, "I segni del tempo", Feltrinelli, Milano 1979. Takeuchi - Uyeda - Kanamori, "La deriva dei continenti", Boringhieri, Torino 1970. H. Tazieff, "Vulcani e tettonica", Zanichelli, Bologna 1976. A. Wegener, "La formazione dei continenti e degli oceani", Boringhieri, Torino 1976. D. York. "Il pianeta terra", Boringhieri, Torino 1979. 5. L. Battan, "Le nubi", Zanichelli, Bologna 1964. -, "Il radar esplora l'atmosfera", Zanichelli, Bologna 1965. -, "Violenze dell'atmosfera", Zanichelli, Bologna 1967. R. A. Craig, "Alla soglia dello spazio", Zanichelli, Bologna 1977. M. Pinna, "L 'atmosfera e il clima", Utet, Torino 1978. E. R. Reiter, "Le correnti a getto", Zanichelli. Bologna 1969. 6. I. Asimov, "Breve storia della chimica", Zanichelli, Bologna 1968. C. A. Couison, "La valenza", Zanichelli, Bologna 1975. A. Holden - P. Singer, "La struttura dei cristalli", Zanichelli, Bologna 1969. D. Macdonald, "Verso lo zero assoluto", Zanichelli, Bologna 1965. Open University, "Introduzione ai materiali", Mondadori, Milano 1976. L. Pauling, "La natura del legame chimico", Edizioni Italiane, Roma 1961. J. I. Solovev, "L'evoluzione del pensiero chimico dal '600 ai giorni nostri", Mondadori, Milano 1976. 7. M. Born, "Fisica atomica", Boringhieri, Torino 1976. B. Cohen, "Il cuore dell'atomo", Zanichelli, Bologna 1968. M. Fritzsch, "Quark", Boringhieri, Torino 1983. G. Ganow, "Trent'anni che sconvolsero la fisica", Zanichelli, Bologna 1966. F. Soddy, "La storia dell'energia atomica", Boringhieri, Torino 1951. S. Weinberg, "La scoperta delle particelle subatomiche", Zanichelli, Bologna 1986. -, "Teorie unificate dell'interazione tra particelle elementari", in ®Le scienzeŻ, novembre 1974, pagine 28-37. R. R. Wilson, "Acceleratori di particelle", Zanichelli, Bologna 1964. C. N. Yang, "La scoperta delle particelle elementari", Boringhieri, Torino 1964. 8. E. Bellone, "Le leggi della termodinamica da Boyle a Boltzmann", Loescher, Torino 1978. M. Born, "La sintesi einsteiniana", Boringhieri, Torino 1973. C. Durell, "La relativit… con le quattro operazioni", Boringhieri, Torino 1967. A. Einstein - L. Infeld, "L'evoluzione della fisica", Boringhieri, Torino 1965. W. Kock, "Onde sonore e onde luminose", Zanichelli, Bologna 1967. M. Pagels, "Il codice cosmico", Boringhieri, Torino 1984. A. Prat Bastai, "Calore, materia e moto", Zanichelli, Bologna 1981. V. Ronchi, "Storia della luce da Euclide a Einstein", Laterza, Bari 1983. J. M. Rush, ®La velocit… della luceŻ, in "Fisica e Cosmo", Zanichelli, Bologna 1969. D. Sciama. "La relativit… generale", Zanichelli, Bologna 1972. 9. A. M. W. Beck, "Parole e onde", Il Saggiatore, Milano. M. Brotherton, "Laser e maser", Etas Kompass, Milano 1969. T. Derry - T. Williams, "Storia della tecnologia", Boringhieri, Torino 1977. J. Pierce, "Elettronica quantica", Zanichelli, Bologna 1968. -, "Onde e messaggi", Bologna, Zanichelli 1969. Singer - Solymard - Rupert Hail - Williams (a cura di), "Storia della tecnologia", 5 volumi, Boringhieri, Torino 1961-65. W. Smith - P. Sorokin. "Il laser", Boringhieri, Torino 1974. 10. AA.VV. "Chi ha paura del sole?", Mazzotta, Milano 1976. B. Bertotti - F . Calogero, "Le armi nucleari", in ®Giornale di fisicaŻ, n. 3, 1973. S. Groueff, "Progetto Manhattan", Mondadori, Milano 1968. Gruppo d'Orsay, "I pericoli del nucleare", Clup-Clued, Milano. E. Nardelli, "I combustibili fossili", Etas Kompass, Milano 1980. J. R. Oppenheimer, "Scienza e pensiero comune", Boringhieri, Torino 1965. A. Prat Bastai, "Il problema dell'energia. 2: Fissione nucleare / Fusione nucleare", Zanichelli, Bologna 1984. E. SegrŠ, "Enrico Fermi, fisico", Zanichelli, Bologna 1971. R. Wilson - R. Littaver, "Acceleratori di particelle", Zanichelli, Bologna 1964.