Illusioni di nuova fisica?

Nell’oceano di notizie che ogni giorno si riversa sui giornali e in rete, il recente annuncio (15 dicembre 2015) di un possibile indizio di nuova fisica in base agli ultimi risultati presentati da ATLAS e CMS al CERN probabilmente non ha suscitato molto interesse: troppi e ben più drammatici gli eventi in primo piano. E poi la loro significatività statistica è ancora insufficiente per poter parlare di una scoperta. Nonostante tutto però la notizia ha riacceso la speranza nella comunità HEP (High Energy Physics) che la ricerca in questo campo sia ad una svolta, dopo aver portato a casa, nel 2012, quella che in fondo era poi solo la conferma – forse anche inevitabile - di una ipotesi teorica formulata nel 1964: il campo e il relativo bosone di Higgs, o meglio Brout–Englert–Higgs. In effetti se ci si limita solo a questo – e non è detto che alla fine non sia proprio così, per quanto quello del 2012 sia un risultato della massima importanza – si potrebbero palesare alcuni problemi molto seri, problemi che hanno incominciato a turbare il sonno dei fisici delle particelle da un po’ di tempo, problemi anche di tipo, diciamo così, politico. Oltre al fatto che sul fronte delle public relations – sostanzialmente tutto quello che è stato raccontato sui media e sulle riviste divulgative - ci si troverebbe in una situazione un po’ imbarazzante: oltre quarant’anni di sviluppo teorico praticamente inutile, almeno sul piano della immediata applicazione alla fisica delle particelle. Diciamo subito che la resa dei conti (o almeno l’inizio di quella che potrebbe essere una resa dei conti) è solo rimandata all’estate prossima, meglio a fine anno, con la ripresa dell’attività di LHC prevista per aprile e la successiva analisi dei dati raccolti. Nel frattempo si sta assistendo, grazie a questo nuovo possibile indizio, ad una produzione di lavori (paper, nel gergo accademico) di cospicue proporzioni, considerata l’esiguità delle prove sperimentali, forse in parte spiegabile con il fatto che nella ricerca sperimentale puntuale di indizi di nuova fisica in base alle teorie più accreditate (sostanzialmente SUSY – che sta per Super Symmetry - e sue varianti più o meno minimali), i risultati sono alquanto deludenti.

Dunque, su cosa si basa questa fioritura di interesse?
Il 15 dicembre scorso viene annunciato un eccesso nella produzione di coppie di fotoni intorno ad un’energia di 750 GeV ( miliardi di elettronvolt) che suggerirebbe la presenza di una nuova (e inaspettata) particella di quell’energia. Sarebbe, se confermata, la “pistola fumante” indicatrice che si è (finalmente) inciampati in qualcosa di nuovo, per quanto forse non previsto – e infatti gran parte dei lavori teorici di questi giorni cercano di capire cosa possa essere questa particella e che posto possa occupare nel grande quadro delle ipotesi generali più accreditate. Va detto che questa valanga di lavori – recuperabili facilmente sul sito ArXiv - ha sorpreso non poco la comunità scientifica, specie gli sperimentali, sorpresa che si è anche tradotta in polemica sui vari blog specializzati.
Ci sono alcune questioni al contorno che meritano una discussione, o quanto meno una segnalazione, come già accennato più sopra, questioni proposte anche da qualche commentatore nel merito di quelle polemiche di cui si è detto.

Le public relations.
Con questo si intende lo sforzo fatto dalla comunità scientifica di presentare come validi gli obiettivi della loro ricerca, soprattutto come giustificazione per l’elevato onere economico richiesto al contribuente (in specie nel caso della costruzione di LHC). Questo sforzo è stato condotto lungo due direttrici ben precise e di discreto effetto: i ritorni tecnologici nell’ambito della R&D industriale, con annessi benefici economici (tasto su cui si batte molto e a cui i politici sono molto sensibili) da una parte; la conferma sperimentale delle più accreditate teorie BSM (oltre il Modello Standard, secondo l’acronimo inglese) – sostanzialmente SUSY e, quasi inevitabilmente, Teoria delle Stringhe, dall’altra. Questo perché certe versioni di queste teorie (ce ne sono diverse) prevenderebbero delle particelle rivelabili con le energie disponibili a LHC – ricerca che, come è stato detto, è stata in effetti svolta, ma sino ad adesso senza successo. Se per quanto riguarda il primo aspetto si trattava di camminare su un terreno indiscutibilmente sicuro – si parla di tecnologie ICT legate all’elaborazione di una massa imponente di dati (GRID, ovvero elaborazione distribuita su scala mondiale) e di tecnologie inerenti i superconduttori -, sul secondo si è un po’ data l’impressione che si trattasse quasi di una passeggiata, una ricerca di mere conferme a teorie che devono essere indiscutibilmente vere per le risposte molto ragionevoli che darebbero ai dilemmi senza soluzione lasciati in eredità dal Modello Standard. Se così non fosse, i problemi di immagine sarebbero tutt’altro che insignificanti, specie in una società come la nostra abituata a misurare tutto sul metro del successo (immediato, possibilmente) e del “ritorno dell’investimento”.

Politica
Qui ci si riferisce con “politica” a tutti quei problemi relativi alle relazioni che la comunità scientifica intrattiene con gli “stakeholder”, specie istituzionali (Università, Enti di ricerca, Fondazioni). La cosa, per quanto riguarda la ricerca di base e quella legata alle alte energie in particolare, si articola secondo due cardini economici e di prestigio: carriere accademiche e fondi. Si capisce bene che una eventuale débâcle sul lato teorico sarebbe devastante: si tratterebbe di gettare a mare, come già accennato, almeno quarant’anni di ricerca teorica, anche se magari non totalmente, perché è noto che certe tecniche matematiche, certi concetti generali alle volte possono essere riciclati nell’ambito di altre teorie fisiche, come è avvenuto appunto nel caso della materia condensata rispetto al campo di Higgs. Nella scienza questo è il rischio d’impresa, se così vogliamo dire, ed è bene che lo si sappia e lo si faccia capire bene all’opinione pubblica. Ma per quanto riguarda i fondi e le posizioni accademiche, è ben difficile che ciò non dia luogo a contraccolpi, specie in un mondo ultra competitivo come quello della ricerca scientifica: difficilmente si potrebbe far finta di nulla e proseguire con i vecchi programmi come se niente fosse. Tra l’altro non se la stanno passando molto bene neanche ipotesi alternative a quelle ricordate più sopra (Technicolor per esempio) o ricerche parallele ma altrettanto importati come quelle sulla materia oscura, di cui, dopo anni di esperimenti condotti in tutto il mondo, non c’è neanche l’ombra di una pur minima conferma.
Ma i contraccolpi si sentiranno anche nel settore sperimentale. Sono già in una stadio relativamente avanzato gli studi e le proposte per estendere le potenzialità di LHC (sul versane della luminosità nel prossimo decennio, dell’energia un po’ più in là nel tempo) e per la costruzione di macchine totalmente nuove e più potenti in qualche parte nel mondo. E molto più costose. Come convincere il contribuente e i suoi rappresentanti ad allargare i cordoni della borsa sulla base di un discorso incentrato sulla sola curiosità di voler esplorare un territorio totalmente sconosciuto, mancando di una guida teorica reputata credibile (a meno di miracoli à la Albert Einstein) che indichi esattamente cosa cercare e come? La prima e definitiva risposta che verrebbe data è che si sono dei problemi altrettanto formidabili ma di priorità estremamente più alta di cui la scienza dovrebbe occuparsi, a cominciare dall’ambiente e dal clima.

Prospettive
Se la significatività statistica degli annunci dello scorso dicembre aumenterà al punto di poter parlare di un’autentica scoperta, i fisici (quasi tutti) potranno, oltre a festeggiare un altro Nobel, anche tirare un sospiro di sollievo. Forse l’interesse dell’opinione pubblica potrebbe di nuovo aumentare, come nel 2012. Se poi quello scoperto è totalmente nuovo, ci sarebbe anche il gusto e la sfida dell’ignoto, per quanto potrebbe anche essere presentata ai teorici la richiesta di spiegazioni di fronte a un risultato inaspettato, specie dopo decenni si sicumera e assoluta certezza delle proprie deduzioni. Ma al netto di questo lo stimolo per nuovi e più fondati studi sarebbe molto forte.
Se invece l’eccesso registrato si rivelerà una fluttuazione statistica – come peraltro è già avvenuto per alcuni risultati presentati durante la precedente “campagna” (il cosiddetto RUN1) - le cose si complicherebbero e non poco. In primo luogo risulterebbe che la migliore teoria della materia e delle sue interazioni che abbiamo (il già citato Modello Standard, sostanzialmente emerso nella sua forma attuale nel corso degli anni ’70 del secolo scordo) è valido con una precisione sconcertante anche a livelli di energia dove si presupponeva dovesse fare a strada a teorie più sofisticate che ne emendassero gli evidenti limiti (gerarchia delle masse delle particelle e loro valori così bizzarri, un numero inaccettabile di parametri ad hoc aggiustabili in base all’esperimento, massa dei neutrini, particelle non barioniche costituenti la cosiddetta materia oscura, per citarne qualcuno). Per di più non ci sarebbe nessuna idea di dove dovrebbe essere il suo confine ultimo di validità: forse potrebbe spingersi sino alle dimensioni della lunghezza e della massa di Planck, un regime di energie assolutamente impossibile e irraggiungibile. Si parlerebbe allora di “deserto”. Quello a cui sicuramente assisteremmo sarebbe il tentativo di argomentare il fatto che le energie messe in campo non sono ancora sufficienti, che basterebbe un piccolo sforzo e l’oasi comparirà dietro la prossima duna di quel deserto. E’ già successo in questi ultimi anni, ma quanto è credibile una teoria che per continuare a sopravvivere sposta ogni volta un po’ più in là il traguardo da raggiungere? Il riferimento è in particolare alla massa delle particelle supersimmetriche (soprattutto gluini e stop) che “faticano” a farsi riconoscere.
Va detto chiaramente che per quanto elegante, esplicativa e completa possa sembrarci una teoria scientifica, se non supera il test dell’esperimento, va quanto meno ripensata se non messa da parte. Semplicemente non funziona così la natura. Oltre al fatto che in genere ogni successivo adattamento ai nuovi dati finisce inevitabilmente per complicarne la struttura con aggiustamenti ad hoc, snaturandone la primitiva “pulizia”.
Ci sono però degli aspetti decisamente interessanti da considerare, qualora lo scenario fosse proprio questo: in primo luogo potremmo domandarci come mai la vecchia teoria funziona così bene anche in regioni energetiche che dovrebbero metterla in crisi. Perché la natura è in fondo così semplice, anche se in un modo irragionevole?
Poi potrebbe insinuarsi il dubbio che in tutti questi anni non ci si sia fatti le domande giuste, per rispondere alle quali sono state sviluppate le attuali teorie. E’ un vero problema quello della gerarchia delle masse, o è semplicemente il risultato del caso? Cosa si sa veramente del “vuoto”? A un livello più epistemologico, cosa è una teoria scientifica valida? E’ lecito farsi domande – che non siano solo filosofiche – per rispondere alle quali si deve mettere da parte il criterio di Ockham? Tutto questo non è forse solo il risultato del fatto che non si sa ancora come mettere d’accordo le due grandi teorie fisiche della Relatività Generale e della Meccanica Quantistica, nonostante la proposta – attualmente più accreditata – delle Superstringhe?
Puoi darsi che dalla prossima estate queste domande non siano più pertinenti, in quanto i fisici potrebbero avere la risposta che cercano da almeno trent’anni, come può darsi che si vada ad un superamento dell’attuale stallo grazie a una nuova e inaspettata particella, un indizio comunque che invece di un deserto c’è un paesaggio tutto nuovo da esplorare; ma se invece è proprio questo lo scenario, quello che si può dire con sicurezza è che la sua spiegazione scientifica sarà altrettanto sconvolgente di come lo furono la relatività e la meccanica quantistica nel secolo scorso.

(13 Gennaio 2016)


Run 2

Con questo termine si indica il nuovo ciclo di presa dati all’LHC a 13 TeV (6500 GeV per fascio). Tra pochi giorni ci sarà l’inizio ufficiale, dopo che i test preliminari (compresi quelli in cui erano previste alcune collisioni) saranno completati. C’è attesa, indubbiamente; attesa forse maggiore di quella legata al precedente ciclo a energia dimezzata che ha consentito la scoperta del bosone di Higgs (o di Englert-Higgs). Perché? Per il semplice motivo che si spera faccia finalmente capolino qualche indicazione di fisica BSM (Beyond Standard Model), qualsiasi forma essa abbia. E’ molto improbabile che si possa vedere qualcosa di indicativo della validità o meno dei modelli più "spinti" (diciamo così), in primis Stringhe, per non parlare di Multiversi o Principio Olografico – per cui se ne continuerà sicuramente a parlare per lungo tempo, non essendo possibile arrivare a un qualche test sperimentale esaustivo con le tecnologie attuali. L’attenzione invece è rivolta soprattutto alle teorie SUSY (Supersymmetry), in particolare alla possibilità di avere una qualche evidenza delle previste particelle più leggere e debolmente interagenti con la materia ordinaria, alcune delle quali potrebbero costituire la cosiddetta Materia Oscura, alla cui caccia sono dedicati esperimenti specifici (solitamente situati in profonde caverne) e osservazioni astronomiche.
Sui (possibili) tempi necessari per avere almeno qualcuna di queste evidenze, vedi il commento del blog Résonaances.
Ad ogni modo è abbastanza verosimile che per la fine dell’anno prossimo (2016) si incominci ad avere un’idea (almeno parziale) sul volto che avrà la nuova fisica. Oppure si assisterà a una riproposizione di quello di una teoria vecchia di quasi mezzo secolo, ma che fino ad adesso ha funzionato benissimo, al netto di perplessità più o meno filosofiche.

(26 Maggio 2015)


Il deserto

Con la presentazione degli ultimi dati alle conferenze "Rencontres de Moriod" e "Higgs Quo Vadis" (rispettivamente tenutesi a La Thuile in Val d'Aosta dal 2 al 16 di marzo e ad Aspen nel Colorado tra il 9 e il 15 Marzo) sembra essersi definito meglio il profilo del nuovo oggetto ufficialmente scoperto al CERN lo scorso luglio: il bosone di Higgs. Se poi si tratta del bosone di Higgs (l'oggetto che completerebbe nel modo più semplice il Modello Standard) o di un bosone di Higgs (che lascerebbe aperta la questione se esistono altre particelle simili e le relative estensioni teoriche al suddetto modello) è oggetto di discussioni e di aspettative, queste ultime per analisi più approfondite su tutto il set di dati attualmente raccolto tra ATLAS e CMS, ovvero per quelli nuovi che saranno prodotti a partire dal 2015. Comunque tutti sono abbastanza d'accordo nel dire che da queste ultime analisi il Modello Standard ne esce ben rafforzato, nel senso che non vi è evidenza alcuna di crepe nel suo impianto teorico da cui potrebbe fare capolino anche solo l'indizio di nuova fisica BSM (Beyond Standard Model). Si sperava molto nel canale di decadimento a due fotoni, ma i dati sia di ATLAS che di CMS non sembrano voler seguire le aspettative di chi sperava di veder qualcosa di nuovo - anche se in effetti qui qualche piccola anomalia rimane ancora, per quanto statisticamente non ancora sufficiente da poter dire che esiste qualcosa: anzi gli ultimi dati di Moriond hanno abbassato di un po' la soglia di significatività riscontrata sino a dicembre scorso, lasciando da parte i problemi di (ri)calibrazione del ECAL (Electromagnetic Calorimeter) di CMS. E questo solo per quanto riguarda la particella d i Higgs. Il discorso relativo a ricerche più dirette di indizi di nuova fisica (sostanzialmente partner supersimmetrici e modi di decadimento esotici) è ancora più sconfortante (per la maggioranza dei fisici teorici): il deserto appunto, come ben detto nel blog "Borborigmi di un fisico renitente".

Da più parti si paventa quasi con disperazione il futuro, se questo andazzo dovesse essere confermato - e c'è già chi afferma senza mezzi termini che così sarà (vedi Jester) asserendo:
To say that the Higgs is standard-model-like is an understatement. This bastard screams and spits standard model. After the Moriond updates the standard model gives an absolutely perfect fit to the combined data (previously it was disfavored at 80% confidence level, mostly due to the late diphoton excess). Not even a single cliffhanger to makes us wait for the next episode..... If there's anything non-standard about the Higgs couplings to matter it is hiding very well and will be tricky to uncover at the LHC, even after the energy upgrade.
(Il riferimento alla "standard-model-like Higgs" penso sia rivolto a Matt Strassler).

Il lavoro da fare comunque non è poco, checché ne dica Jester, per cui vedremo. Sarebbe interessante sapere se qualcuno ha già cominciato a ragionare sull'eventualità che questo deserto non abbia soluzione di continuità, se venisse confermato il fatto che l'ultima teoria effettiva, pienamente verificata, è il Modello Standard, oltre in quale non vi sono che speculazioni più o meno verosimili. Si incomincia a sostenere che, stando così le cose, il problema a questo punto è che non si hanno a disposizione energie sufficientemente elevate, spostando la necessaria verifica della teoria in un futuro che attualmente appare assolutamente imperscrutabile (e comunque non certo vicino: gli unici upgrade che prevedibilmente si faranno, tra non meno di un decennio sono l'HL-LHC - High Lumininosity LHC e, forse, HE-LHC - High Energy LHC - con energie sino a 33 TeV c.m. … ma non è assolutamente detto che si facciano).

Dunque: se in mano non ci rimane che lo S.M., che si fa? Si aspetta un facoltosissimo mecenate disposto a finanziare la prossima macchina? Si confida nella assoluta bontà matematica delle attuali teorie, continuando a lavorarci su per affinarne gli aspetti fenomenologici , in attesa di tempi migliori, perché non può che essere che così, quella è la via obbligata, non si scappa? O si prova ad osare qualcosa di più e ci si mette a "leggere" le nostre migliori teorie effettivamente verificate per cercare di capire se ci stanno dicendo qualcosa tra le righe, qualcosa che può saltar fuori solo mettendosi ad osservare le cose da un punto di vista concettuale diverso? L'esercizio sarebbe precisamente questo: esiste solo il Modello Standard, ma è palesemente incompleto - o almeno si fonda su tutta una serie di assunti assolutamente inspiegabili: c'è qualcosa che non abbiamo ancora capito su di esso e non potendo uscire da esso? (Qualcuno incomincia a pensarci: vedi questo post di Peter Woit).

Viene in mente quello che successe alla fisica verso la fine del XIX secolo, anche se le somiglianze sono da intendere solamente da un punto di vista epistemologico. Com'è noto in quegli anni si pensava che non ci fosse più niente da scoprire: l'elettromagnetismo di Maxwell, la meccanica statistica di Boltzmann e la meccanica classica newtoniana (con le estensioni analitiche di Lagrange e Hamilton) parevano spiegare tutto. Erano teorie che definirei "chiuse", nel senso che, relativamente al loro ambito validità, possedevano tutti gli ingredienti concettuali e matematici per comprendere la natura. Però ad un certo punto sono entrate in conflitto tra loro nel momento in cui si sono applicate all'interpretazione di certi dati sperimentali: in particolare elettromagnetismo e meccanica classica - per le quali valeva l'assunto dell'esistenza dell'etere e del suo sistema di riferimento assoluto - ma anche la teoria cinetica classica nel trattare dei calori specifici a basse temperature. L'idea di Einstein fu molto semplice, economizzando al massimo i concetti secondo un criterio che potrebbe risalire al famoso rasoio di Occam: la costante che compare nell'equazione d'onda dell'elettromagnetismo e che ha le dimensioni di una velocità e il valore - guarda caso! - della velocità della luce andava presa proprio alla lettera: è costante in ogni sistema di riferimento inerziale e con essa la velocità della luce. La rivoluzione concettuale che ne è seguita è arcinota e tutto è andato a posto, riconciliando così teoria e risultati sperimentali, senza l'introduzione di "enti" non necessari ("Entia non sunt multiplicanda praeter necessitatem", dice appunto il principio metodologico introdotto da Occam).

E' solo un esempio di approccio epistemologico, come già detto, ma la cui efficacia forse non è il caso di sottovalutare. La natura non segue necessariamente le nostre idiosincrasie filosofiche, e può benissimo darsi che nel caso in esame le cose vadano in modo affatto diverso (con l'accumularsi di nuove analisi e di nuovi dati dal 2015 che potrebbero rimettere le ali alle teorie oggi in crisi), certo è che se le prove tanto cercate non ci saranno, converrà ripensare certi assunti di base, certe abitudini e certi strumenti concettuali che, per il fatto di essere stati tanto efficaci nel costruire il Modello Standard, non è detto debbano funzionare in assoluto - come la meccanica classica applicata alla scala atomica. Nel citato post di Peter Woit è per l'appunto segnalato un link ad un articolo che si pone lungo questa via (va detto che è un documento MOLTO per addetti ai lavori).

Tra l'altro in questi giorni sono stati anche resi noti i risultati delle osservazioni sul CMB (Cosmic Microwave Background) effettuate dalla sonda dell'ESA Planck, risultato che migliorano alquanto quelli della precedente WMAP (leggere anche qui i commenti di Matt Stassler e Jester): e ancora si evidenzia una sostanziale conferma del Modello Cosmologico Standard (l'universo è un po' più vecchio di 40 milioni anni e sono ritoccate le percentuali di materia barionica, materia oscura e energia oscura) e della teoria inflazionaria del tipo più semplice. Niente stringhe cosmiche (se ne vedrebbe traccia nello sfondo a microonde), solo tre generazioni di neutrini e nessuna evidenza di neutrini sterili. Conferme, conferme e ancora conferme. Anche se il cielo, visto a quelle lunghezze d'onda, è stranamente asimmetrico…

(08 Aprile 2013)


Dei mezzi e dei fini

La scienza ha avuto indubbiamente uno slancio in avanti, dai tempi della Seconda Guerra Mondiale, come non ce ne furono mai nei periodi storici precedenti, in termini di scoperte, applicazioni, risorse e persone che vi si sono dedicate; giova ricordare che tutto iniziò "nel peccato" - se così vogliamo dire -, un peccato chiamato Progetto Manhattan, la prima vera impresa di Big Science, che produsse la bomba atomica, che aiutò a sperimentarla su vittime innocenti e innescò una sfrenata corsa agli armamenti che tutto sommato dura ancora oggi. Questo peccato originale non è mai stato emendato perché la motivazione principale - almeno nella testa dei decision maker - per spendere così tanti soldi nella scienza era ed è legata all'idea di supremazia: militare innanzi tutto, ma anche economica e ideologica. A chi allarga i cordoni della borsa in genere non è mai interessato molto portare un po' più in là i confini della conoscenza, soddisfare una presunta curiosità umana per ciò che c'è dall'altra parte, o sopra, o sotto, o dentro le cose: deve rendere conto ai suoi elettori (per non complicare troppo il discorso mi limito al nostro mondo occidentale, ma certe logiche erano anche proprie dell'altro mondo, quello comunista) relativamente alle richieste di sicurezza di fronte a minacce vere o presunte, di benessere materiale, di comodità e di salute.

Alla fine del paragrafo 1.4, primo capitolo, del "Fundamental University Physics" di Marcelo Alonso e Edward Finn (ed. del 1967, la prima) si legge:
"This gives the physicist the gratifying feeling that he is not only advancing our body of knowledge about nature, but contributing to the social progress of mankind".
Parole che oggi qualcuno troverebbe viziate di fastidiosa retorica, ma che dicono di un'epoca in cui la percezione della scienza era abbastanza diversa da quella odierna, più disincantata, indifferente e forse più gravata di pericolosa ignava rispetto a cinquant'anni fa: di certo più delusa (e forse a ragione). Parole di scienziati e grandi didatti comunque, che magari non rispecchiavano esattamente cosa realmente pensava la gente e i politici in quei tempi, ma non ci andavano poi troppo lontano.

Il pensiero sulla scienza è dunque sempre stato ancipite, per lo meno dagli anni quaranta in poi, epoca per l'appunto in cui gli investimenti sono diventati molto più massicci. Prima non ci si poneva questi dilemmi (amore della conoscenza o utilità): si spendeva molto meno da parte del contribuente, e la dedizione allo studio era del tutto disinteressata. Dopo di che la scienza diventa anche (e per alcuni, soprattutto) un mezzo, per fini completamente alieni alla pura conoscenza. Viene in mente la frase falsamente attribuita al Machiavelli sui fini che giustificano i mezzi, intendendo con ciò che per perseguire un fine solitamente giusto e magari nobile, anche i mezzi meno nobili - o al limite ignobili - sarebbero leciti. Nel caso in esame direi che in termini di valori le attribuzioni risultano invertite: per perseguire fini non particolarmente nobili - se non del tutto discutibili - (supremazia militare con tutto quello che ne consegue, o profitto commerciale) si utilizza un mezzo che è sicuramente da ritenersi nobile: la conoscenza disinteressata prima di tutto e poi le sue applicazioni "to the social progress of mankind".

Finita la Guerra Fredda il discorso non è comunque cambiato molto, ma anzi si è fatto anche più spudorato: l'idea è che si investe in scienza solo ed esclusivamente per un ritorno economico immediato - in termini di innovazione e nuove tecnologie -, ovvero per migliorare la qualità della vita, cosa in sé lodabilissima e più che auspicabile, sennonché anche lì vi è da vedersi in fin dei conti un ritorno e un risparmio ("dell'investimento" in ricerca) per cure e assistenza: curare bene, velocemente e spendendo poco, aumentando l'efficienza complessiva della sanità (per non gravare eccessivamente sulle tasse per il welfare, tasse che dispiace sempre di più pagare, specie da parte dei più ricchi) e per avere lavoratori che possano dare il massimo per tempi più lunghi - così si pagano anche meno anni di pensione.

Si spiega così perché ormai su tutti i siti istituzionali (limitandosi al Web, ma su tutti gli altri media è la stessa cosa) di enti di ricerca e laboratori - che oggettivamente costano un bel po' di soldi - ci sono pagine e pagine in cui ci si esercita a dimostrare che la ricerca fatta ha (o avrà) delle inevitabili ricadute applicative, specie in ambito economico, quando poi non esistano proprio dei precisi progetti orientati a quello scopo - il cosiddetto trasferimento delle conoscenze alle imprese (o formule simili). Non si vuole sostenere che questo non sia importante, specie guardando in casa nostra, dove proprio la mancanza di innovazione - e della relativa cultura imprenditoriale - sta suonando la campana a morto del nostro apparato produttivo. Però è un fatto certo che un modo di ragionare di questo tipo getta un'ombra inquietante su una buona fetta della ricerca di punta, quella meno utile - per lo meno adesso - agli interessi economici. Se una volta si finanziava senza fiatare quasi ogni tipo di ricerca - anche con la speranza che un domani questo producesse un vantaggio competitivo o militare, o comunque aiutasse a realizzarlo - adesso si ragiona sempre di più con la logica neoliberista del ritorno immediato dell'investimento, con visibilità temporale sempre più ridotta. Si dirà che questo dipende dal fatto che "la coperta è sempre più corta": non è vero, i soldi ci sono, tant'è vero che le spese militari - anche per la ricerca tecnologica militare - continuano a essere assai sostenute: 711 miliardi di dollari nel solo 2011 spesi dagli Stati Uniti - 1700 miliardi in tutto il mondo - (fonte: SIPRI, Stockholm International Peace Research Institute) -, tanto per fare un esempio. Per non parlare dell'enorme plusvalore finanziario accumulato in decenni di speculazioni.

È una questione ideologica, un modo di considerare quali sono i valori più importanti che devono guidare il progetto di vita delle persone. Oggi, nonostante scandali e crisi, continua a essere predominate una visione edonistica, solitaria e massimamente individualistica per cui contano solo successo e soldi, e tutti i mezzi devono essere impiegati per il raggiungimento di tali fini. Qualche tempo fa, forse un po' romanticamente, esisteva anche la "sete di conoscenza", il senso dell'avventura intellettuale, quella che faceva dire all'Ulisse di Dante "fatti non foste a viver come bruti, ma per seguir virtute e canoscenza".

Quindi, se è vero che la scienza è da almeno mezzo secolo vista soprattutto come un mezzo per altri fini, è anche vero che è cambiata, specie recentemente, la percezione del valore intrinseco dell'impresa scientifica: si tende a riconoscerne senz'altro l'utilità pratica immediata ma a sminuirne il valore culturale come visione del mondo, come impresa intellettuale che vale la pena di essere coltivata di per sé. Questo spiega bene l'immagine ossimorica del creazionista con notebook e telefonino: un ritorno in altre vesti (vesti più straccione) del crocianesimo tipico per cui la scienza era un'attività di serie B, e la "matematica e scienza non sono vere forme di conoscenza, adatte solo agli "ingegni minuti" degli scienziati e dei tecnici"; anzi i "concetti scientifici non sono veri e propri concetti puri ma degli pseudoconcetti, falsi concetti, degli strumenti pratici di costituzione fittizia" (vedere la pagina di Wikipedia su Benedetto Croce).

Il corollario di tutto quanto detto è l'annunciata chiusura o riconversione degli ultimi laboratori di fisica delle particelle di una certa rilevanza (vedi qui).

Questi sono i nostri tempi, d'accordo, ma ciò non ci esime dal domandarci che cosa ci sia di più umano se non il gusto dell'avventura intellettuale, di cui la scienza è diventata una delle componenti più importanti, e se tutto il resto - ciò che viene smerciato come veramente importante - non sia una variante più o meno edulcorata di quell'atavica ferinità da cui l'umanità non riesce a liberarsi.

(17 Febbraio 2013)


Supersimmetria: sì o no?

Si è svolto a Kyoto l'ultimo congresso dedicato alla presentazione e discussione dei risultati sperimentali fino a ora prodotti al CERN (ATLAS, CMS e LHCb), al Tevatratron del Fermilab e al DESY di Amburgo: l'Hadron Collider Physics Symposium 2012. Sui risultati presentati, specialmente dal CERN, si è poi scatenata una polemica a colpi di blog tra chi dava per moribonda - o comunque non in buona salute - la teoria conosciuta come Supersimmetria e chi invitava alla calma, perché i risultati presentati erano ben lungi dal dire l'ultima parola. Persino la BBC si è inserita nella diatriba. (Per alcuni commenti vedi per esempio Résonaances e Not Even Wrong che rimanda anche ad altri blog).

Che dire? Penso che ci si debba attenere ai fatti: quelli presentati sono il risultato di un'analisi - parziale - sui dati sino a d'ora raccolti - non tutti -, risultati che tenderebbero a confermare l'esistenza, annunciata in pompa magna quest'estate, del bosone di Higgs, che questa particella è sostanzialmente quella, diciamo, "minimale" che serve al Modello Standard per funzionare (non è, per esempio, uno pseudo-scalare), che le anomalie sui modi di decadimento (specie quello a due fotoni) richiedono un'analisi più approfondita (quindi coloro i quali si aspettavano l'apertura di uno spiraglio su una eventuale fisica oltre lo SM dovranno pazientare ancora un po'). Questo per la parte "positiva" delle presentazioni. La parte negativa riguarda invece, appunto, la Supersimmetria, e sino ad adesso è chiaro che stenta a palesarsi. Che poi non si può neanche dire di trovarsi di fronte una teoria fatta, finita e univoca: si tratta invece di più teorie che possono essere rubricate come supersimmetriche - Matt Strassler lo ricorda e lo argomenta molto bene in questo suo post.

Concordo nel dire che qui niente è finito in ospedale e che queste sono polemiche un po' ingenue, come a voler per forza costringere questi argomenti nella logica spettacolare dei talk show.

Tra l'altro il problema è che non abbiamo niente di meglio per spiegare certi aspetti sconcertanti del Modello Standard : parametri, gerarchia delle masse, materia oscura, per fare alcuni esempi. Le uniche cose che sembrano abbastanza sicure è che questa teoria sembra ricevere sempre più conferme fortificanti e che bisognerà probabilmente aspettare la primavera e l'estate prossime - quando tutti i dati saranno compiutamente analizzati - per poter verificare se esiste qualche spiraglio, una crepa (per quanto esile) nell'attuale teoria che lasci intravvedere quella nuova fisica verso cui tutti sembrano sospirare. Nel frattempo l'LHC sarà entrato da alcuni mesi in un lungo letargo per consentire quelle modifiche e aggiustamenti necessari a portarlo all'energia e all'intensità di progetto, e da lì si ripartirà per un nuovo giro di studi e misure per cercare di capire meglio che strada prendere - sempre che si riesca a trovarla o ne esita una che non richieda energie impossibili.

C'è però una perplessità di ordine epistemologico riguardo a queste teorie, e cioè che tipo di spiegazioni possono dare delle costruzioni concettuali che possono adattarsi ai dati che via via sono prodotti dagli esperimenti, variando di volta in volta i valori di soglia (del tipo "se non abbiamo trovato particelle supersimmetriche alle energie di LHC, è perché sono ancora troppo basse"), salvando, in un certo senso, capra e cavoli: la capra dello sperimentatore e i cavoli del teorico? Questo perché c'è in effetti una tendenza di questo tipo da un po' di anni per stare dietro ai risultati empirici. Ora, Popper insegna che se una teoria non è falsificabile, allora non è una teoria scientifica, e questa rincorsa allo spazio di parametri giusti non è per definizione falsificabile (certo, non è possibile ridurre tutte le spiegazioni scientifiche sul letto di Procuste di Popper, ma per quello che concerne le scienze della natura in genere è un buon criterio). Di questo passo non si rischia di finire in un cul de sac scientifico, stante anche il fatto, come detto sopra, che non ci sono molte alternative? Certo, si è anche detto che è opportuno parlare, riguardo alla Supersimmetria, al plurale, di varianti che via via vengono escluse dai dati ottenuti, ma è comunque un plurale sussunto sotto un unico impianto concettuale. Non è detto che non sia la strada giusta, e Strassler ci ricorda nel suo intervento che per arrivare al Modello Standard odierno si è operato proprio così, per esclusioni di varianti e approssimazioni successive, insomma quasi un lavoro di bricolage. E' però una situazione ben diversa rispetto a tante altre ben note nella storia della scienza: basta che i raggi luminosi non deviino nel modo atteso (o non deviino affatto) quando passano in prossimità di una grande massa e arrivederci Relatività Generale, la teoria scricchiola in modo inquietante e collassa. Nel caso in esame, si riuscirà a capire se proprio l'idea che sta dietro a questo insieme di teorie è corretta o meno? Dobbiamo darlo per scontato solo in base a criteri estetici - per così dire - o perché la matematica con cui sono scritte è particolarmente elegante, o in base a qualche altra inferenza induttiva - ma teorica - sul modo di funzionare della natura?

Parrebbero considerazioni extrascientifiche, pertinenti alla filosofia della scienza, ma è noto che alla fine del XIX secolo furono anche considerazioni filosofiche che guidarono Einstein alla relatività, un punto di vista diverso da cui osservare il mondo, l'enfasi su aspetti apparentemente ritenuti non importanti: la sola matematica non basta senza un'intuizione di quello che succede là fuori, intuizione che non può non nascere da considerazioni generali sul mondo.

(20 Novembre 2012)


Il premio

4 luglio 2012: al CERN viene dato l'annuncio che il bosone di Higgs, 48 anni dopo la sua ideazione e dopo circa un ventennio di ricerca effettiva con i collider, è finalmente stato trovato. Una data storica dunque, come quel famoso 11 novembre 1974 in cui fu dato l'annuncio della scoperta della particella J/psi (la cosiddetta "rivoluzione di novembre") che confermò l'esistenza di un quarto quark, il quark charm. O il gennaio del 1983 (bosoni W). O altre date ancora. Però quest'ultima è il coronamento di una ricerca partita più di mezzo secolo fa, una ricerca che ha prodotto la descrizione più raffinata del mondo fisico - e dell'intero universo - che mente umana abbia mai concepito.

5 luglio 2012: il governo presieduto dal professor Monti vara il decreto legge sulla cosiddetta "spending review" che è in buona sostanza una specie di cura dimagrante per i conti dello Stato. Ok, siamo in tempo di crisi (e chissà se se ne uscirà mai da questa crisi, e se se ne uscirà, come se ne uscirà): tutti devono tirare la cinghia! Vabbé, ma era proprio il caso di dissanguare ulteriormente la ricerca italiana? Non ci avevano già pensato a sufficienza i vampiri del precedente governo? E poi perché, dico perché, punire di più proprio l'INFN, che ha contribuito molto a fare della precedente data una data storica, giustamente elogiato anche dal Presidente Napolitano? Le guerre tra poveri sono odiose, ma perché toccare di più proprio questo ente che da tanti anni ha sempre dato lustro alla scienza italiana? Si parla di tagli del 3,78% quest'anno e del 10% negli anni successivi. Vanno poi aggiunti i tagli sul personale tecnico e amministrativo "in esubero"!

Complimenti professor Monti! Ma chi l'ha consigliata? Un cardinale Bellarmino redivivo? Come professore universitario - e nel suo governo ce ne sono anche altri - lei dovrebbe avere a cuore la missione propria dell'insegnamento e della ricerca. O il tipo di studi che lei e altri coltivano la portano a credere che tutto quello che non è immediatamente produttivo e profittevole non merita la pena di essere coltivato? O è semplicemente la Weltanschauung della Goldman Sachs?

Ad ogni modo qui si può leggere il commento assai pacato ancorché preoccupato del presidente dell'ente Fernando Ferroni.

Forse qualcuno, nelle stanze di quelli che decidono, avrà genialmente dedotto che siccome il fisici stanno spendendo un po' troppo con i loro "giocattoli" di cui non sanno spiegare molto bene l'utilità (immediata), fosse arrivato il momento di tagliare loro un po' le unghie. Figuriamoci (avranno pensato): sono già stati stanziati 250 M€ per SuperB (e chissà se quei soloni economici non troveranno il modo di dirottarli…), cosa vogliono ancora? Pagare i ricercatori? Spendere per altri esperimenti? Vadano in America o in Germania o in Cina!
Eppure la costruzione di LHC ha significato un cospicuo ritorno di investimenti per le nostre industrie di punta (vedi questo documento) e l'ente stesso è impegnato in un ambizioso programma di ritorno tecnologico (vedi qui).

Bel premio per la fisica italiana!

Ma forse siamo tutti degli ingenui: tutta questa è considerata una perdita di tempo e soldi per un paese che probabilmente, in modo più o meno conscio, ha scommesso sull'essere il parco dei divertimenti del mondo, "SolePizzaAmmore-e-Mandolino", spiagge alberghi e turismo-a-gogo (sempre che il territorio non venga prima distrutto dalla malavita organizzata con l'avvallo di qualche politico); e quelle regioni che non possono permetterselo diventeranno il serbatoio di mano d'opera (s)qualificata e possibilmente a basso costo - una volta regolati i conti con chi ancora si oppone (sindacati, forze della società civile, imprenditori di cui non ci si debba vergognare, che ancora ci sono) - del resto d'Europa. E forse della Cina.

(8 Luglio 2012)


Nato il 4 luglio

Jester sul suo blog Resonaances, parlando della prossima conferenza del 4 luglio del CERN, dove saranno presentati in anteprima i risultati di ATLAS e CMS relativi alla ricerca sulla particella di Higgs, propone tre scenari abbastanza chiari anche per chi non segue e non conosce nei dettagli queste cose:
  • L'inferno per lo sperimentatore: LHC non ha trovato nessun Higgs
  • L'inferno per il teorico: L'Higgs c'è, ed è perfettamente congruente con quanto predetto dal Modello Standard
  • Il paradiso per entrambi: L'Higgs c'è, ma è differente dalla particella predetta dal Modello Standard.

(Leggere il blog per i dettagli).

Non sono d'accordo sul secondo punto. Io penso che anche in quel caso lì si possa parlare di "paradiso per entrambi": c'è una nuova particella prevista da una teoria di successo, che però lascia molti interrogativi senza risposta ma indirizza comunque la ricerca in modo molto più preciso, mettendo da parte tutta una serie di ipotesi alternative o di estensioni della teoria stessa. Io direi che il lavoro teorico vero, scientifico, inizia proprio in quel momento. Cos'è veramente questa particella, che proprietà ha? Cos'è veramente il campo (scalare) di Higgs, che proprietà ha? Che tipo di interazione esiste, mediata dal bosone, tra questo campo e il resto dell'universo? E se si scoprisse che si deve passare proprio per questi studi per rispondere ad altre due domande fondamentali: cos'è la materia oscura? cos'è l'energia oscura? E questo partendo dal dato inconfutabile e dimostrato che stiamo (finalmente) parlando di "oggetti" reali!

Anche del neutrino sembrava che si fosse capito tutto… prima che si scoprisse che razza di animale esotico era, per cui lo stesso ragionamento potrebbe essere valido anche per il nuovo (si fa per dire) arrivato!

Il 4 luglio è il giorno dell'indipendenza degli Stati Uniti d'America: in un certo senso (più "sociale" che filosofico) potrebbe essere il giorno dell'indipendenza del dato scientifico dal suo fardello teorico (theory-laden observation).

(1 Luglio 2012)


ICHEP 2012, pietre tombali ed Epilogo dell'OPERA

Forse bisognerà prendersi una pausa di riflessione. Tra qualche giorno inizia la conferenza ICHEP 2012 (International Conference on High Energy Physics, trentaseiesima edizione), a Melbourne in Australia dal 4 all'11 di luglio, una delle più importanti del settore. Ci sono buone probabilità - anzi è sicuro - che lì saranno presentati gli ultimi risultati di ATLAS e CMS, relativi all'ultimo turno di presa dati al CERN a 8 TeV, duranti i quali si arriverà alla soglia dei 5 femtobarn inversi (quanto ne sono stati raccolti l'anno scorso a 7 TeV) e forse oltre: la macchina sta funzionando decisamente bene. Sarà il momento di verificare la presenza o meno del bosone di Higgs, che a questo punto dovrebbe palesarsi in modo più deciso. Non si sa se verrà annunciata ufficialmente la scoperta, ma potrebbe essere comunque questione di poco. Che tipo di Higgs salterà fuori? Vedremo, ma il solo fatto che esista per davvero costituirà l'atto finale della verifica piena del Modello Standard - che ne ha bisogno come il pane per stare in piedi. A meno di sorprese clamorose! Diverso il discorso per la fisica BSM (Beyond Standard Model): latita insistentemente, tant'è vero che alcuni blogger parlano di pietra tombale (con il beneficio del dubbio) (vedi "New CERN Results On Rare B Decays: A Tombstone To SUSY ? di Tommaso Dorigo"). Anche qui bisognerà (forse) aspettare la conferenza (il forse è relativo al fatto se ce la faranno ad analizzare i dati in tempo). E questo sembra essere un periodo di pietre tombali! La più clamorosa (almeno dal punto di vista massmediatico), è quella di OPERA (vedi il comunicato stampa del CERN).

Questo risultato era per la verità già dato per acquisito da qualche tempo, e l'annuncio dato alla conferenza "Neutrino 2012" (tenutasi a Kyoto dal 3 al 9 di questo mese) non è che l'atto finale. E quest'ultima conferenza ha forse iniziato la posa di un'altra pietra tombale, quella relativa al doppio decadimento beta senza neutrini (vedi il commento sul sito di "Le Scienze" relativo all'esperimento EXO-200). Se fosse stato confermato (qualcosa pareva essere stato visto dall'Heidelberg-Moscow Double Beta Decay Experiment) questo fenomeno avrebbe permesso di affermare che neutrino e antineutrino sono la stessa particella (sarebbe perciò un fermione di Majorana), mettendo in crisi il Modello Standard. Così pare che non sia, almeno al limite di un decadimento di tale tipo ogni 1,6x1025 anni (un periodo miliardi di volte quello dell'età dell'universo). Non si può ancora escludere, però...

Dove sta la pausa di riflessione? Nel fatto che la Natura ci sta dicendo, con tutta verosimiglianza, una cosa semplice: Modello Standard, Modello Standard e ancora Modello Standard! Con la provata eccezione della massa dei neutrini e della loro oscillazione. È prematuro dirlo, ma se tutte le estensioni, alternative e quant'altro rimarranno solo carta stampata sulle riviste, ci sarà eccome da riflettere. La cosa degna di nota è che la costruzione del Modello Standard terminò praticamente nella prima metà degli anni settanta del novecento (anche se molte conferme sperimentali vennero dopo: l'ultima potrebbe essere di questo 2012) e che dopo ci si occupò solo di come estenderlo o superarlo (a livello teorico). Quasi quarant'anni di intensa ricerca. Se ora tutto questo va ripensato (ed è molto, tanto, tantissimo), evidentemente c'è un problema (e forse più di uno). Un problema che non si è stati capaci di vedere e formulare. Nella scienza è normale che succeda (ed è successo), ma qui lo sforzo profuso non è circoscrivibile a un manipolo ristretto di scienziati chiusi in una stanza di un oscuro istituto universitario: si parla di almeno due generazioni di ricercatori e di un numero assommabile alle migliaia delle migliori menti scientifiche del pianeta.

Perché allora si è presa una direzione che non portava da nessuna parte, o per lo meno che non portava dove ci si aspettava? È prematuro dirlo (lo ripeto ancora), e invero sarebbe molto confortante vedersi aprire davanti agli occhi la strada che dalla Supersimmetria porta direttamente alle stringhe, ma pare che se una strada del genere esiste davvero, deve essere proprio ben nascosta, più una pista nella giungla che una carovaniera battuta da molti secoli. Almeno questo è quello che incominciano a pensare gli irriducibili del BSM.
I dati sperimentali non lasciano scampo: o una teoria è in accordo con essi (e quindi è - temporaneamente - corretta, almeno nel suo ambito di validità relativa a quei dati) oppure è sbagliata e va rivista o rigettata. E la fisica è una scienza sperimentale, non un teatro di abilità e di equilibrismi matematici.

C'è anche la possibilità che proprio quelli equilibrismi riescano a far ritrovare la strada: un aspetto poco considerato o sottovalutato, un calcolo rifatto partendo da assunzioni leggermente diverse, un'altra prospettiva o forse uno strumento matematico più efficace: ma queste sono solo genericissime ipotesi di lavoro!
Scriverò nel seguito - anche in base a cosa diranno i ricercatori nelle conferenze estive - su alcune questioni generali che secondo me, dovesse confermarsi l'attuale tendenza "conservatrice", dovrebbero essere rimesse in agenda, almeno da un punto di vista metodologico se non epistemologico.

(12 Giugno 2012)


PhysiStar

Frank Gehry, Renzo Piano, Massimiliano Fuksas, Arata Isozaki: sono architetti molto noti, che solitamente sono rubricati come "archistar" (nome coperto da brevetto). Chi sono le archistar? Architetti appunto, la cui fama - soprattutto mediatica - consente loro di fare tendenza, e a cui, proprio per questa fama, vengono commissionati progetti molto importanti, con un giro d'affari considerevole, progetti che dovrebbero dare lustro soprattutto a chi li commissiona, specie se amministratori pubblici o grandi fondazioni. In genere questo da la stura a polemiche a vari livelli (artistici, urbanistici, politici e economici), ma in fondo pochi contestano la loro supremazia, anche se, come spesso succede in questi casi, la loro opera diventa assolutamente autoreferenziale e tende ad innestarsi, con atti anche di fastidiosa arroganza, su tessuti urbani e ambientali che richiederebbero ben altri tipi di interventi. Però il ritorno di immagine è tale, specie per il committente, che in genere queste considerazioni passano in secondo piano.

Un fenomeno analogo si sta verificando anche nelle scienze fisiche, seppure di importanza - mediatica e economica - di gran lunga inferiore. Si è creata una categoria di scienziati "di tendenza" - le PhysiStar - che compaiono molto e scrivono ancora di più per il grande pubblico - oltre che per le pubblicazioni specializzate - su giornali, blog, libri, in televisione. Sono tutti fisici teorici, tutti ricercatori nell'ambito di teorie di frontiera - supersimmetria, superstringhe, Landscape, universi olografici, approcci vari alla gravità quantistica, per citare i più importanti - tutti fermamente convinti che alla fine ciò che sostengono si rivelerà come la versione corretta della Teoria del Tutto, forse tutti convinti che lo scopo della ricerca empirica sia quello di verificare e confermare e non, popperianamente, di verificare e falsificare (e infatti spesso queste teorie sono state giustamente criticate per essere state costruite in modo da non poter essere falsificate). Alcuni nomi: Stephen Hawking, Roger Penrose, Brian Greene, Leonard Susskind, Lee Smolin, Lisa Randall, Gordon Kane, Michio Kaku, per citare alcuni dei più famosi in ambito anglosassone. Qui in Italia lo è stato Antonino Zichichi, e in misura minore Carlo Rubbia e Tullio Regge (dei tre il secondo ha vinto il premio Nobel, è un fisico sperimentale (per la verità anche Zichichi) e - sarà un caso - non è solito scrivere opere di divulgazione). Lo è molto Piergiorgio Odifreddi, anche se non è un fisico. C'è poi da segnalare la tendenza che hanno alcuni di questi scienziati a scollinare dalla loro materia alla filosofia - seguendo la traccia di esempi famosi del passato- con esiti, secondo me, un po' dilettanteschi (il fatto che in filosofia si ragioni e si argomenti in modo generale su tutto non significa che si possa farlo senza adeguati strumenti concettuali, senza lunga pratica e senza un linguaggio tecnico che va afferrato e padroneggiato con perizia, come nelle scienze naturali). In genere ciò li porta a collidere frontalmente con questioni teologiche, innescando polemiche che alla fine non portano da nessuna parte.

Comunque costoro passano un po' come i portavoce di tutta la comunità, cosa che ha attirato anche qualche critica, soprattutto perché questo mainstream teorico pare che abbia in qualche modo precluso l'esplorazione di ipotesi alternative (un esponente noto di quest'area critica è Peter Woit, che pubblicò un libro molto polemico intitolato "Neanche sbagliata - Il fallimento della teoria delle stringhe e la corsa all'unificazione delle leggi della fisica" ed. Codice). Le cose però si stanno facendo un po' difficili per loro - almeno per il momento: non arrivano le sperate conferme alle teorie, e gli ultimi dati raccolti dagli esperimenti più importanti si stanno rivelando essere una specie di via crucis; di più: rischiano di essere delle pietre tombali! Qualcuno ha già pronta la salva da sparare nel caso le cose si mettano veramente male: la scala di energie non è quella corretta, e andrebbe aumentata di uno (o addirittura due) ordini di grandezza! Come dire che se ne parlerà (forse) nella seconda metà del secolo o anche dopo...

Se poi le teorie sono veramente molto ambiziose (Landscape, Universi Olografici) le nostre PhysiStar hanno la fondata speranza di rimanere sulla cresta dell'onda per un bel po' di tempo: difficilmente si riuscirà a progettare esperimenti per verificarle.

Ma è ancora scienza? Loro dicono di sì. È una questione molto delicata, che in effetti sconfina nella filosofia della scienza. D'altronde che dire dei quark, che non si possono "vedere" come oggetti isolati? Dei neutrini, così evanescenti che non se ne conosce neanche la massa? Tutti oggetti postulati in modo puramente teorico. Certo, ma di cui si è potuto prevedere alcune proprietà importanti e indicare alla ricerca sperimentale dove guardare, se non in modo preciso almeno con sguardo panoramico (il che equivale a dire che comunque qualcosa doveva pur rimanere nella rete). Qui invece sembra solo una gara a nascondersi. E il tutto finisce di puzzare di speculazione fine a se stessa. Ad ogni modo mi atterrei ai fatti: molto probabile il completamento della verifica sperimentale del Modello Standard, ma sino ad adesso nessuna dimensione nascosta, nessun super partner, niente particelle esotiche (per esempio gli assioni), nessuna evidenza (se non cosmologica) di materia oscura, niente di niente se non la vecchia fisica anni '70! A proposito: è notevole come il Modello Standard, la teoria più completa che abbiamo sulla struttura ultima dell'universo - e che si dimostra essere notevolmente resistente - sia nata proprio in quegli anni (tra la fine degli anni '50 e la metà dei '70) di grande fermento creativo artistico, intellettuale e politico! Che voglia dire qualcosa?

(4 Maggio 2012)


Scherzi a parte

Esiste un primo di aprile anche per la HEP! Se avete seguito il link avrete visto che la celia ha come pretesto OPERA, i cavi e le loro connessioni. Vabbé, non è vero che i dati di ATLAS e CMS potrebbero essere non validi e soffrire del morbo del cavo pazzo, ma a me comunque fa pensare una frase di quel post: "The ATLAS and CMS detectors thousands cables (sic), so if one of them went loose we probably would never know", anche se "There's no way a loose cable can fake the Higgs signal; thousands things can but not this one". Domanda: ma gli sperimentatori hanno realmente tutto sotto controllo? L'esperienza di OPERA - a meno di non credere a inusitate e ingiustificabili leggerezze - docet. E ovviamente non mi sto riferendo necessariamente a cavi, timer, schede o computer: faccio un discorso generale. Tanto più che si va ormai alla ricerca di fenomeni rari (modi di decadimento che si realizzarono con frequenze bassissime) e magari nascosti dietro una montagna di eventi molto simili, ma del tutto conosciuti (più o meno); oppure ci potrebbero essere errori di sottovalutazione del medesimo background del Modello Standard. Un lavoro di fino dunque, da condurre con calma e senso critico, e meno male che ci sono i computer!

Probabilmente sono preoccupazioni poco fondate, primo perché ci sono appunto due grossi esperimenti (ATLAS e CMS) che devono confrontarsi sugli stessi dati (da angolazioni diverse) in modo anche concorrenziale, come era già successo al Tevatron (esperimenti D0 e CDF: e lì non sempre le misure davano esiti inequivocabili), secondo perché con collaborazioni così grandi è logico pensare che (quasi) tutto sia sotto controllo, anche da un punto di vista tecnico. D'altronde ciò che è successo a OPERA penso costituisca una lezione salutare per tutta la comunità, soprattutto in termini di cautela e di perizia tecnologica. Questi sono esperimenti "mondiali", nel senso che la comunità scientifica ha ormai da molto tempo assunto una tale dimensione, e giudica in genere molto severamente passi falsi di quel tipo - per non parlare delle frodi, ma è difficile che si verifichino in questo campo: non ci sono interessi economici e politici in gioco.

Se poi si affronta la questione da un punto di vista epistemologico, la strada diventa alquanto difficile, e in genere il fisico ci si tiene lontano, anche perché, dopo decenni di discussione (se non secoli), non è ancora molto chiaro dove si vada a parare e le soluzioni proposte non sono assolutamente conclusive (quando non del tutto distruttive, nel senso di negare persino la realtà dei risultati scientifici). E poi, come diceva un filosofo del calibro di Hegel, la nottola di Minerva si leva sempre al crepuscolo, intendendo che la filosofia incomincia il suo lavoro a cose fatte, sulla realtà come è attualmente data, e in genere non da nessun contributo predittivo alla conoscenza. E del senno di poi...

Vogliamo allora dire che non ci sono alternative a questo modo di produrre conoscenza?

(5 Aprile 2012)


Terzo Atto

Non è ancora l'epilogo probabilmente, ma la notizia che il fisico Antonio Ereditato (coordinatore della collaborazione OPERA) ha rassegnato le dimissioni proietta un'ombra funerea su quella che sembrava la scoperta del secolo. Questo dopo che si era trovato un connettore male avvitato e un timer non perfettamente sincronizzato, ma soprattutto dopo che un esperimento gemello, situato nello stesso punto (i laboratori del Gran Sasso), ICARUS, non confermava per niente la scoperta. Tutti aspettavano che si riprendessero le misure tra poco, quando dal CERN partiranno di nuovo i fasci di neutrini verso l'Abruzzo, ma queste dimissioni dicono sicuramente qualcosa! Forse si tratta dell'onestà di una persona consapevole di un errore madornale spacciato per un punto di svolta epocale per la fisica? Di un regolamento di conti all'interno dell'istituto di appartenenza per la magra figura che con tutta evidenza sarà confermata? Ci sono dati non ancora pubblicati che non confermerebbero quello detto sino ad ora dalla collaborazione e che originano proprio dal suo interno?

Speriamo di saperlo, per una questione di onestà e trasparenza prima di tutto. Poi ci si può sempre dire che il viale della scienza è lastrico di errori (probabilmente molti di più dei successi), ma in questo caso si ha l'impressione che il confine tra errore (che ci sta, è previsto e in generale è gestito) e "leggerezza" sia un po' labile. Come ho già detto, la scienza non è mai spettacolo (almeno nel senso che generalmente si attribuisce al termine), non ha i "tempi televisivi" e neanche borsistici, a volte è estremamente noiosa e lenta - come la natura. Certo, oggi gli esperimenti sono complicatissimi, ma a maggior ragione se si ottengono risultati incredibili è molto meglio lasciar perdere pubblicazioni e annunci e ricontrollare tutto.

A tale riguardo si può leggere la lettera al direttore di Le Scienze dello stesso Ereditato, lettera da cui mi pare traspaia una neanche tanto velata polemica proprio nei confronti di quella spettacolarizzazione a tutti i costi che ha accompagnato tutta la vicenda, e per la quale, in un modo o nell'altro, la testa del coordinatore alla fine è caduta nel tritacarne massmediatico. Certo, da fuori è difficile giudicare, ma alla fine di tutto la serenità e la lenta ponderazione del lavoro scientifico - cose aborrite, come è noto da quel mondo televisivo-giornalistico-gossiparo - è andata a farsi benedire.

Questo non dovrebbe mai succedere: la scienza non è un'attività per broker, pubblicitari, amministratori delegati, presentatori e guitti.

(30 Marzo 2012)


Secondo Atto

È possibile essere sbugiardati da un connettore di un cavo a fibre ottiche? O da un oscillatore che provvede alla temporizzazione e sincronizzazione tra i sistemi GPS per il calcolo dei tempi di volo? (Questo è il commento che si può leggere su Nature)

Sì, si può. Comunque le indagini del caso erano già cominciate in seno alla collaborazione Opera, ma naturalmente la notizia ha "bucato", e i commenti (anche salaci, al limite della derisione, domestici e internazionali) stanno fioccando sui vari blog. Commenti spesso non molto motivati, perché comunque bisognerà aspettare il comunicato ufficiale di Opera, perché si tratta di gente seria, perché l'errore è parte della prassi scientifica.

Però fatemi fare lo stesso il vecchio saggio barbogio: ve lo avevo detto che ci voleva più cautela (vedi post più sotto "Le piace l'Opera?")! È da almeno un secolo che si cerca di falsificare rovinosamente la relatività (speciale e generale), e sempre ci si è rotti la testa! Prima di fare un annuncio del genere bisognava controllare tutto, persino i post-it lasciati sulla scrivania della collega per invitarla a cena!

Per la verità qualche sospetto legato alla "tecnologia" dell'esperimento - alla troppa, ma inevitabile tecnologia - mi era venuto, ma non l'avevo certo esplicitato per non passare da "sempliciotto" ignorante al confronto di tutte le ipotesi che si erano susseguite, in senso positivo come negativo, subito dopo l'annuncio. Andare a pensare a dei "flaws" così banali! Ma suvvia!

Ci sarà tempo per discute della fretta di arrivare primi o quant'altro possa essere stato. Certo è che, se l'anomalia fosse confermata e tutto rientrasse nella norma, ci sarà da riflettere attentamente su questa storia.

Adesso, fatte tutte le verifiche, si dovrà aspettare il fascio di neutrini dal CERN, previsto per aprile, e rifare le misure. Io penso che tutto tornerà a posto (no faster-than-light neutrinos), ma lo dico più per motivi romantico-sentimentali - lo ammetto - che per altro: la natura potrebbe avere in serbo qualche altra sorpresa. Beh, in verità non solo: ci sono i precedenti di cui ho detto prima, e la convinzione della sostanziale (per quanto immotivata) semplicità delle leggi della fisica, che se ammettessero deroghe per un qualche tipo di particelle, metterebbero tutto il suo impianto concettuale nelle pesti.

A questo punto resto in attesa del Terzo Atto dell'Opera.

(23 Febbraio 2012)


Perché preferisco i libri... di carta!

Qualcuno lo dice da un po' di anni: dopo i dischi di vinile, le video cassette, i CD e DvD (in ordine cronologico) sta per suonare la campana del de profundis per il libro tradizionale di carta. Sta per arrivare l'era dell'eBook, quella lavagnetta di plastica su cui si possono leggere le pagine come nel modo tradizionale, solo che lì dentro si possono caricare centinaia (se non migliaia) di titoli. Si potrebbe pensare che leggere su tale dispositivo possa essere altrettanto faticoso e stancante per la vista di leggere su un normale computer, ma in realtà il display è diverso: se non c'è luce non si vede niente - luce ambientale, dico. Lo chiamano "inchiostro elettronico" o e-ink. Dovrebbe simulare molto da vicino l'esperienza della lettura tradizionale. Inoltre si può essere sempre connessi, fare in tempo reale una ricerca in rete sugli argomenti o i vocaboli che si incontrano, magari approfittando dell'ipertestualità messa a disposizione dal testo stesso, scambiare in tempo reale esperienze con altri lettori, scaricare nuovi titoli a un prezzo decisamente più conveniente e senza spostarsi da casa, senza dover andare per forza in libreria.

Inoltre non ci si riempirà più la casa di scaffali, pur avendo a disposizione in pochissimo spazio un'intera biblioteca.

È lo stesso discorso che valeva per i dischi di vinile e poi per i CD: nel momento in cui l'informazione è digitalizzabile, basta un piccolo hard disk, o una chiavetta USB e si hanno a portata di mano interi cataloghi, scaricabili in modo più o meno legale (tralasciamo il discorso della qualità, intorno alla quale si scatenano delle vere guerre di religione... io posso solo modestamente dire che l'esperienza di ascolto di un disco di vinile è abbastanza diversa che quella di un file mp3 o di un CD: questione di gusti, quindi).

Anche l'esperienza di lettura su tali aggeggi è (e sarà sempre più) diversa da quella tradizionale, se si considera tutto quello che ho detto più sopra: ci tornerò un'altra volta, alla luce anche di quanto scrive Nicholas Carr nel suo libro "Internet ci rende stupidi? Come la Rete sta cambiando il nostro cervello", in cui parla anche di questo, soprattutto alla luce del fatto che, almeno in America, tali dispositivi possono essere in qualche modo controllati, tramite internet, dai fornitori di titoli on line, che possono anche cancellare un contenuto - per i motivi più vari - dalla memoria del dispositivo: una prospettiva a dir poco inquietante!

Qualche giorno fa chiesi a un mio amico, titolare di un'agenzia libraria, cosa ne pensava: mi rispose che per il mercato editoriale l'eBook era l'ultimo dei problemi, anzi poteva addirittura trasformarsi in un effetto volano per il libro tradizionale.

Io lo spero vivamente: non sono mai stato un fanatico delle novità tecnologiche a tutti i costi, e per quanto riguarda i libri, sono ancora di più tradizionalista. Penso che il libro di carta sia prima di tutto un luogo fisico del pensiero, pensiero che diventa materia, pensiero che si impone alla materia. L'eBook è l'ultima trovata della volontà postmoderna di virtualizzare la realtà: il testo narra o spiega storie e concetti, ma basta un comando e il testo scompare: la realtà se ne sta comunque da un'altra parte (ma dove?); per distruggere un testo di carta bisogna compiere un'azione ben più traumatica. Bruciare un libro è spesso un'azione politica, cancellare un testo elettronico quasi mai. Un testo, una volta stampato, può rimanere testimonianza nei secoli; un testo elettronico di per sé non esiste, e si potrebbe perdere la memoria del modo di decodificarlo per sempre.

Forse saranno riflessioni un po' troppo filosofiche, ma tant'è. Spesso anche il profumo della carta stampata, di quella carta stampata, i colori della copertina, la consistenza della pagina - se è patinata o leggermente ingiallita - contano nell'esperienza di lettura, per il ricordo che ne rimane, per il senso di vitalità che dà una pagina di carta - prodotto vegetale - rispetto a uno schermo di computer. Anche la presenza su uno scaffale di una libreria ha un senso, fa in modo che il libro si imponga, che il suo contenuto in qualche modo si materializzi.

Forse i più giovani non proveranno più queste cose.

(10 Febbraio 2012)


Arte e artigianato

"Vile meccanico!" era un insulto se proferito quattrocento o cinquecento anni fa - e forse in tempi anche più recenti. Si riferiva a chi, per guadagnarsi da vivere, era costretto a esercitare attività manuali, a sporcarsi le mani con le cose, secondo i dettami del mestiere che aveva appreso. Chi non aveva bisogno di ciò, lasciando da parte re, nobili e i potenti, era l'intellettuale dedito alle arti liberali dei trivio e del quadrivio, principalmente il professore universitario di teologia e di filosofia, o colui che insegnava medicina dall'alto della cattedra del teatro anatomico lasciando ad altri l'incombenza di mettere le mani sui cadaveri (che in genere erano barbieri, in quei tempi dediti anche alla chirurgia). Il disprezzo per chi trattava direttamente le cose, per chi le maneggiava, per chi ne conosceva, attraverso l'esperienza, i segreti materiali, era sentire comune tra chi si occupava solo delle prove dell'esistenza di Dio o della sede dell'anima nel corpo mortale.

Furono i "meccanici" e chi non ne svalutava l'approccio alla realtà a fondare, attraverso le accademie, nel diciassettesimo secolo, la scienza moderna, prendendosi la rivincita su quella cultura libresca che si accontentava di commentare i massimi sistemi filosofici ereditati dall'antichità e dal medioevo, rivincita che avrebbe stabilito se stessa come il modo giusto di conoscere il mondo, erodendo sempre più spazio alla filosofia e alla teologia, a partire dai corpi celesti per arrivare ai segreti della vita.

Questo secondo - o terzo, o quarto - livello di umanità, i meccanici, era composto da artigiani, ma anche da mercanti, e da studiosi - i primi veri scienziati - che non disdegnavano il cimento con le cose. Secondo gli storici la modernità ha proprio lì le sue radici, in un sistema economico preindustriale in cui l'artigiano era il motore dell'economia cittadina, dell'innovazione produttiva, assieme al mercante appunto. Si incominciò quindi ad affermare la convinzione che la "cultura del fare" aveva una sua dignità, una sua specificità, ma non solo: consentiva, con l'esperimento, di accedere alla conoscenza materiale del mondo, come capirono molto bene Galilei e Bacone.

Nelle università questo fu compreso un po' di tempo dopo, e le accademie furono la risposta istituzionale all'incomprensione degli intellettuali (ci si deve ricordare che in quei tempi l'insegnamento universitario era saldamente nelle mani degli apparati della Chiesa, che fosse cattolica o riformata).

E l'Arte? L'artista è sempre stato visto (anche oggi penso) come un ibrido: si può occupare di massimi sistemi, di grandi idee, ma si sporca anche le mani, con una differenza importante rispetto all'artigiano: solitamente produce opere uniche, non seriali, che mediano sempre un messaggio più o meno palese (e palese lo doveva essere nel rinascimento, visto che la committenza - solitamente ecclesiastica - desiderava fortemente trasmettere un'ideologia ben precisa).

Si può dire che l'artigiano - e più tardi l'imprenditore della prima rivoluzione industriale - avesse un preciso interesse professionale a migliorare la propria conoscenza delle cose materiali e poterne così trarre un vantaggio in termini di competitività, problema che l'artista, impegnato nella produzione di opere uniche, evidentemente non poteva avere - il vantaggio sui suoi concorrenti era dato esclusivamente dal talento, che per definizione è una dote innata.

Questa nuova sensibilità del mondo, questa cultura del fare, soprattutto nel senso di cercare di capire come funzionano le cose, a prescindere dall'eventuale vantaggio pratico, aprì quindi la strada alla scienza moderna.

Da tutto ciò si può affermare che il contatto con la realtà materiale del mondo, attraverso l'esperimento, è la linfa vitale della scienza, senza la quale non è più se stessa. Il discorso andrebbe puntualmente completato affermando che in realtà la conoscenza scientifica sta in piedi anche su un'altra gamba e cioè sulla modellazione teorica, su ipotesi da verificare (o falsificare), su impianti concettuali che definiscono il "frame" sul cui sfondo ci si muove per decidere che cosa cercare con l'esperimento, e il tutto su un equilibrio sempre in fase di consolidamento critico che ha consentito l'avanzamento della conoscenza.

Ma storicamente fu il desiderio di "metterci il naso" che diede l'impulso di inizio, anche un modo di mettere la mordacchia (diciamo così) ai voli alati della fantasia teorica. E il primo paradigma generale dell'universo fu proprio, per ironia della sorte, quello meccanico.

(12 Gennaio 2012)


Teoricamente (in)completo

Per fortuna il mercato editoriale relativo alla divulgazione scientifica sembra abbastanza in salute: non c'è disciplina che non sia considerata, e se questo succede vuol dire che esiste una base di lettori abbastanza cospicua da spingere gli editori ad investire denaro nella pubblicazione. Anche in Italia - paese ritenuto da sempre un po' refrattario alla cultura scientifica - non è esclusa da questo fenomeno, per non parlare dei paesi di lingua inglese. Persino la matematica, comunemente ritenuta poco divulgabile se non tout court troppo noiosa, ha la sua fetta di titoli - basta fare una ricerca su uno dei siti dedicati alla vendita di libri per rendersene conto.

In fisica la situazione per fortuna non è diversa, anzi si nota, considerando i titoli in lingua inglese - e molti sono poi tradotti e proposti in Italia - una proliferazione cospicua di proposte, probabilmente perché le ricerche di punta nei settori più fondamentali si prestano molto a stuzzicare l'interesse (e la fantasia) del lettore mediamente colto. Compaiono poi anche saggi dedicati alla storia della fisica degli ultimi decenni, ai suoi personaggi, all'ambiente culturale in cui maturarono idee ed esperimenti.

C'è però da notare una cosa: le storie abbastanza spesso riguardano il fronte teorico, dove spiccano le vette dei grandi nomi che ormai molti conoscono. Si da così l'impressione che l'impresa scientifica sia un fatto meramente intellettuale, che sorga per magia da montagne di carte piene di scarabocchi incomprensibili, da giorni e notti passati seduti a una scrivania, o intorno ad una lavagna (oggi ci sono i computer, le simulazioni Monte Carlo, e le e-mail, ma il succo non cambia). Gli eroi sono invariabilmente armati solo di matita, regolo calcolatore (o computer) e tanta inventiva!

L'altra faccia della medaglia - il fronte sperimentale, quello dove, checché se ne pensi, si deve decidere di quelle rutilanti idee - non è molto raccontato, se non per sommi capi: soluzioni tecniche, macchine, risultati numerici sembrano poco interessanti... e sì che senza il tubo di Crookes non si sarebbe scoperto l'elettrone, senza interferometro niente da dire su etere e velocità della luce, senza le invenzioni di Wilson (camera a nebbia), di Crockford e Waldon (acceleratore lineare elettrostatico), di Lawrence (ciclotrone), niente fisica delle particelle...

Esistono le pubblicazioni specialistiche, ma quella è un'altra storia, che siano propriamente tecniche o storico-sociologiche: si rivolgono ad un pubblico accademico o quantomeno molto interessato. Di divulgativo niente.

Forse raccontare un esperimento di fisica è più difficile che esporne le motivazioni teoriche, le quali sono probabilmente ritenute molto più letterarie e meno aride. Eppure alcune di quelle storie sono al limite del racconto d'avventure - vedi la spedizione di Eddington del 1919 per confermare la predizione della relatività generale sull'influenza della gravitazione sulla luce.

Sarebbe interessante vedere prima o poi pubblicato un titolo sulla storia della fisica moderna dal lato sperimentale. Non sono neppure mancati esempi in lingua italiana, anche se editi un bel po' di anni fa, come "I raggi cosmici" di Bruno Rossi, uscito per Einaudi (l'edizione originale in inglese è del 1964): argomento niente affatto secondario quello dei raggi cosmici, che di fatto aprì la via alla fisica delle particelle. Senza contare il fatto che gli apparati sperimentali spesso dovevano essere portati in quota o tramite palloni e aerei, oppure dislocati in siti in alta montagna raggiungere i quali richiedeva equipaggiamenti polari - e spesso i ricercatori passavano giorni e notti in quota... altro che il calduccio rassicurante dell'ufficio di qualche dipartimento universitario!

(29 Dicembre 2011)


Del rapporto tra scienza e post-modernità

Affronterò l'argomento iniziando col considerare uno strumento che apparentemente potrebbe essere poco pertinente a quanto dirò più sotto: il preprint. Wikipedia ne da questa definizione: 'a preprint is a draft of a scientific paper that has not yet been published in a peer-reviewed scientific journal'. Esso è diventato un elemento ormai imprescindibile della comunicazione scientifica, che consente lo scambio di informazioni dettagliate e significative ad una velocità che la semplice pubblicazione sulle riviste specializzate non può assolutamente consentire. A un prezzo: il lavoro di verifica dei referee, laddove esiste, è di necessità molto limitato. La conseguenza di ciò è ovvia: si corre il rischio di veder pubblicati (in rete) lavori che quanto meno avrebbero bisogno di "qualche ulteriore limatura".

In genere questo è un problema molto relativo, e comunque interno alla comunità scientifica: il preprint è solitamente solo il primo passo verso la pubblicazione, dopo attento screening, sulle riviste ufficiali; senza contare il fatto che la maggior parte dei lavori sono di un carattere talmente specialistico che difficilmente potrebbero attrarre l'attenzione dei non addetti. Poi però ci sono i casi come i dati pubblicati per esempio da OPERA (vedi il relativo commento più sotto), il cui succo è invece relativamente facile da capire da parte di persone di media cultura. Forse in questo caso un po' più di cautela, unito ad un attento lavoro da parte di referee indipendenti non avrebbe guastato, ma si sa, questa è l'era postmoderna della velocità, dell'esposizione mediatica, per la quale "o esisti sui mass media o non esisti"! Senza contare che il CERN stesso - sicuramente in buona fede - ha contribuito a spettacolarizzare l'evento.

Non si vuole assolutamente affermare con questo che da parte della collaborazione OPERA questa fosse la preoccupazione principale: non si scherza su questo punto! C'è da dire poi che ulteriori verifiche e affinamenti dell'esperimento fatti più di recente sembrerebbero confermare i dati presentati in precedenza.
Ma anche questo è un segno dei tempi, e non si potrà negare che, in un clima in cui la competizione nella scienza è considerata un valore primario, la spinta a pubblicare per primi è fondamentale - per la verità lo è da un bel po' di tempo: bisogna sempre vedere se, caso per caso, prevale la cautela e l'autentico spirito scientifico di presentare dati corretti e riproducibili (e quindi sottoponibili a verifica critica), oppure quello della gara per conquistare gli allori, anche a costo di presentare dati da fantascienza (cosa peraltro già successa: vedi il caso della fusione fredda di Pons e Fleischmann , e più di recente quelli di autentiche frodi e falsificazioni nell'ambito delle scienze biologiche, ad esempio http://www.nature.com/nature/journal/v439/n7073/full/439122a.html).

La scienza, rispetto a quasi ogni altra attività umana, ha però tali e tanti anticorpi, che difficilmente le bugie - che notoriamente hanno le gambe corte - riescono a fare molta strada, anche grazie a quello stesso spirito di competizione che spinge la scienza a essere sempre ipercritica con se stessa. È questo uno degli antidoti più forti allo spirito postmoderno che si incarna in esistenze virtuali, o liquide à la Bauman, e nell'individualismo metodologico à la von Hayek e von Mises.

Cosa sto cercando di dire? Questo: il postmoderno sostanzialmente odia la scienza, specie quella contemporanea, per due ragioni - gli anticorpi di cui sopra: essa non accetta acriticamente il campo di esistenze virtuali e "culturalmente relative" del postmoderno, ed è sostanzialmente un'impresa collettiva (orrore!). I suoi risultati sono in genere "duri" e non relativizzabili, nonostante ripetuti tentativi da parte dei "social studies" di ritrovare ermeneutiche e interpretazioni (tutte rigorosamente sullo stesso piano, tutte da accettare come valide) anche nel lavoro scientifico.

Virtualità e spettacolarità, dunque, due parole chiave per comprendere lo spirito autenticamente postmoderno.

Però la scienza non è spettacolare nella sua prassi quotidiana, anche se lo può diventare attraverso titoli giornalistici roboanti - frutto spesso di malintesi se non di ignoranza tout court. Da questo punto di vista è l'attività più anti-postmoderna che ci sia: non è veloce, dubita di tutto, non presta fede a niente, non produce "merce" culturale facilmente vendibile, non è vestibile secondo i moduli consueti di sesso-e-denaro. Quindi non interessa l'homo post-moderno. Anzi lo nega come fatuo e inconsistente. Ed egli la ripaga ignorandola: meglio narrazioni del mondo relativizzanti e facili: magia, omeopatia, spiritualità varie e tutte rigorosamente sullo stesso piano, approcci alternativi al corpo e alla mente. Tutta roba oltretutto altamente spettacolarizzabile, e anche, in sopranumero, profittevole in termini di business - il denaro: mito principale del mondo postmoderno e del suo individualismo metodologico. Lo scienziato è tipicamente dimesso, poco presentabile nel mondo dei lustrini della televisione - a parte qualche (per fortuna rara) eccezione -, non prende per buono niente, specie se lontano anche solo vagamente dal buon senso, non presta mai fede acriticamente a rodomontate di vario genere, ma soprattutto si guarda bene dall'enunciare verità incontrovertibili. E rinuncia ad appellarsi al popolo come sua voce credibile.

La scienza è la cosa più lontana che ci sia dal mondo virtuale post-moderno.

La scienza è impresa collettiva: la comunità scientifica non è un'invenzione sociologica come affermerebbe Margaret Thatcher, esiste davvero, anche quando sembra che sia una gara di tutti contro tutti. Innanzi tutto perché oggi non esiste praticamente più la figura dello scienziato solitario chiuso in laboratorio, ammesso che sia mai realmente esistito - la comunicazione e lo scambio reciproco di idee, critiche e risultati esistono sin dai tempi della fondazione della Royal Society nel 1660. Le collaborazioni sono sempre più numerose anche perché gli esperimenti sono sempre più complessi.
È una scuola di impresa collettiva unica, non sovrapponibile ad altre imprese collettive come le aziende o gli eserciti, perché qui si chiede a ciascun membro di esprimersi, ragionando e criticando senza peli sulla lingua su quello che si fa, cosa assolutamente impensabile nelle altre due forme organizzative citate.

Non è dunque individualismo metodologico: è individualismo responsabile.

Si vince o si perde - se così vogliamo esprimerci, perché nella scienza anche chi apparentemente perde in realtà contribuisce, anche cospicuamente, al raggiungimento della conoscenza - tutti quanti assieme.

L'individuo postmoderno è invece estremamente solo, vince o perde da solo, si guarda bene dal far parte di un'organizzazione se non per il proprio tornaconto - e così ci si sforza, in fondo, di fargli credere - e persino gli eserciti moderni sono ormai composti prevalentemente da mercenari, che combattono per raggiungere obiettivi individuali. E il perché non è difficile da comprendere: l'odierna società postmoderna - ormai mondiale - capitalista, profondamente intrisa del credo ultraliberista, ha orrore delle grandi organizzazioni che potrebbero contrastare la sua famelica corsa all'accumulazione finanziaria, per cui vuole, a tutti i costi, trovarsi davanti esclusivamente individui soli, parcellizzati, estremamente deboli, ricattabili. Per quale motivo se no sarebbe in corso lo smantellamento pressoché totale di tutte le strutture sociali ereditate dalla modernità, dai sindacati, ai partiti politici, alle reti istituzionalizzate di sostegno e aiuto (il cosiddetto welfare state) sino ad arrivare agli stati nazionali stessi?

In questo senso la scienza è di cattivo esempio, e per di più non è produttiva nei tempi economici odierni, misurati al massimo in trimestri. Tra scienziati "concorrenti" magari non ci si ama, ma ci si rispetta, e se si scopre di aver avuto torto, in genere lo si ammette. L'uomo postmoderno invece non può mai avere torto, perché alle volte agisce per fede (quando va bene), più spesso per il suo irriducibile tornaconto.
Purtroppo questi ultimi trent'anni non sono trascorsi invano dal punto di vista della macchina culturale postmoderna. Sin dagli anni ottanta del secolo scorso la propaganda di cinema, televisione, giornali e, da ultimo, internet, ha diffuso il "modello vincente", quello di Flash Dance: sei solo, irriducibilmente solo - e non ti sognare la solidarietà di quelli al tuo stesso livello - ma ce la puoi fare a "sfondare", ma da solo, contando solo sulle tue forze! Se rimani indietro, o peggio, è solo colpa tua!

Si consideri poi tutta la panoplia antropologicamente significativa di belli-e-solitari che vengono proposti: la cura del corpo a dispetto di tutto, che può permetterti di emergere dall'anonimato - e non importa se sei un perfetto/a idiota - palestra-benessere-arroganza variamente assortite, il tutto per il medesimo fine: conti solo tu e la tua fede e basta, nessuna grande idea aggregante - siamo tutti uno diverso d'altro! - nessun fine comune a una moltitudine di cittadini - ridotti a meri consumatori - abbasso la modernità che ci voleva tutti uguali!

Tutto si tiene...

La scienza è completamente impermeabile a questo modo di pensare, proprio perché non può essere concepita diversamente da quella che è: non sarebbe più scienza. E per di più non ammette furbizie o scorciatoie sociali al successo, cosa invece più che comune in altri ambiti.

La scienza è una delle creazioni più potenti della modernità, assolutamente anti-postmoderna.

(Queste brevi note - che ho un po' rimaneggiato e aggiornato - erano già comparse di seguito al commento sui risultati presentati da OPERA: alla fine mi sono sembrati fuori contesto e ne ho fatto un commento a parte e in sé concluso).

(23 Dicembre 2011)


The Nightmare Scenario...

... nel caso della particella di Higgs, qualora fosse confermata la sua esistenza - presumibilmente entro il prossimo anno - in un intervallo di massa (piuttosto stretto) centrato sul valore di 125 GeV/c2 : e l'incubo sarebbe quello di veder confermato ulteriormente ad un livello di precisione strabiliante il Modello Standard, rendendo la ricerca di una fisica BSM (Beyond Standard Model) un po' più difficile - senza peraltro escluderla in modo assoluto. La preoccupazione sembra far capolino in alcuni blog di teorici (vedi ad esempio http://resonaances.blogspot.com/2011/12/sleeping-with-higgs.html).

Forse è uno stato d'animo non molto fondato, almeno dal punto di vista scientifico: se le cose andranno come detto sopra, la descrizione fisica della natura sarà finalmente completa (sino alla scala dei TeV), regalandoci una teoria a prova di bomba con cui si può calcolare in modo preciso quello che succede nell'universo - almeno per quel che riguarda i componenti fondamentali della materia. La scienza non ha né i tempi né i modi della stampa sensazionalistica, e non fa dell'épater les bourgeois il suo modo di procedere: probabilmente non sono questi i tempi in cui attendersi novità dirompenti.

Tra l'altro ci sarà da capire come il campo di Higgs interagisce esattamente con la materia e lì probabilmente ci sarà molto lavoro da fare. Ho però il sospetto che le aspettative alimentate da almeno due decenni dalle teorie più di frontiera (Supersimmetria, Superstringhe, Multiversi, M-Theory , Technicolor, ecc...) abbiano ingenerato la sensazione che non si possa non avere che conferme delle loro previsioni (laddove esistono: problema serio per alcune di esse), che non possano non essere assolutamente corrette, che non ci siano alternative al fatto di trovare una fisica BSM a prescindere, quasi che la natura debba diventare improvvisamente sensibile alle istanze propagandistiche - e alle carriere - dei fautori di tali ipotesi. Naturalmente - e lo ripeto sempre - si tratta di teorie costruite rigorosamente, non di fantascienza o di teorie alternative nate più da convincimenti filosofici che da vera conoscenza della fisica - e della sua storia. E va anche detto che la necessità almeno di un completamento del Modello Standard è più che motivato, e basta una semplice ricerca in rete o, meglio ancora, su qualche libro di testo per capirne il perché.

Spero non si stia palesando una specie di reazione emotiva riconducibile alla depressione da "elaborazione del lutto" - forse la paura di rimanere disoccupati - originata dalla convinzione di non aver più idee da proporre, dopo aver investito così tanto tempo in modelli che non vogliono proprio palesarsi nei fatti: sarebbe un cattivo servizio alla scienza. E poi non è detta ancora l'ultima parola: c'è ancora un anno di lavoro a 7 TeV, per poi passare al doppio di energia; e probabilmente la macchina verrà anche ulteriormente potenziata in luminosità e in energia... anche perché i soldi per un nuovo supercollisore ho qualche dubbio saltino fuori in questo decennio (e forse anche nel prossimo), con l'aria che tira.

Comunque rimarranno sempre da spiegare molte cose (e per giunta concrete, nel senso che sono il risultato di scoperte sperimentali): materia oscura, energia oscura, oscillazione dei neutrini, comportamento superluminale dei suddetti (se confermato)... c'è da divertirsi non poco, solo che magari bisognerà farlo partendo dal fatto incontrovertibile che il Modello Standard è la teoria di riferimento, e non secondo l'aspettativa che sia un'approssimazione più o meno precisa di una qualche "super-realtà" nascosta.

(19 Dicembre 2011)


Le piace l'Opera?

OPERA: Oscillation Project with Emulsion-tRacking Apparatus. La collaborazione che potrebbe passare alla storia come "quelli che hanno rivoluzionato la fisica del ventunesimo secolo", come Plack, Einstein, Bohr, Schrödinger, Heisenberg (tanto per citare i più famosi) hanno fatto con quella del ventesimo; oppure che potrebbe passare come quella che "l'ha sparata più grossa" negli ultimi cento anni.
Situata sotto le montagne del Gran Sasso, nell'omonimo laboratorio già assurto alle cronache per annunci molto importanti - se non altrettanto rivoluzionari -, come quello di aver avuto evidenza quasi certa dell'esistenza della Materia Oscura, risultato peraltro controverso e non confermato da esperimenti simili (esperimento DAMA, DArk MAtter: l'annuncio fu fatto nel 2008), ne ha dato pubblico annuncio venerdì 23 settembre 2011 al CERN, cosa che è stata ripresa dai media di tutto il mondo con titoli del tipo "smentito per la prima volta Einstein" e simili.
La reazione della comunità scientifica è stata giustamente di perplessa cautela, pur riconoscendo lo sforzo fatto dalla collaborazione per la puntigliosa trasparenza nel presentare dati, metodi e apparati sperimentali. Tutti indistintamente dicono due cose, data l'estrema importanza di un annuncio simile: "verificate meglio che non ci sia da qualche parte un errore sistematico ancora nascosto"; e "aspettiamo di vedere cosa dicono esperienze simili, come MINOS (Main Injector Neutrino Oscillation Search, al FermiLab)".
Per la verità questi ultimi avevano visto qualcosa di simile, ma il loro risultato era stato rigettato come statisticamente poco degno di nota (significativo a 1,8 sigma: troppo poco per poter annunciare una scoperta e comunque consistente con una velocità uguale o di poco inferiore a quella della luce). OPERA presenta il suo dato come (v - c)/c = (2.48 ± 0.28 (stat.) ± 0.30 (sys.))×10-5 con una significatività di 6 sigma, un livello di confidenza del 99,9999998% !

C'è però un ostacolo molto alto sulla strada di questo risultato: le osservazioni del "burst" di neutrini originati dalla supernova 1987A, che nel loro viaggio durato circa 168000 anni non hanno viaggiato affatto più veloci della luce! C'è, in merito a questo, una querelle legata all'energia: quelli della supernova sono da 10 MeV, quelli di MINOS da 3 GeV e quelli visti da OPERA (prodotti a 730 km di distanza dal SPS del CERN) da 17 e 28 GeV: potrebbe dunque esserci un effetto sulla velocità legato all'energia? Altra differenza: i neutrini di MINOS e OPERA arrivano ai rivelatori dopo aver viaggiato dentro la crosta terrestre, quelli astronomici hanno viaggiato sostanzialmente nel vuoto. Oppure davvero quelli di OPERA hanno imboccato il "tunnel Gelmini" e sono riusciti ad arrivare prima????

Tutte cose prese in considerazione, ma la reazione di singoli scienziati è stata in genere piuttosto scettica, sia sui giornali (ad esempio Scientific American), sia sui BLOG specialistici (per esempio Borborigmi , Resonaances (molto tranchant: mi ci ritrovo abbastanza), Vixra).

Se tale risultato fosse confermato potrebbe essere messo in discussione uno dei pilastri non solo della fisica, ma del pensiero moderni, che tale è la Relatività, perché non basterebbero, secondo me, degli escamotage sulla velocità limite (che a questo punto potrebbe essere quella dei neutrini: cfr per esempio qui), per salvare un intero edificio concettuale dove tutto si tiene in un equilibrio perfetto. Tutta la fisica moderna si poggia sulla relatività e sull'invarianza di Lorentz - la non preferenza delle leggi della fisica per un particolare sistema di riferimento, da cui segue la costanza della velocità della luce e la correttezza delle leggi dell'elettromagnetismo - sino ad arrivare alle teorie di campo quantistico che stanno sotto il Modello Standard. Poi magari chi ne sa più di me potrebbe smentirmi... in ogni caso sono ormai più di cento anni che la Relatività nel suo complesso è sottoposta a studi e verifiche di sempre maggiore precisione, anche a livello astronomico, e ogni volta ne esce a testa alta: viene dunque da chiedersi quante probabilità ha OPERA di metterla in crisi per la prima volta! Poi si potrebbe dire che la stessa cosa valeva per la meccanica classica di Newton, ma qui siamo a livelli di precisione sperimentale impensabili per quei tempi.

Di sicuro ho l'impressione che gli oggetti di cui si sta discutendo saranno, almeno nel prossimo futuro, tra i protagonisti - se non i protagonisti tout court - della scena scientifica: un po' perché, dopo LHC, vedo molto improbabile il finanziamento di un nuovo super acceleratore (che sia un LINAC elettrone-positrone, del tipo CLIC o superconduttore, o un sLHC, super LHC), un po' perché i risultati tanto attesi sulla nuova fisica sembra che, come dire, fatichino un po' a venir fuori (da SUSY alle Super Stringhe, passando per le extra dimensioni), un po' perché i nostri continuano ad essere in effetti delle particelle un po' misteriose, che potrebbero riservare non poche sorprese.

Ci vorrà un po' di tempo per una verifica sperimentale indipendente, e probabilmente anche OPERA non starà con le mani in mano, anche perché le perplessità, se non i dubbi, ci sono all'interno della stessa collaborazione dato che
"Despite the large significance of the measurement reported here and the stability of the analysis, the potentially great impact of the result motivates the continuation of our studies in order to investigate possible still unknown systematic effects that could explain the observed anomaly. We deliberately do not attempt any theoretical or phenomenological interpretation of the results."
(Vedi preprint su arxiv, pagina 22).

Quindi science as usual!


(Ottobre 2011)

(Archivio commenti)


Title
Modello Standard
Seleziona... Seleziona... Seleziona... Seleziona...
Seleziona... Seleziona... Seleziona... Seleziona...
Seleziona... Seleziona... Seleziona... Seleziona...
Seleziona... Seleziona... Seleziona... Seleziona...
Il motto della Royal Society
"Physics is a science whose objective is to study the components of matter and their mutual interactions. In terms of these components and interactions, the scientist tries to explain the properties of matter in bulk, as well as the other natural phenomena we observe."
(Marcelo Alonso, Edward J. Finn: Physics, Addison-Wesley, 1992, p. 2)
Copyright© Alberto Ferrero     Contatti    Credits: CERN; INFN; BNL; LBL; FNAL MIT Gabriella Sciolla
 
Grazie a Franca, Ingrid, Lorena, Mauro e Piero