La Naturalezza è Naturale? - Visualizzazione Alternativa

Sommario:

La Naturalezza è Naturale? - Visualizzazione Alternativa
La Naturalezza è Naturale? - Visualizzazione Alternativa

Video: La Naturalezza è Naturale? - Visualizzazione Alternativa

Video: La Naturalezza è Naturale? - Visualizzazione Alternativa
Video: Poesia latina #17: Orazio, Ode 3, 13 ("alla fonte di Bandusia") 2024, Luglio
Anonim

Gli specialisti nel campo della fisica fondamentale (e ora, per definizione, la teoria delle particelle elementari, l'astrofisica relativistica e la cosmologia) spesso confrontano lo stato della loro scienza con la situazione alla fine del XIX secolo. La fisica di quei giorni, basata sulla meccanica newtoniana, la teoria maxwelliana del campo elettromagnetico, la termodinamica e la meccanica statistica di Boltzmann-Gibbs, spiegò con successo quasi tutti i risultati sperimentali. È vero, c'erano anche incomprensioni: il risultato zero dell'esperimento Michelson-Morley, l'assenza di una spiegazione teorica degli spettri di radiazione del corpo nero, l'instabilità della materia, che si manifesta nel fenomeno della radioattività. Tuttavia, ce n'erano pochi e non hanno distrutto la speranza di un trionfo garantito delle idee scientifiche formate - almenodal punto di vista della maggioranza assoluta degli scienziati rispettabili. Quasi nessuno si aspettava una limitazione radicale dell'applicabilità del paradigma classico e l'emergere di una fisica fondamentalmente nuova. Eppure è nata - e in soli tre decenni. Per ragioni di correttezza, vale la pena notare che la fisica classica da allora ha ampliato le sue capacità così tanto che i suoi risultati sarebbero sembrati estranei a tali titani dei tempi passati come Faraday, Clausius, Helmholtz, Rayleigh, Kelvin e Lorenz. Ma questa è una storia completamente diversa.che i suoi successi sarebbero sembrati estranei a tali titani dei vecchi tempi come Faraday, Clausius, Helmholtz, Rayleigh, Kelvin e Lorenz. Ma questa è una storia completamente diversa.che i suoi successi sarebbero sembrati estranei a tali titani dei vecchi tempi come Faraday, Clausius, Helmholtz, Rayleigh, Kelvin e Lorenz. Ma questa è una storia completamente diversa.

Una discussione dettagliata delle difficoltà della fisica fondamentale moderna richiederà troppo spazio ed è al di là delle mie intenzioni. Pertanto, mi limiterò ad alcuni noti punti deboli della teoria di maggior successo e universale del micromondo: il Modello Standard delle particelle elementari. Descrive due delle tre interazioni fondamentali: forte ed elettrodebole, ma non influenza la gravità. Questa teoria veramente grande ha reso possibile comprendere molti fenomeni usando il principio dell'invarianza di gauge. Tuttavia, non ha spiegato la presenza di massa nei neutrini e non ha rivelato la dinamica della rottura spontanea della simmetria dell'interazione elettrodebole, che è responsabile della comparsa della massa dovuta al meccanismo di Higgs. Non consentiva di prevedere la natura e le proprietà delle particelle che possono essere considerate candidate per il ruolo di portatori di materia oscura. Né il modello standard è stato in grado di stabilire collegamenti inequivocabili con le teorie inflazionistiche che sono al centro della cosmologia moderna. E infine, non ha chiarito il percorso per costruire una teoria quantistica della gravitazione, nonostante gli sforzi davvero titanici dei teorici.

Non mi impegno ad affermare che gli esempi forniti (e ce ne sono altri) consentano di giudicare il passaggio della fisica fondamentale a uno stato instabile, carico di una nuova rivoluzione scientifica. Ci sono opinioni diverse su questo. Mi interessa una domanda non così globale, ma non per questo meno interessante. Molte pubblicazioni contemporanee mettono in dubbio l'applicabilità del criterio di naturalità dei concetti teorici, che è stato a lungo considerato un principio guida affidabile ed efficace per la costruzione di modelli del micromondo (si veda, ad esempio, GF Giuduce, 2017. The Dawn of the Post-Naturalness Era). È vero, qual è la naturalezza della teoria fisica e cosa può sostituirla? Per cominciare, ne ho parlato con Sergei Troitsky, capo ricercatore presso l'Istituto per la ricerca nucleare, Accademia russa delle scienze.

Sergey Vadimovich Troitsky, membro corrispondente dell'Accademia delle scienze russa, ricercatore principale presso l'Istituto di ricerca nucleare dell'Accademia delle scienze russa. Foto da prof-ras.ru
Sergey Vadimovich Troitsky, membro corrispondente dell'Accademia delle scienze russa, ricercatore principale presso l'Istituto di ricerca nucleare dell'Accademia delle scienze russa. Foto da prof-ras.ru

Sergey Vadimovich Troitsky, membro corrispondente dell'Accademia delle scienze russa, ricercatore principale presso l'Istituto di ricerca nucleare dell'Accademia delle scienze russa. Foto da prof-ras.ru

Sergei, prima, mettiamoci d'accordo sulla cosa principale. Come valuta lo stato attuale della fisica fondamentale? Secondo la nota terminologia di Thomas Kuhn, è scienza normale, scienza in una fase pre-crisi o semplicemente in crisi?

ST: Classifichi la cosmologia come fisica fondamentale. Questo è abbastanza ragionevole, ma non sono un esperto in materia, quindi mi asterrò dal fare valutazioni. Ma se parliamo di fisica delle alte energie e del Modello Standard delle particelle elementari come suo fondamento teorico, allora in quest'area, infatti, tutto è molto difficile. Da molti anni il Large Hadron Collider (LHC) lavora al CERN e produce risultati. Grazie a lui, la situazione nella fisica delle particelle è diventata, da un lato, molto noiosa e, dall'altro, estremamente interessante. Ricordo spesso che non molto tempo prima del lancio dell'LHC, un fisico teorico molto rispettato aveva predetto che ora nella nostra scienza si sarebbe aperta un'ampia strada di pilastri, che avrebbe portato rapidamente a scoperte importanti. Credeva che letteralmente nelle prime ore di funzionamento del collisore, o, al più tardi, entro un anno, sarebbero stati identificati partner di particelle già note,predetto da tempo dalla teoria della supersimmetria. Sono stati considerati in anticipo come particelle di materia oscura tanto attese che potrebbero essere studiate per molti anni. Questa è la grande prospettiva per la nostra scienza.

E cosa è successo in pratica? Non c'erano super partner, e non ci sono, e le possibilità di aprirli in futuro sono notevolmente diminuite. Sei anni fa, il bosone di Higgs è stato catturato all'LHC ed è diventato una sensazione mondiale. Ma come puoi valutarlo? Direi che questo è, in un certo senso, il risultato più terribile dell'LHC, perché l'Higgs è stato previsto molto tempo fa. Tutto sarebbe molto più interessante se non fosse possibile aprirlo. E ora si scopre che non abbiamo altro che il Modello Standard, anche se è ben confermato negli esperimenti. I miracoli non sono avvenuti, non sono state fatte scoperte che esulano dallo scopo del Modello Standard. In questo senso la situazione è davvero pre-crisi, poiché sappiamo per certo che il Modello Standard non è completo. Lo hai già notato nell'introduzione alla nostra conversazione.

Quando due protoni entrano in collisione (non mostrato nella figura), si formano due quark (Quark) che, quando uniti, formano un bosone W (bosone vettoriale debole) - una particella che trasporta un'interazione debole. Il bosone W emette il bosone di Higgs, che decade in due quark b (quark Bottom). Immagine tratta dall'articolo: B. Tuchming, 2018. Decadimento a lungo cercato del bosone di Higgs visto
Quando due protoni entrano in collisione (non mostrato nella figura), si formano due quark (Quark) che, quando uniti, formano un bosone W (bosone vettoriale debole) - una particella che trasporta un'interazione debole. Il bosone W emette il bosone di Higgs, che decade in due quark b (quark Bottom). Immagine tratta dall'articolo: B. Tuchming, 2018. Decadimento a lungo cercato del bosone di Higgs visto

Quando due protoni entrano in collisione (non mostrato nella figura), si formano due quark (Quark) che, quando uniti, formano un bosone W (bosone vettoriale debole) - una particella che trasporta un'interazione debole. Il bosone W emette il bosone di Higgs, che decade in due quark b (quark Bottom). Immagine tratta dall'articolo: B. Tuchming, 2018. Decadimento a lungo cercato del bosone di Higgs visto.

Video promozionale:

Allora andiamo oltre. Quanto è importante il principio di naturalezza nella teoria delle particelle e che cos'è? Non è un semplice rispetto per il buon senso, vero?

ST: Lo vedo come una sorta di criterio estetico, ma qui servono spiegazioni. Il modello standard ha tre componenti. Primo, è l'elenco delle particelle che contiene. Sono già stati scoperti tutti, il bosone di Higgs è stato l'ultimo. Secondo, c'è un gruppo di interazioni che descrive. Ma c'è anche una terza parte: una serie di parametri liberi. Si tratta di diciannove numeri che possono essere determinati solo sperimentalmente, poiché non sono calcolati nell'ambito del modello stesso (vedi S. V. Troitsky, 2012. Problemi irrisolti di fisica delle particelle elementari).

Ed è qui che sorgono le difficoltà. Prima di tutto, ci sono troppi di questi parametri. Diciannove è uno strano numero che non sembra seguire da nessuna parte. Inoltre, i loro significati sono troppo diversi e quindi difficili da spiegare. Supponiamo che il numero di parametri liberi includa le masse dei leptoni: elettroni, muoni e particelle tau. Un muone è circa duecento volte più pesante di un elettrone e un tau è quasi venti volte più massiccio di un muone. È lo stesso con i quark: le loro masse differiscono per ordini di grandezza e tutto il resto è lo stesso.

Le masse di tutte le particelle del Modello Standard sono sparse su una gamma molto ampia. Nel modello standard, questa gerarchia di massa non è spiegata in modo soddisfacente. Immagine dalla sezione Difficoltà del modello standard del progetto di Igor Ivanov del Large Hadron Collider
Le masse di tutte le particelle del Modello Standard sono sparse su una gamma molto ampia. Nel modello standard, questa gerarchia di massa non è spiegata in modo soddisfacente. Immagine dalla sezione Difficoltà del modello standard del progetto di Igor Ivanov del Large Hadron Collider

Le masse di tutte le particelle del Modello Standard sono sparse su una gamma molto ampia. Nel modello standard, questa gerarchia di massa non è spiegata in modo soddisfacente. Immagine dalla sezione Difficoltà del modello standard del progetto di Igor Ivanov del Large Hadron Collider.

Un altro esempio è il valore del parametro adimensionale, che caratterizza la violazione dell'invarianza CP nelle interazioni forti. Il suo valore esatto è sconosciuto, ma gli esperimenti mostrano che in ogni caso è inferiore a 10-9. Di nuovo, questo è strano. In generale, i parametri liberi del modello standard variano notevolmente in grandezza e sembrano quasi casuali.

Uno dei metodi per la registrazione sperimentale degli assioni. La figura in blu mostra il flusso stimato di assioni emessi dal Sole, che vengono poi convertiti nel campo magnetico terrestre (rosso) in raggi X (arancione). Questi raggi potrebbero essere rilevati dal telescopio a raggi X spaziale XMM-Newton. Non è ancora noto dove cercare gli assioni: possono essere particelle di materia oscura o manifestarsi nell'evoluzione delle stelle
Uno dei metodi per la registrazione sperimentale degli assioni. La figura in blu mostra il flusso stimato di assioni emessi dal Sole, che vengono poi convertiti nel campo magnetico terrestre (rosso) in raggi X (arancione). Questi raggi potrebbero essere rilevati dal telescopio a raggi X spaziale XMM-Newton. Non è ancora noto dove cercare gli assioni: possono essere particelle di materia oscura o manifestarsi nell'evoluzione delle stelle

Uno dei metodi per la registrazione sperimentale degli assioni. La figura in blu mostra il flusso stimato di assioni emessi dal Sole, che vengono poi convertiti nel campo magnetico terrestre (rosso) in raggi X (arancione). Questi raggi potrebbero essere rilevati dal telescopio a raggi X spaziale XMM-Newton. Non è ancora noto dove cercare gli assioni: possono essere particelle di materia oscura o manifestarsi nell'evoluzione delle stelle.

Quindi, ci sono troppi parametri liberi del Modello Standard, i loro valori sembrano immotivati ed eccessivamente dispersi. Ma cosa c'entra la naturalezza?

S. T.: E ci siamo avvicinati a lei. Nella fisica delle particelle elementari, il principio di naturalezza dei modelli teorici ha un significato molto specifico. Richiede che tutti i parametri liberi adimensionali siano uguali a zero, o che l'ordine di grandezza non sia troppo diverso da uno - diciamo, nell'intervallo da un millesimo a mille. I parametri del Modello Standard chiaramente non soddisfano questo criterio. Ma c'è anche una condizione aggiuntiva, formulata nel 1980 dal notevole fisico teorico olandese Gerard 't Hooft, uno dei creatori del Modello Standard. Ha postulato che un valore molto piccolo di qualsiasi parametro libero può essere spiegato naturalmente solo se il suo rigoroso azzeramento porta alla comparsa di simmetria aggiuntiva, a cui obbediscono le equazioni della teoria. Secondo 't Hooft,La "prossimità" di tale simmetria serve come una sorta di scudo che protegge la scarsità di questo parametro da grandi correzioni dovute a processi quantistici che coinvolgono particelle virtuali. Quando ero studente e dottorando, tutta la nostra scienza fiorì letteralmente con questo postulato. Ma questo è ancora un indebolimento del principio di naturalezza, di cui stiamo discutendo.

Gerard 't Hooft, fisico teorico olandese, uno dei fondatori del Modello Standard. Foto dal sito sureshemre.wordpress.com
Gerard 't Hooft, fisico teorico olandese, uno dei fondatori del Modello Standard. Foto dal sito sureshemre.wordpress.com

Gerard 't Hooft, fisico teorico olandese, uno dei fondatori del Modello Standard. Foto dal sito sureshemre.wordpress.com

Cosa succede se vai oltre il Modello Standard?

ST: Anche qui si pone il problema della naturalezza, anche se di natura diversa. Il parametro dimensionale più importante del modello standard è la media del vuoto del campo di Higgs. Determina la scala energetica dell'interazione elettrodebole e le masse delle particelle dipendono da essa. Al di fuori del Modello Standard, esiste un unico parametro altrettanto fondamentale della stessa dimensione. Questa, ovviamente, è la massa di Planck, che imposta la scala energetica per gli effetti quantistici associati alla gravità. Il campo di Higgs è di circa 250 GeV, che è il doppio della massa del bosone di Higgs. La massa di Planck è di circa 1019 GeV. Quindi il loro rapporto può essere un numero molto piccolo o un numero gigantesco, a seconda di cosa inserire nel numeratore e cosa nel denominatore. Sono infatti in discussione altre scale interessanti al di fuori del Modello Standard,ma sono anche incommensurabilmente più grandi del campo di Higgs. Quindi anche qui abbiamo a che fare con un'ovvia stranezza, in altre parole, una mancanza di naturalezza.

Allora, forse è meglio considerare il principio come una reliquia naturale della scienza del XX secolo e abbandonarlo del tutto? Non per niente alcuni scienziati parlano dell'inizio dell'era postnaturale

ST: Beh, anche un rifiuto totale non risolverà tutti i nostri problemi. Come ho detto, il principio di naturalezza è qualcosa dal campo dell'estetica. Ma ci sono anche problemi sperimentali che non andranno da nessuna parte. Diciamo che ormai è noto per certo che il neutrino ha massa, mentre le simmetrie del Modello Standard richiedono che sia strettamente zero. Lo stesso è con la materia oscura: non è nel Modello Standard, ma nella vita, a quanto pare, lo è. È possibile che se le difficoltà sperimentali possono essere ragionevolmente risolte, allora nulla dovrà essere abbandonato. Ma, ripeto, l'intero complesso del problema è abbastanza reale e indica la natura di crisi della situazione attuale nella fisica fondamentale. È possibile che la via d'uscita da questa crisi sarà una rivoluzione scientifica e un cambiamento nel paradigma esistente.

Sergei, cosa significa per te personalmente il principio di naturalezza? Forse anche emotivamente?

ST: Per me è, in un certo senso, il principio di computabilità. Possiamo non solo prendere dall'esperimento, ma calcolare tutti questi 19 parametri? O almeno ridurli a un unico parametro veramente libero? Per me andrebbe bene. Ma finora questa possibilità non è visibile. A proposito, un tempo molti speravano che le principali difficoltà del Modello Standard potessero essere risolte sulla base del concetto di supersimmetria. Tuttavia, anche le generalizzazioni supersimmetriche minime del Modello Standard contengono fino a 105 parametri liberi. Questo è già davvero brutto.

Ma per un tale calcolo devi fare affidamento su qualcosa. Come dice il proverbio, non dai per scontato nulla, non otterrai nulla

S. T.: Questo è solo il punto. Idealmente, vorrei avere una teoria unificata completa che, almeno in linea di principio, consentirà di eseguire tutti i calcoli necessari. Ma dove trovarlo? Per molti anni, la teoria delle stringhe è stata proposta come candidato per un fondamento così universale. È stato creato per quasi 50 anni, un'età abbastanza rispettabile. Forse questa è una meravigliosa costruzione teorica, ma non è ancora avvenuta come teoria unificata. Ovviamente a nessuno è vietato sperare che ciò accada. Tuttavia, nella storia della fisica, è accaduto raramente che una teoria si sviluppasse per mezzo secolo sulle promesse di successi futuri, e poi improvvisamente e di fatto spiegasse tutto. In ogni caso, ne dubito.

È vero, c'è una certa sottigliezza qui dalla teoria delle stringhe, che implica l'esistenza di circa 10.500 vuoti con diverse leggi fisiche. In senso figurato, ogni aspirapolvere deve avere il proprio Modello Standard con il proprio set di parametri liberi. Numerosi sostenitori del principio antropico sostengono che il nostro insieme non richiede spiegazioni, poiché non può esserci vita e, quindi, scienza in mondi con fisica diversa. Dal punto di vista della logica pura, tale interpretazione è accettabile, con l'eccezione che la scarsità del parametro θ non può essere derivata dal principio antropico. Questo parametro avrebbe potuto essere di più: da questo le possibilità dell'emergere di una vita intelligente sul nostro pianeta non sarebbero diminuite. Ma il principio antropico annuncia solo la possibile esistenza di un insieme quasi infinito di mondi ed è in realtà limitato a questo. Non può essere confutato o, per usare la terminologia, falsificato. Questa non è più scienza, almeno nella mia comprensione. Mi sembra scorretto abbandonare il principio di falsificabilità della conoscenza scientifica per amore di una teoria che di fatto non può spiegare nulla.

Non posso essere in disaccordo. Ma andiamo oltre. Come puoi uscire dalla crisi o, se preferisci, dalla pre-crisi della fisica fondamentale? Chi ha la palla adesso: i teorici o gli sperimentatori?

S. T.: Logicamente, la palla dovrebbe essere dalla parte dei teorici. Esistono dati sperimentali affidabili sulla massa dei neutrini e ci sono osservazioni di astronomi che confermano l'esistenza della materia oscura. Sembrerebbe che il compito sia ovvio: trovare le basi di un nuovo approccio teorico e costruire modelli specifici che consentano la verifica sperimentale. Ma finora tali tentativi non hanno avuto esito positivo.

Ancora una volta, non è chiaro cosa aspettarsi dal Large Hadron Collider dopo la sua modernizzazione pianificata. Naturalmente, molti dati verranno ricevuti su questa macchina, e anche adesso, lontano da tutte le informazioni raccolte dai suoi rilevatori, sono state elaborate. Ad esempio, ci sono prove che elettroni e muoni non sono del tutto identici nelle loro interazioni. Questa sarebbe una scoperta molto seria, forse spiegando la differenza nelle loro masse. Ma queste prove sono ancora deboli, puoi fidarti di loro o non puoi fidarti di loro. Questa domanda sarà molto probabilmente risolta nei successivi esperimenti presso l'LHC. Tuttavia, vale la pena ricordare che i team di fisici sperimentali che ci lavorano hanno più di una volta riportato accenni di importanti scoperte al di fuori del Modello Standard, e in seguito questi annunci sono stati confutati.

Cos'è rimasto? Si può sperare in super acceleratori, che un giorno verranno costruiti, ma con loro tutto è ancora poco chiaro, almeno per una prospettiva di 10-20 anni. Quindi la palla è davvero dalla parte degli astrofisici. Ci si può aspettare una svolta veramente radicale da questa scienza.

Perché?

ST: Il punto è che non è possibile trovare nuove particelle coinvolte in forti interazioni. Ciò significa che dobbiamo cercare particelle che interagiscono debolmente che non sono nel Modello Standard. Se interagiscono debolmente, interagiscono raramente e le manifestazioni di tali interazioni devono attendere molto tempo. Non possiamo aspettare a lungo per esperimenti sugli acceleratori. Ma l'Universo ha aspettato quasi 14 miliardi di anni e gli effetti anche di interazioni molto rare possono accumularsi per tutto questo tempo. È possibile che tali effetti vengano riscontrati dagli astrofisici. Ed esempi di questo esistono già - dopo tutto, la presenza di oscillazioni dei neutrini, che dimostrano la massa diversa da zero di questa particella, è stata scoperta nello studio dei neutrini solari. Queste speranze sono tanto più giustificate,che la base di osservazione dell'astronomia e dell'astrofisica è in costante espansione a causa dei nuovi telescopi terrestri e spaziali e di altre apparecchiature. Diciamo, un anno dopo la prima registrazione diretta delle onde gravitazionali, è stato dimostrato che si propagano con la stessa velocità della radiazione elettromagnetica. Questo è un risultato molto importante che la dice lunga per i teorici.

Conferenza di Sergei Troitsky "L'universo come laboratorio di fisica delle particelle", tenuta l'8 ottobre 2017 all'Università statale di Mosca. M. V. Lomonosov al Festival della Scienza:

Sergei, visto che hai parlato dello spazio, ricordiamoci Johannes Kepler. Nel 1596 notò che i raggi medi delle orbite planetarie da Mercurio a Saturno, calcolati da Copernico, sono 0,38: 0,72: 1,00: 1,52: 5,2: 9,2. La distanza tra Marte e Giove sembrava a Keplero troppo grande e quindi innaturale. Presumeva che ci fosse un pianeta ancora sconosciuto e alla fine aveva ragione. Alla vigilia di Capodanno del 1801, Giuseppe Piazzi scoprì Cerere in questa zona, oggi riconosciuta come pianeta nano. Certo, ora sappiamo che non esiste un pianeta, ma un'intera cintura di asteroidi. Keplero non aveva idea di lui, ma credo che difficilmente sarebbe stato troppo sorpreso. In generale, sulla base del criterio della naturalezza, è stata fatta una previsione molto specifica, che all'inizio è stata giustificata letteralmente, e poi, se si vuole, con interesse. Qualcosa di simile è possibile oggi nella fisica fondamentale?

S. T.: Questo non è escluso. Se applichiamo il criterio della naturalezza per spiegare la gerarchia delle masse fermioniche, quasi certamente apparirà una nuova simmetria. In realtà, ad oggi, sono stati proposti vari candidati per questo ruolo, ma tutti in qualche modo non ci soddisfano. Se si riesce a trovare una simile simmetria, potrebbe portarci a particelle ancora sconosciute. È vero, prevederli direttamente, come quello di Keplero, non funzionerà, ma impareremo qualcosa di utile. Tuttavia, è possibile che anche in questo caso le istruzioni utili siano piuttosto vaghe, con una colossale gamma di opzioni. Ad esempio, l'assione è previsto proprio sulla base della nuova simmetria proposta da Peccei e Quinn. Tuttavia, questo meccanismo consente una libertà molto ampia nella scelta dei parametri, e quindi non abbiamo indicazioni su dove cercare l'assione. Può essere una particella di materia oscuraoppure può manifestarsi nell'evoluzione delle stelle o altrove - semplicemente non lo sappiamo.

Bene, il tempo lo dirà. E grazie mille per la conversazione

Ho anche parlato con Gia Dvali, professore di fisica alle Università di New York e Monaco e co-direttore del Max Planck Institute for Physics (a proposito, questo rinomato centro scientifico è stato creato nel 1914 come Kaiser Wilhelm Institute of Physics, e il suo primo direttore è stato Albert Einstein). Naturalmente abbiamo parlato dello stesso argomento.

George Dvali, professore di fisica presso il Center for Cosmology and Particle Physics presso la New York University e la Ludwig-Maximilian University di Monaco, direttore del Max Planck Institute for Physics di Monaco. Foto dal sito astronet.ge
George Dvali, professore di fisica presso il Center for Cosmology and Particle Physics presso la New York University e la Ludwig-Maximilian University di Monaco, direttore del Max Planck Institute for Physics di Monaco. Foto dal sito astronet.ge

George Dvali, professore di fisica presso il Center for Cosmology and Particle Physics presso la New York University e la Ludwig-Maximilian University di Monaco, direttore del Max Planck Institute for Physics di Monaco. Foto dal sito astronet.ge

Guia, come interpreta il problema della naturalezza del Modello Standard?

GD: In generale, posso ripetere ciò che ha detto Sergei. Le equazioni del modello standard includono una serie di parametri liberi che non può prevedere. I valori numerici di questi parametri sono molto diversi tra loro, e anche se parliamo di oggetti apparentemente simili. Prendi, diciamo, un neutrino, un elettrone e un quark t. Sono tutti fermioni, ma la massa del neutrino, molto probabilmente, non supera una frazione di un elettronvolt, la massa dell'elettrone è approssimativamente uguale a cinquecentomila elettron-volt e la massa del t-quark è 175 GeV - 175 miliardi di elettronvolt. Tali differenze possono effettivamente sembrare in qualche modo innaturali.

Ma questo è solo il lato esterno. Per capire meglio tutto, è necessario tenere conto della sensibilità ultravioletta di questi parametri. Stiamo parlando della loro dipendenza da un aumento della scala delle energie o, che è lo stesso, da una diminuzione della scala spaziale. Diciamo che prima misuriamo la massa di un elettrone in un laboratorio e poi guardiamo cosa gli accade alle distanze di Planck. Con questo approccio, i parametri vengono suddivisi in diversi gruppi. La massima sensibilità agli ultravioletti è dimostrata dalla densità di energia del vuoto fisico. Nella regione di Planck, è proporzionale al quarto grado di variazione di scala. Se la massa di Planck viene raddoppiata, il valore dell'energia del vuoto aumenterà di 16 volte. Per la massa del bosone di Higgs, questa dipendenza non è così grande: non il quarto grado, ma solo il secondo. Le masse dei fermioni cambiano molto debolmente, solo secondo la legge logaritmica. Infine, il parametro θ praticamente non nota cambiamenti nella scala di Planck. Sebbene la sua sensibilità non sia zero, è così piccola che può essere ignorata.

Cosa significa questa diffusione nel grado di sensibilità dei parametri liberi del Modello Standard? Qui sono possibili varie opzioni. Ad esempio, si può presumere che la massa del bosone di Higgs non meriti affatto lo status di quantità fondamentale. Questa ipotesi si estende automaticamente alle masse di particelle, che dipendono dalla massa di Higgs. Quindi la diffusione dei loro valori non sembrerà più strana, ad esempio, della differenza nelle dimensioni delle molecole e delle galassie. Né l'uno né l'altro pretendono in alcun modo di essere fondamentali, e quindi non ha senso valutarne la grandezza in termini di naturalezza.

Se questa analogia sembra troppo inverosimile, ecco un altro esempio. Conosciamo bene l'energia caratteristica dell'interazione forte, il suo ordine è di 1 GeV. E sappiamo anche che la scala delle interazioni forti non è fondamentale, quindi il suo piccolo valore relativo alla massa di Planck non sorprende nessuno. In generale, se accettiamo che in termini di naturalezza o innaturalità è ragionevole confrontare esclusivamente quantità fondamentali, allora per i parametri del Modello Standard questo problema praticamente scomparirà.

È interessante notare che la stessa logica funziona per i sostenitori del principio antropico. Credono che ci sia una grande varietà di vuoti con diverse leggi fisiche, che di solito è chiamato multiverso. Il nostro universo è emerso da uno di questi vuoti. Se prendiamo questo punto di vista, in generale non c'è problema di naturalezza dei parametri del Modello Standard. Ma non mi piace questo approccio, anche se ammetto che abbia i suoi sostenitori.

Quindi, abbandonare il presupposto che i parametri del Modello Standard siano fondamentali elimina il problema della naturalezza. È questa la fine della discussione o possiamo andare oltre?

GD: Certo, è possibile - e necessario. Secondo me, è molto più importante e più interessante parlare non della naturalezza del modello, ma della sua autoconsistenza. Ad esempio, lavoriamo tutti nell'ambito della teoria quantistica dei campi. Per inciso, questo vale non solo per il modello standard, ma anche per la teoria delle stringhe. Tutte le realizzazioni fisicamente significative di questa teoria dovrebbero essere basate sulla teoria della relatività speciale, quindi le loro equazioni dovrebbero apparire le stesse in tutti i sistemi di riferimento inerziali. Questa proprietà è chiamata invarianza relativistica della teoria o invarianza di Lorentz. Esiste un teorema secondo il quale tutte le teorie dei campi quantistici invarianti di Lorentz devono essere invarianti CPT. Ciò significa che le loro equazioni di base non dovrebbero cambiare con la sostituzione simultanea delle particelle con antiparticelle, l'inversione delle coordinate spaziali e l'inversione del tempo. Se questa invarianza viene violata, la teoria non sarà auto-coerente e nessuna quantità di naturalezza aiuterà a costruirla. In altre parole, la teoria quantistica dei campi autoconsistente deve essere invariante CPT. Pertanto, quando si parla di naturalezza, bisogna fare attenzione a non confonderla con l'auto-coerenza. Questa strategia apre molte possibilità interessanti, ma discuterne ci porterà troppo lontano.

Wilhelm de Sitter, l'astronomo olandese che ha creato uno dei primi modelli cosmologici relativistici (modello di de Sitter). Fonte: Photographic Archive University of Chicago
Wilhelm de Sitter, l'astronomo olandese che ha creato uno dei primi modelli cosmologici relativistici (modello di de Sitter). Fonte: Photographic Archive University of Chicago

Wilhelm de Sitter, l'astronomo olandese che ha creato uno dei primi modelli cosmologici relativistici (modello di de Sitter). Fonte: Photographic Archive University of Chicago

Gia, è possibile almeno un esempio?

GD: - Certamente. Come sapete, lo spazio del nostro Universo si sta espandendo a un ritmo crescente - come dicono i cosmologi, viviamo nel mondo di de Sitter. Questa accelerazione è solitamente attribuita alla presenza di energia del vuoto positiva, chiamata anche energia oscura. La sua densità misurata è estremamente bassa, circa 10-29 g / cm3. Se assumiamo che la gravità possa essere descritta nel quadro della teoria quantistica dei campi, allora è naturale aspettarsi che il valore dell'energia del vuoto sia molte decine di ordini di grandezza maggiore di questo valore. Poiché non è così, il criterio della naturalezza ovviamente non funziona. Tuttavia, ora abbiamo sempre più motivi per pensare che il piccolo valore dell'energia del vuoto possa essere giustificato sulla base del criterio di autoconsistenza.

Ma non è ancora finita. Nell'ambito del nuovo approccio, la conclusione suggerisce che l'energia del vuoto cambia nel tempo. Se non si introducono ipotesi aggiuntive, la scala temporale di tali cambiamenti è inimmaginabilmente ampia: 10132 anni. Tuttavia, se associamo questi cambiamenti alla presenza di un certo campo scalare, questa scala sarà paragonabile al tempo di Hubble, che è leggermente superiore a dieci miliardi di anni. Dai calcoli risulta che può superare il tempo di Hubble solo di parecchie volte e non di molti ordini di grandezza. Ad essere onesti, non sono del tutto impressionato da questa conclusione, ma è abbastanza logica. Ci sono altre opzioni, ma sono completamente esotiche.

Riassumiamo. In generale, come vede il problema della naturalezza dei modelli di fisica fondamentale e quali soluzioni ritiene siano ottimali?

GD: Alexey, lasciami iniziare con una prospettiva storica, non farà male. Negli ultimi decenni, le opinioni della nostra comunità, la comunità di coloro che sono impegnati nella fisica fondamentale, hanno oscillato fortemente. Negli anni '90, sebbene si discutesse del principio antropico, in generale nessuno era particolarmente interessato. Allora l'opinione prevalente era che i fondamenti dell'universo fossero già conosciuti nella persona della teoria delle stringhe. Speravamo che fosse lei a dare l'unica soluzione corretta descrivendo il nostro Universo.

Alla fine dell'ultimo decennio, questa convinzione è cambiata. Scienziati molto seri, ad esempio, Alex Vilenkin e Andrey Linde, hanno iniziato a difendere attivamente e in modo convincente il principio antropico. Ad un certo punto, c'è stato un punto di svolta nella coscienza della comunità, qualcosa come una transizione di fase. Molti teorici vedevano nel principio antropico l'unica via d'uscita dalle difficoltà associate al problema della naturalezza. Ovviamente avevano anche degli avversari e la nostra comunità era divisa su questo tema. È vero, Linde ha comunque ammesso che non tutti i parametri del Modello Standard trovano un'interpretazione naturale nel contesto del principio antropico. Sergey ha già notato questa circostanza in relazione al parametro θ.

Andrey Linde (a sinistra) e Alexander Vilenkin. Foto dal sito vielewelten.de
Andrey Linde (a sinistra) e Alexander Vilenkin. Foto dal sito vielewelten.de

Andrey Linde (a sinistra) e Alexander Vilenkin. Foto dal sito vielewelten.de

Negli ultimi anni l'opinione collettiva è cambiata di nuovo. Ora vediamo che un insieme quasi infinito di universi con leggi fisiche diverse non può esistere affatto. Il motivo è semplice: tali universi non possono essere stabili. Tutti i mondi esotici di de Sitter dovrebbero trasformarsi in continui spazio-temporali vuoti con la geometria piatta di Minkowski. Il vuoto è l'unico stabile solo con questa geometria. Si può dimostrare che la densità di energia del vuoto deve essere trascurabile rispetto alla scala di Planck. Questo è esattamente ciò che accade nel nostro universo. Il nostro mondo non ha ancora raggiunto il mondo di Minkowski, quindi l'energia del vuoto è diversa da zero. Cambia e, in linea di principio, questi cambiamenti possono essere rilevati sperimentalmente e con osservazioni astrofisiche. Quindi non c'è nulla di innaturale nella piccolezza dell'energia del vuoto,e il suo valore osservato è in linea con le aspettative teoriche.

Altre previsioni molto specifiche vengono fatte sulla base del nuovo approccio. Quindi, ne consegue che deve esserci certamente un assione. Questa conclusione è anche collegata al problema della naturalezza. Lascia che ti ricordi che una volta i teorici inventarono questa particella per spiegare il valore innaturalmente piccolo del parametro θ. Ora diciamo che la realtà dell'assione è dettata dal requisito dell'autoconsistenza delle nostre equazioni. In altre parole, se l'assione non esiste, la teoria non è auto-coerente. Questa è una logica completamente diversa della previsione teorica. Quindi, in conclusione, posso ripetere ciò che ho già detto: il principio di naturalezza è stato sostituito da un principio di autoconsistenza molto più forte, e l'area della sua applicabilità è in continua espansione ei suoi confini non sono ancora noti. È possibile che sulla sua base sarà possibile spiegare la gerarchia delle masse di particelle elementari,rappresentando un problema così difficile per il principio di naturalezza. Se è così, non lo sappiamo. In generale, devi lavorare.

Quindi, ecco le opinioni di due brillanti fisici teorici che, per loro stessa ammissione, hanno meditato molto sul problema della naturalezza dei modelli teorici della fisica fondamentale. Per certi versi sono simili, per certi versi differenti. Tuttavia, Sergei Troitsky e Gia Dvali non escludono che ora il principio di naturalezza, se non del tutto obsoleto, quindi, in ogni caso, abbia perso la sua precedente credibilità. Se è così, allora la fisica fondamentale sta davvero entrando nell'era del postnaturalismo. Vediamo dove porta questo.

Per concludere degnamente la discussione, ho chiesto a uno dei fondatori della teoria delle stringhe, Edward Witten, professore al Princeton Institute for Fundamental Research, di parlare il più brevemente possibile del problema della naturalezza nella fisica fondamentale. Ecco cosa ha scritto:

Edward Witten, professore presso il Princeton Institute for Basic Research, co-fondatore della teoria delle stringhe. Foto dal sito wikipedia.org
Edward Witten, professore presso il Princeton Institute for Basic Research, co-fondatore della teoria delle stringhe. Foto dal sito wikipedia.org

Edward Witten, professore presso il Princeton Institute for Basic Research, co-fondatore della teoria delle stringhe. Foto dal sito wikipedia.org

“Se un fisico o un cosmologo arriva alla conclusione che un valore osservabile ha un valore estremo, cerca un'interpretazione ragionevole. Ad esempio, la massa di un elettrone è 1800 volte inferiore a quella di un protone. Una differenza così grave attira certamente l'attenzione e necessita di una spiegazione.

In questo caso, una spiegazione ragionevole - o, in altre parole, naturale - è che quando la massa dell'elettrone viene azzerata, le equazioni del Modello Standard diventano più simmetriche. In generale, consideriamo quindi la simmetria esatta o approssimativa come naturale, quando c'è motivo di sperare che se oggi non sappiamo perché esiste in natura, allora ci aspettiamo di trovare una spiegazione a un livello più profondo di comprensione della realtà fisica. Secondo questa logica, la piccola massa dell'elettrone non crea spiacevoli problemi per il principio di naturalezza.

Ora passiamo alla cosmologia. Sappiamo che la dimensione dell'universo è circa 1030 volte la lunghezza d'onda di un tipico fotone di radiazione di fondo a microonde. Questa relazione non cambia con l'evoluzione dell'universo e quindi non può essere semplicemente attribuita alla sua età. Ha bisogno di una spiegazione diversa, che può essere ottenuta sulla base di modelli cosmologici inflazionistici.

Considera un esempio di tipo diverso. È noto che il valore dell'energia oscura è almeno 1060 volte inferiore al valore calcolato teoricamente in base alla conoscenza di altre costanti fondamentali. Naturalmente, questo fatto richiede anche una spiegazione. Tuttavia, non esiste ancora un'interpretazione ragionevole per questo, a parte, forse, quella che segue dall'ipotesi del multiverso e del principio antropico. Sono uno di quelli che preferirebbero un altro tipo di spiegazione, ma non è stata ancora trovata. Ecco come stanno le cose ora."

In conclusione, non posso negarmi il piacere di citare un recente articolo del professor E. Witten (2018. Symmetry and Emergence), che, credo, sarà un'ottima conclusione della discussione sulla naturalezza delle teorie della fisica fondamentale:

“In termini generali, la simmetria di gauge non è altro che una proprietà della descrizione di un sistema fisico. Il significato delle simmetrie di gauge nella fisica moderna è che i processi fisici sono governati da leggi estremamente sottili (sottili), che sono intrinsecamente "geometriche". È molto difficile dare una definizione rigorosa di questo concetto, ma in pratica significa che le leggi della Natura resistono a qualsiasi tentativo incontrastato di trovarne un'espressione esplicita. La difficoltà di esprimere queste leggi in una forma naturale e non ridondante è la ragione per l'introduzione della simmetria di gauge ".

Arkady e Boris Strugatsky
Arkady e Boris Strugatsky

Arkady e Boris Strugatsky.

Quindi tre persone - tre opinioni. In conclusione - una citazione dalla storia dei fratelli Strugatsky "Ugly Swans" (1967):

"Il naturale è sempre primitivo", ha continuato Bol-Kunats tra le altre cose, "e l'uomo è un essere complesso, la naturalezza non gli si addice".

Si adatta alle teorie della fisica fondamentale? Questa è la domanda.

Alexey Levin, PhD in Filosofia

Raccomandato: