Vecchie ipotesi, nuovi orizzonti – Intervista a Fausto Intilla

Cari lettori di AG, anche quest’anno siamo riusciti a strappare una breve intervista al nostro caro amico Fausto Intilla, composta da alcune domande relative a svariati campi della fisica teorica e sperimentale.

Un nostro giovane collaboratore (laureando in fisica teorica), ha posto a Fausto Intilla le seguenti domande:

AG: Buongiorno Fausto e ben ritrovato. Partiamo subito con la prima domanda. Da qualche tempo circola in rete la notizia che sia in fase di progettazione, al CERN di Ginevra, un nuovo acceleratore di particelle che dovrebbe raggiungere i 100 km di diametro. Pensi che sia un buon investimento, nel campo della ricerca inerente alla fisica delle particelle?

F.I.:  Bè, se pensiamo al fatto che sono bastati solo 4 TeV di energia per fascio (in totale quindi 8 TeV di energia di collisione), per scoprire il bosone di Higgs (con gli esperimenti ATLAS e CMS), qualcuno potrebbe anche chiedersi perché, costruire un acceleratore in grado di raggiungere energie fino a dieci volte superiori a quelle attualmente sfruttabili dal Large Hadron Collider (LHC). Ovviamente, se ci fossimo fermati, per questioni economiche o per la semplice presunzione di essere ormai arrivati al capolinea, nell’ambito delle scoperte nella fisica delle particelle, con molta probabilità sfrutteremmo ancora le camere a bolle, come facevamo negli anni sessanta del secolo scorso. Un grande balzo in avanti comunque, lo abbiamo fatto nel 1968, con l’invenzione della camera proporzionale a multifili, da parte di George Charpak, un fisico francese insignito poi nel 1992 del premio Nobel, per la sua geniale invenzione; in pratica un rivelatore di particelle automatizzato.

Nel campo della fisica delle particelle, dunque, non è mai detta l’ultima parola. In merito al nuovo progetto, per la realizzazione di un acceleratore simile al LHC, ma di dimensioni molto più grandi, un’alternativa molto interessante potrebbe essere quella di costruire un sincrotone con una circonferenza di 80 km (in sostanza, un acceleratore circolare funzionante a elettroni e positroni; una sorta di “fabbrica” di bosoni di Higgs). La perdita di energia per giro in un sincrotone a elettroni, è proporzionale a (E^4)/R; dove E è l’energia del fascio e R è il raggio. La perdita di energia da radiazione di sincrotone aumenta velocemente con l’aumentare dell’energia E, a parità di raggio. Ma tale problema verrebbe appunto risolto aumentando R, fino a raggiungere una rispettiva circonferenza del fascio di 80 km (ovviamente la stessa del tunnel da scavare per poter costruire tale sincrotone). Un progetto simile richiederebbe una sola stazione a radiofrequenza, dotata di un centinaio di cavità RF, in cui elettroni e positroni passerebbero continuamente, moltissime volte. Ma l’aspetto ancora più interessante di questo acceleratore, è che potrebbe essere convertito in un collisore di adroni ad altissima energia; una sorta di Super LHC, con le stesse capacità e caratteristiche di quelle del nuovo acceleratore attualmente in fase di progettazione.

AG: Qualche anno fa, in merito agli esperimenti che si sarebbero condotti al LHC, si parlava anche di possibili scoperte nel campo delle “dimensioni extra”, di “porte spazio-temporali” verso altri mondi, di concetti quindi molto più legati all’ambito della fantascienza, piuttosto che alla realtà. Tuttavia, sembra che molti fisici teorici, per la maggior parte stringhisti, non disdegnino di cimentarsi, ormai da qualche decennio, sul concetto di Multiverso e su altre teorie molto più datate ma pur sempre in voga, anche ai nostri giorni, come ad esempio quella dei molti mondi di Hugh Everett III. Due teorie che all’apparenza sembrerebbero quasi identiche, poiché lasciano intendere di avere molti punti in comune, ma è davvero così?

F.I.: In sostanza, dunque proprio a grandi linee, potremmo dire che nel caso della MWI di Everett (1957), si esclude il collasso della funzione d’onda, lasciando quindi aperta la porta ad uno sconfinato numero di possibili worldlines (alcune “sostenibili-realizzabili”, ed altre non possibili/accettabili). Nella MWI di Everett, la premessa iniziale è che tutti i parametri e le costanti di natura, siano uguali in ogni regione dell’Universo (conosciuto e non conosciuto). Nella teoria del Multiverso invece, nel modo in cui la intendono L.Susskind e D.Deutsch, rimane valida l’idea del collasso della funzione d’onda (Interpretazione di Copenhagen), ma grazie ad un ingegnoso costrutto matematico relativo alla Teoria delle Stringhe, è possibile ipotizzare infiniti altri parametri e costanti di natura (diversi da quelli che caratterizzano il nostro Universo conosciuto), che portano alla generazione-nascita di altre tipologie di Universo.

Tutte queste tipologie di Universo, convivono insieme e formano quello che Susskind ha definito il “Paesaggio cosmico”. Dunque, se il discriminante tra l’una e l’altra teoria sta proprio nel collasso della funzione d’onda, la domanda fondamentale dovrebbe essere la seguente: Ma se in un Paesaggio Cosmico, l’unico Universo abitabile da osservatori (ovvero da forme di vita intelligente), è il nostro (poiché in base al Principio Antropico, basterebbe una differenza anche infinitesimale dei valori delle costanti di natura – ad esempio quella di struttura fine – , per dare origine ad altri Universi completamente diversi dal nostro; praticamente tutti senza stelle e pianeti!), che senso ha parlare ancora di collasso della funzione d’onda? Visto che tale principio si basa proprio sull’esistenza di osservatori?

Forse dovremmo rivalutare ed abilitare (ovviamente con le dovute modifiche eseguite con un notevole sforzo intellettuale, da parte di tutti gli addetti ai lavori), una volta per tutte, una teoria che da ben 32 anni continua a far capolino dai pilastri della meccanica quantistica: la teoria di Ghirardi-Rimini-Weber (GRW). Il vero nocciolo del problema, sta dunque nel capire esattamente, nell’ambito della meccanica quantistica, come “funzioni”, nei minimi dettagli, il “meccanismo” della sovrapposizione di stati. Penrose ad esempio, ipotizza che sia possibile calcolare un tempo medio di decadimento di una sovrapposizione di stati, facendo capo a due elementi essenziali: la costante di Planck ridotta (ћ) e l’incertezza fondamentale circa l’energia della sovrapposizione (E, inteso come Errore). Avremo dunque che: t ≈ ћ/E. Notiamo quindi che le sovrapposizioni quantistiche non hanno una durata illimitata. Tutto dipende dalle dislocazioni di massa tra due stati in sovrapposizione; quando è minima, la sovrapposizione sarà di “lunga durata”, mentre quando è piuttosto significativa, la sovrapposizione dovrebbe decadere spontaneamente nell’uno o nell’altro stato. Si tratta di una discrepanza che dovrebbe essere teoricamente osservabile. Vedremo dove ci condurranno i futuri esperimenti quantistici; per ora siamo ancora nell’ambito delle ipotesi.

AG: Nel mese di gennaio di quest’anno, 2017, si è tornati a parlare, dopo circa vent’anni dalle prime ipotesi avanzate dal fisico argentino Juan Martin Maldacena, di Universo Olografico. Questo grazie ad una nuova ricerca condotta a livello internazionale, a cui hanno partecipato in Italia ricercatori della sezione di Lecce dell’INFN e dell’Università del Salento. Tu cosa ne pensi, facciamo davvero parte di un gigantesco e sconfinato ologramma, in cui la percezione della realtà fisica delle cose, compresi noi stessi, è solo una mera illusione?

F.I.: Occorre fare sempre molta attenzione e valutare bene ogni dettaglio, prima di lasciarsi prendere dall’entusiasmo e gridare subito Eureka. A titolo di esempio, basti ricordare che solo una decina di anni fa, il gruppo di Carlo Rovelli al Centro di Fisica Teorica di Marsiglia, trovò prove consistenti del fatto che la gravità quantistica a loop (LQG) prevede che due masse si attirino esattamente come prevede la legge di Newton. Ebbene è proprio del mese scorso (maggio 2017), la pubblicazione su Physical Review Letters di un nuovo articolo firmato da Jorge Santos della Cambridge University e supervisionato ad Harvard da uno dei più geniali fisici del momento, Cumrun Vafa, insignito nel 2008 del Premio Dirac, in cui i calcoli e le simulazioni sembrerebbero convalidare la Congettura della Gravità Debole (WGC). Ora, il punto è che nessuna derivazione della WGC dalla gravità quantistica a loop (LQG) è conosciuta e sembrerebbe per di più ovvio che mai possa esistere, poiché qualsiasi vincolo sul legame che accomunerebbe le due forze, richiederebbe un’unificazione delle stesse.

Tutto ciò, in ultima analisi, getta quindi un’ombra oscura sulla LQG e mette in risalto invece alcuni aspetti fondamentali che potrebbero trovare spazio solo nella Teoria delle Stringhe. Uno di questi aspetti, ad esempio, è definito dalla Congettura del Censore Cosmico di Penrose (CCC), che nell’articolo di J. Santos, sembrerebbe essere strettamente connessa alla Congettura della Gravità Debole (WGC). Se ciò che viene esposto nell’articolo di J. Santos, porti a convalidare oppure ad invalidare la CCC di Penrose, è ancora in fase di dibattito tra i vari addetti ai lavori. È probabile comunque che Penrose, essendo da moltissimo tempo un detrattore della Teoria delle Stringhe, suggerirà che la sua congettura del Censore Cosmico (CCC), non dipenda dalla Teoria delle Stringhe.  Mi scuso per questa lunga digressione, ma credo fosse necessaria. Tornando al concetto di Universo Olografico, mi permetto di risponderti in modo assai tecnico e sbrigativo:

La congettura di Maldacena (ovvero la corrispondenza AdS/CFT, più comunemente nota come “teoria dell’universo olografico”), dipende dal segno “sbagliato” della costante cosmologica (negativo invece che positivo); richiede quattro generatori di supersimmetria (quando non ne è stato osservato nemmeno uno!) e richiede un gruppo di simmetria di gauge che agisca su un numero infinito di parametri (invece che sui tre richiesti dalla fisica delle particelle). Infine, il suo bulk ha una dimensione di troppo. Ipotizzare è facile …è dimostrare che è difficile.

AG: Ancora un’ultima domanda, Fausto. Circa dieci giorni fa, è uscita la notizia che uno studio coordinato dalla University of Science and Technology cinese e pubblicato sulla rivista Science, ha dimostrato sperimentalmente, attraverso l’utilizzo di laser e satelliti, l’entanglement quantistico fra particelle distanti fra loro 1’200 km. Si tratta quindi della dimostrazione scientifica che la correlazione quantistica a distanza tra due fotoni, può essere mantenuta per più di un migliaio di chilometri. Il fenomeno ovviamente, non può far altro che portarci con il pensiero ad un altro aspetto molto intrigante ed affascinante, legato a tali principi della meccanica quantistica, quello del cosiddetto teletrasporto; spesso citato nei film di fantascienza, ma per ora ovviamente ancora lontanissimo dalla realtà, almeno per quanto riguarda i corpi macroscopici. Ma a coloro che si chiedono se sarà possibile, in futuro, il teletrasporto di oggetti macroscopici, cosa potremmo rispondere?

F.I.: Solo per descrivere una molecola complessa (dunque non un oggetto macroscopico visibile ad occhio nudo, ma qualcosa di estremamente più piccolo!), non sarebbe sufficiente sapere da quali atomi è formata, ma occorrerebbe sapere anche come questi siano disposti e connessi l’uno con l’altro. In un caso simile, lo stato da teletrasportare conterrebbe una quantità di informazione spaventosamente grande. Le sfide, sarebbero quindi due: da un lato, creare uno stato entangled di un sistema estremamente complesso; dall’altro, ideare una generalizzazione della misura sugli stati di Bell, tale da renderla applicabile ad un contesto così complicato. Ovviamente il teletrasporto di organismi viventi (da una semplice ameba fino ad entità biologiche molto più complesse, uomo compreso), resterà di sicuro per molti secoli a venire, qualcosa da relegarsi esclusivamente nell’ambito della fantascienza (uno dei vari limiti di applicabilità, sta ad esempio nel principio di decoerenza; è praticamente impossibile infatti, pensare di riuscire ad isolare completamente un organismo vivente, dall’ambiente ad esso circostante, senza decretarne inesorabilmente la morte). Tuttavia, nell’ambito della materia inanimata, è stato possibile osservare il fenomeno dell’interferenza quantistica, anche per grandi molecole formate da centinaia di atomi (si pensi ad esempio ai fullereni e ai loro composti).

Il principio di indeterminazione di Heisenberg ci impedisce di ottenere l’informazione completa relativa a qualsiasi sistema individuale; dunque è impossibile iniziare una sequenza di teletrasporto, eseguendo una semplice scansione delle caratteristiche dell’oggetto da inviare. Tuttavia, per poter effettuare con successo un esperimento di teletrasporto, non è necessario determinare tutta l’informazione contenuta in un sistema; sarebbe sufficiente ‘trasmetterla’ alla stazione ricevente (una procedura del genere non sarebbe vincolata in alcun modo dall’indeterminazione quantistica di Heisenberg). Dunque per poter trasmettere dell’informazione da un punto all’altro nello spaziotempo, è fondamentale evitare di compiere una misurazione iniziale dell’informazione! La soluzione quindi, ce la fornisce proprio l’entanglement quantistico; la spiegazione di tale procedura per il teletrasporto quantistico, tuttavia, è troppo lunga e complessa per poterla spiegare in questa breve intervista. In conclusione quindi, possiamo affermare che per i corpi macroscopici (inclusi ovviamente anche gli organismi viventi), il teletrasporto è da relegarsi ancora nell’ambito della fantascienza. Tuttavia, già nel 2004 sono stati eseguiti vari esperimenti in cui si è riusciti a teletrasportare degli stati atomici (Rainer Blatt – Università di Innsbruck; David Wineland – National Institute of Standards and Technology). Ciò comunque non significa che sia stato teletrasportato l’intero stato quantistico di un atomo, bensì solo un suo particolare sottostato.

AG: Grazie di cuore Fausto per averci concesso questa interessantissima intervista, ricca di ottimi spunti di riflessione e di dettagli fondamentali per chiunque volesse approfondire delle ricerche personali, sui vari temi fin qui discussi.

F.I.: Grazie a voi …e con un po’ d’anticipo, buone vacanze a tutto lo staff di AG!


Fausto Intilla

Fausto Intilla (6 febbraio 1972), inventore-divulgatore scientifico, è di origine italiana ma vive e lavora in Svizzera (Canton Ticino). I suoi libri più noti sono: “Fisica dell’Invisibilità. Metamateriali e tecnologie del futuro“, “L’esperimento di Afshar” e “Fisica dell’Informazione, ultima frontiera della scienza“, tutti pubblicati dalla Aracne Editrice(Roma). Altri volumi meno recenti sono: “Dio = mc2. Oltre l’Universo Olografico” (eBook), “La funzione d’onda della Realtà” (eBook) e “Verso una nuova scienza di confine” (eBook), tutti pubblicati dall’editore Lampi di Stampa(Milano). Nel campo delle invenzioni invece, il suo nome è legato alla “Struttura ad albero”, una delle più note strutture anti-sismiche per ponti e viadotti brevettata in Giappone e negli Stati Uniti. Il suo indirizzo di posta elettronica è: f.intilla@bluewin.ch.

Nel campo della ricerca sull’interazione tra psiche e materia, Intilla ha collaborato inoltre allo sviluppo di alcune teorie ed esperimenti, con alcuni membri delP.E.A.R (Princeton Engineering Anomalies Research), il cui laboratorio si trova nel New Jersey, USA. Le ricerche in questo ambito scientifico, da parte del Dr. Roger D. Nelson e colleghi, dopo la chiusura dei laboratori del PEAR, si sono trasferite qui: ICRL. In questo istituto, da diversi anni a questa parte, le ricerche sono rivolte verso il “Global Consciousness Project”.

Vecchie ipotesi, nuovi orizzonti – Intervista a Fausto Intilla ultima modifica: 2017-06-26T11:17:13+00:00 da prixi
About the Author
prixi

Redattore & Responsabile Canale Video di Altrogiornale.org