UNA RETE DI 1500 RADIOTELESCOPI

Nuovo disco canadese per il progetto SKA

il Canada ha inaugurato il suo primo riflettore che farà parte della famiglia delle antenne dello Square Kilometre Array. Sono già state costruiti i prototipi delle antenne cinesi (DVA-C) e sudafricane (MeerKAT-1). L’INAF partecipa attivamente alla progettazione e costruzione dei riflettori

Il National Research Council (NRC) del Canada ha inaugurato il DVA-1 Primary Dish, il prototipo dell'antenna che verrà utilizzato anche per lo Square Kilometre Array (SKA).

Grandi passi avanti per lo Square Kilometre Array (SKA), il più ambizioso progetto radioastronomico attualmente in fase di studio a cui partecipa attivamente anche l’INAF. Di recente il National Research Council (NRC) del Canada ha inaugurato il  DVA-1 Primary Dish, il prototipo di una delle antenne che farà parte dell’array del progetto SKA.

Il gigantesco disco (chiamato in gergo anche riflettore) è stato installato a pochi chilometri da Penticton, ha un diametro di 15 metri e pesa 8,7 tonnellate. Si tratta di un disco unico nel suo genere perché è stato costruito con un singolo pezzo di fibra di carbonio. Il disco è estremamente solido, anche se ha subito una battuta d’arresto lo scorso ottobre, quando un’improvvisa folata di vento durante il trasporto in elicottero lo ha fatto traballare in maniera preoccupante deformandolo. In soli tre giorni, però, gli ingegneri sono riusciti a ripristinare il piatto alla sua forma originale e le sue originali caratteristiche di riflessione.

Il Dish Consortium ha già installato tre prototipi di antenna in giro per il mondo: il DVA-1 in Canada, il DVA-C in Cina e il MeerKAT-1 in South Africa. Il gruppo di lavoro che si occupa dei dischi è già fortemente attivo e vi partecipa anche l’Istituto Nazionale di Astrofisica. A capo del team italiano c’è Corrado Trigilio, dell’INAF -Osservatorio Astronomico di Catania, e sono coinvolti anche l’IRA di Noto e gli Osservatori INAF di Trieste e Teramo.

Il disco mentre viene posizionato sul suo piedistallo.

Lo scorso marzo è stata inaugurata la prima delle 64 antenne che andranno complessivamente a comporre MeerKAT, il nuovo radiotelescopio del Sudafrica, pesante 42 tonnellate con i suoi quasi 20 metri di altezza. Nel corso dei prossimi due anni i tre diversi prototipi saranno utilizzati per testare le varie sottocomponenti dei piatti. Questi test saranno inseriti nel design del prototipo finale SKA noto come SKA – P, per essere pronti per la fine del 2016.

Nella sua prima fase di costruzione, SKA conterà ben 190 antenne nella regione africana semi-desertica del Karoo assieme alle 64 antenne MeerKAT e 60 antenne integrate in Australia, in aggiunta alle 36 antenne ASKAP. Quando il progetto SKA sarà completato circa 2000 piatti saranno stati installati in tutta l’Africa .

SQUARE KILOMETRE ARRAY

Trieste ospita tre meeting sul progetto SKA

Sarà il network di radiotelescopi più potente mai costruito e l’INAF è presente in quattro consorzi di lavoro: Telescope Manager, Central Signal Processor, Dish e Low-Frequency Aperture Array. L’Italia è coinvolta con gli Osservatori Astronomici di Arcetri, Catania, Trieste, Teramo e l’Istituto di Radio Astronomia dell’INAF

Dal 25.03.2015 al 31.03.2015

La sede principale dell'Osservatorio Astronomico di Trieste

Dal 25 al 31 marzo Trieste sarà la capitale del progetto SKA (Square Kilometre Array), che vede coinvolta l’Italia tra i paesi leader. Con migliaia di antenne distribuite tra Australia e Sudafrica, SKA sarà il network di radiotelescopi più potente mai costruito. L’INAF è presente in quattro consorzi di lavoro di SKA: Telescope Manager, Central Signal Processor, Dish e Low-Frequency Aperture Array, e vede coinvolti gli Osservatori Astronomici di Arcetri, Catania, Trieste, Teramo e l’Istituto di Radio Astronomia dell’INAF. E proprio a Trieste sono stati organizzati tre meeting sul futuro dello Square Kilometre Array.

Il primo meeting, Local Monitor and Control (LMC) Standardization Workshop, coinvolgerà 8 degli 11 consorzi di cui SKA è composto e avrà lo scopo di definire i criteri e il processo di selezione per una piattaforma tecnologica comune per i Local Monitor e Control di tutti gli elementi di SKA. Gli altri due saranno invece interni al Consorzio SKA Telescope Manager, in cui l’INAF-Osservatorio Astronomico di Trieste è coinvolto in maniera importante oltre ad avere un fondamentale ruolo di ledearship di uno dei pacchetti. In particolare questi meeting saranno SKA Telescope Manager Prototyping Strategy meeting e SKA Telescope Manager User Interfaces meeting e verteranno rispettivamente su una strategia per la definizione dei prototipi di SKA e sulle interfacce utente.

I meeting, organizzati dall’OATS, prevedono una massiccia partecipazione di ricercatori e collaboratori delle diverse nazioni partecipanti al progetto e avranno luogo nel Centro Congressi della Stazione Marittima e nelle sedi dell’Osservatorio Astronomico di Trieste. Il tutto in attesa della decisione che il Consiglio d’Amministrazione di SKA dovrà prendere entro la fine di aprile sul quartier generale. I due paesi candidati sono l’Italia e il Regno Unito, che rispettivamente hanno proposto Castello Carrarese a Padova e il Jordell Bank Observatory a Manchester.

Per saperne di più:

LO STUDIO SU PNAS

Super Terre nel passato del sistema solare?

Questo scenario è stato suggerito da Konstantin Batygin, un ricercatore del Caltech che si occupa di scienze planetarie, e Gregory Laughlin dell’Università della California in un articolo che appare nell’edizione di questa settimana dei Proceedings of National Academy of Sciences (PNAS)

Uno studio condotto da ricercatori del Caltech e dell’Università della California a Santa Cruz sostengono che la Terra appartenga ad una seconda generazione di pianeti. Molto prima che si siano formati Mercurio, Venere, Terra e Marte, sembra che il sistema solare interno possa aver ospitato un certo numero di Super Terre, pianeti più grandi della Terra ma più piccoli di Nettuno. Se così fosse, questi pianeti sarebbero scomparsi molto tempo fa, distrutti e caduti verso il Sole miliardi di anni fa a causa dello spostamento di Giove, prima verso l’interno e poi verso l’esterno, avvenuto nei primi stadi di vita del sistema solare.

Questo scenario è stato suggerito da Konstantin Batygin, un ricercatore del Caltech che si occupa di scienze planetarie, e Gregory Laughlin dell’Università della California in un articolo che appare nell’edizione di questa settimana dei Proceedings of National Academy of Sciences (PNAS). I risultati delle loro simulazioni suggeriscono la possibilità di una nuovo scenario, che potrebbe rispondere a una serie di questioni in sospeso circa l’attuale composizione del sistema solare e della Terra stessa. Ad esempio, questo lavoro spiega perché i pianeti terrestri del nostro sistema solare hanno masse relativamente basse, se confrontate con i pianeti in orbita attorno ad altre stelle simili al Sole.

Lo schema rappresenta una fase della simulazione, che mostra una delle fasi primordiali del sistema solare, durante la migrazione di Giove verso l'interno. L'orbita di Giove è quella spessa e bianca, in turchese le orbite dei planetesimi e in giallo il disco planetario, imperturbato dal passaggio di Giove. Crediti: K.Batygin/Caltech

«Il nostro lavoro indica che la migrazione di Giove verso l’interno e verso l’esterno potrebbe aver distrutto una prima generazione di pianeti e posto le basi per la formazione dei pianeti terrestri, impoverendo la massa totale del sistema solare così come lo conosciamo oggi», diceBatygin. «Tutto questo si adatta perfettamente ad alcuni recenti sviluppi nella comprensione di come il sistema solare si è evoluto, oltre a colmare alcune lacune».

Grazie alle recenti survey di esopianeti, ovvero pianeti in sistemi solari diversi dal nostro, sappiamo che circa la metà delle stelle simili al Sole nel nostro vicinato galattico hanno sistemi planetari. Eppure questi sistemi sembrano molto diversi dal nostro. Nel nostro sistema solare lo spazio all’interno dell’orbita di Mercurio è sostanzialmente vuoto, ci sono una manciata di detriti, probabilmente asteroidi con orbite prossime a quella terrestre che si sono spostati verso l’interno, ma senza dubbio non ci sono pianeti. Questo è in netto contrasto con ciò che si osserva nella maggior parte dei sistemi planetari extrasolari. Questi sistemi hanno in genere uno o più pianeti più massicci della Terra in orbite più vicine alla propria stella di quanto non sia Mercurio, e pochissimi oggetti a distanze maggiori.

«Sembra che il sistema solare odierno non rappresenti ciò che avviene comunemente nella nostra galassia: siamo un caso speciale», dice Batygin. «Tuttavia non c’è ragione di pensare che il canale più frequente di formazione di pianeti nella galassia non dovrebbe avuto luogo anche qui. è molto più probabile che cambiamenti successivi abbiano modificato la composizione originale del sistema solare».

Secondo Batygin e Laughlin, la chiave per capire perché il sistema solare sia diventato così com’è oggi è Giove. Il loro modello incorpora il cosiddetto scenario di “Grand Tack”, proposto per la prima volta nel 2001 da un gruppo della Queen Mary University di Londra e successivamente rivisitato nel 2011 da un team dell’Osservatorio di Nizza. Questo scenario afferma che durante i primi milioni di anni di vita del sistema solare, quando i pianeti erano ancora immersi in un disco di gas e polvere attorno ad un Sole relativamente giovane, Giove è diventato così massiccio e gravitazionalmente influente che è stato in grado di creare un varco nel disco. E mentre il Sole attirava il disco di gas verso se stesso, anche Giove ha iniziato a spostarsi verso l’interno, come se venisse tirati da un enorme nastro trasportatore.

«Giove avrebbe continuato in quella direzione, finendo poi per cadere sul Sole, se non fosse stato per Saturno», spiega Batygin. Saturno si è formato dopo Giove, ma è stato tirato verso il sole ad una velocità maggiore, permettendogli così di recuperare. Una volta che i due pianeti massicci si sono trovati abbastanza vicini, si sono agganciati in un particolare tipo di rapporto chiamato risonanza orbitale, ovvero i loro periodi di rivoluzione sono tali da essere esprimibili come rapporto di numeri interi. In una risonanza orbitale 2:1, per esempio, Saturno completerebbe due orbite intorno al Sole nello stesso tempo impiegato da Giove per compiere una singola orbita. Trovandosi in una relazione di questo tipo, i due corpi avrebbero iniziato ad esercitare un’influenza gravitazionale uno sull’altro.

«Tale risonanza ha permesso ai due pianeti per aprire un varco reciproco nel disco, e hanno iniziato a cedersi vicendevolmente momento angolare ed energia, quasi come una danza ritmata», dice Batygin. Ad un certo punto, quell’avanti e indietro avrebbe causato l’espulsione di tutto il gas presente tra i due pianeti, una condizione che avrebbe invertito la direzione di migrazione dei pianeti rimandandoli verso le zone esterne del sistema solare. (Da qui, la parte “tack”, letteralmente “virare”, dello scenario Gran Tack: i pianeti migrano verso l’interno e poi cambiare rotta in modo drammatico, qualcosa di simile a una barca che vira intorno a una boa).

In un modello precedente, sviluppato da Bradley Hansen della University of California di Los Angeles, i pianeti terrestri finiscono nelle loro orbite attuali con le loro masse attuali a seguito di un particolare insieme di circostanze. Tali circostanze prevedono che 10 milioni di anni dopo la formazione del Sole tutti mattoni che formeranno poi il sistema solare interno, detti planetesimi, occupino un anello che si estende da 0.7 a 1 unità astronomica (1 unità astronomica è la distanza media dal Sole alla Terra). Secondo lo scenario Gran Tack, il bordo esterno di questo anello sarebbe stato tracciato da Giove mentre si muoveva verso il Sole sul suo “nastro trasportatore”, creando un vuoto nel disco fino all’attuale orbita terrestre.

E per quanto riguarda il bordo interno? Perché i planetesimi si sono limitati spazialmente nella parte interna? «Questo punto non è stato affrontato», dice Batygin.

Konstantin Batygin ritiene che la risposta potrebbe risiedere nelle Super Terre primordiali. La zona vuota del sistema solare interno corrisponde quasi esattamente alla porzione orbitale dove si trovano in genere le Super Terre. è quindi ragionevole ipotizzare che questa regione, nelle fasi primordiali del sistema solare, sia stata ripulita di un gruppo di pianeti di prima generazione che non sono sopravvissuti.

I calcoli e le simulazioni prodotte da Batygin e Laughlin mostrano che mentre Giove si muoveva verso l’interno, ha trascinato con sé tutti i planetesimi incontrati lungo la strada, portandoli verso il Sole. Mentre i planetesimi si avvicinavano al Sole, le loro orbite sono diventate più ellittiche. «Non si può ridurre la dimensione di un’orbita senza pagare un prezzo, e tale prezzo risulta essere una umento di ellitticità», spiega Batygin. Queste nuove orbite più allungati hanno permesso ai planetesimi, soprattutto quelli con raggi dell’ordine di 100 km, di penetrare regioni precedentemente inesplorate del disco, scatenando collisioni a cascata tra i detriti. In realtà, i calcoli di Batygin mostrano che durante questo periodo ogni planetesimo si sarebbe scontrato con un altro oggetto, almeno una volta ogni 200 anni, con violenza tale da spezzarsi e cadere verso il Sole.

I ricercatori hanno sviluppato una simulazione finale per vedere cosa sarebbe successo a una popolazione di Super Terre nel sistema solare interno se si fossero trovati in quella zona quando questa cascata di collisioni fosse iniziata. Hanno effettuato la simulazione sfruttando i dati di un sistema extrasolare ben noto come Kepler-11, che dispone di sei Super Terre, con una massa totale parei a 40 volte quella della Terra, in orbita intorno ad una stella simile al Sole. Il risultato? Il modello prevede che le Super-Terre verrebbero guidate verso il Sole da una valanga di planetesimi in decomposizione nell’arco di un periodo di 20.000 anni.

«E’ un processo fisico molto efficace», dice Batygin. «Servono soltanto di un paio di masse terrestri per portare materiale pari a decine di masse terrestri nel Sole».

Batygin osserva che quando Giove ha effettuato la sua virata, alcune parti dei planetesimi che portava con sé si sarebbero potute fermare lungo orbite circolari. Basterebbe che circa il 10% del materiale travolto dal passaggio di Giove sia rimasto alle sue spalle per garantire la massa che oggi costituisce Mercurio, Venere, Terra e Marte.

A partire da quel momento, ci sarebbero voluti milioni di anni per permettere ai planetesimi di addensarsi e di formare il pianeti terrestri. Questo scenario si adatta bene ai dati che suggeriscono che la Terra si sia formata 100-200 milioni di anni dopo la nascita del Sole. Dal momento che il disco primordiale di idrogeno ed elio sarebbe ormai lontano nel tempo, questo potrebbe anche spiegare perché la Terra non ha una atmosfera composta di idrogeno. «Ci siamo formati da questi detriti volatili impoveriti», dice Batygin.

Tutto questo ci contraddistingue dalla maggioranza dei sistemi planetari extrasolari. Batygin si aspetta che la maggior parte degli esopianeti, per lo più Super Terre, abbiano atmosfere composte essenzialmente da idrogeno, poiché si formano in una fase dell’evoluzione del loro disco planetario durante la quale l’idrogeno è ancora abbondante. «In definitiva, ciò significa che i pianeti come la Terra non sono in realtà molto comuni», dice.

L’articolo suggerisce anche che la formazione di giganti gassosi come Giove e Saturno, un processo che gli scienziati ritengono relativamente raro, svolga un ruolo importante nel determinare se un sistema planetario evolve come il nostro o come i sistemi, più tipici, con Super Terre in orbite vicine alla propria stella. Più identificheremo nuovi sistemi planetari che ospitano giganti gassosi, più Batygin e Laughlin avranno dati con i quali potranno testare la propria ipotesi e verificare quanto spesso le migrazioni dei pianeti giganti inneschino cascate collisionali, spedendo le Super Terre primordiali sulla loro stella ospite.

SULLE “SPETTRALI AZIONI” EINSTEIN AVEVA TORTO

Là dove collassano le funzioni d’onda

Descritta su “Nature Communications” la prima verifica sperimentale del collasso non locale della funzione d’onda di una singola particella, fenomeno che Einstein riteneva fuori dalla realtà. Le misure sono state ottenute grazie al metodo della rivelazione omodina e alla tomografia quantistica

Rappresentazione schematica dei due "laboratori" dell'esperimento.  Crediti; Nature Communication

Albert Einstein proprio non riusciva a mandarla giù. «Non posso crederci seriamente», scriveva ancora nel 1947 in una lettera al collega Max Born riferendosi alla teoria quantistica, «perché non si può conciliare con l’idea che la fisica dovrebbe rappresentare una realtà nel tempo e nello spazio, libera da spettrali azioni a distanza». La “spettrale azione” – o inesplicabile, ospaventosa, a seconda di come vogliate rendere il tedesco spukhafte, tradotto con qualche incertezza in inglese come spooky – che Einstein non poteva accettare era quella implicita nel cosiddetto collasso della funzione d’onda. E in particolare quell’ossimorica coppia d’aggettivi – un collasso non locale e istantaneo – che lo caratterizzano: se una singola particella può essere descritta da una funzione d’onda che s’estende a distanze arbitrariamente grandi, come prevede la meccanica quantistica, senza mai però poter venir osservata in due o più luoghi, in quanto l’osservazione stessa in un luogo – la rilevazione – fa appunto collassare istantaneamente la funzione d’onda in tutti gli altri luoghi dell’universo… se così è, ragionava il nostro Albert preferito, che ne sarebbe del limite della velocità della luce? O, più in generale, del principio di località?

Decenni di conferme dei principi basilari della meccanica quantistica, e in particolare dei fenomeni di entanglement, hanno dimostrato che, per quanto controintuitiva e paradossale possa sembrare, la “spettrale azione a distanza” non è un abbaglio: avviene davvero. L’ennesima conferma sperimentale è descritta sul numero odierno di Nature Physics, a firma di un team di scienziati delle università di Tokyo, Varsavia e Brisbane (sede di uno dei cinque campus dell’australiana Griffith University). Spartendo tramite un beam splitter un singolo fotone fra due “laboratori”, Maria Fuwa e colleghi sono infatti riusciti a verificare sperimentalmente – e con una sola particella è la prima volta – che il collasso non locale della sua funzione d’onda, le cui proprietà sono state misurate grazie al metodo della rivelazione omodina e alla tomografia quantistica, è un fenomeno reale.

«Einstein non volle mai accettare la meccanica quantistica ortodossa, e l’argomento alla base del suo rifiuto era proprio questo della singola particella. Ecco perché è così importante dimostrare il collasso non locale della funzione d’onda con una particella soltanto», spiega Howard Wisemandella Griffith University, uno dei coautori dello studio, sottolineando la differenza tra questa conferma – nella quale il singolo fotone è da un certo punto di vista come in entanglement con se stesso – e quelle ottenute in precedenza con più particelle.

«Secondo Einstein, il fatto che la singola particella venisse rilevata sempre e solo in un punto si sarebbe potuto benissimo spiegare ipotizzando che la particella è sempre e solo in un punto, senza dover invocare il collasso istantaneo della funzione d’onda a un valore nullo in tutti gli altri punti», dice Wiseman, facendo riferimento alla celebre domanda che il padre della relatività rivolse una volta a Niels Bohr – “Davvero crede che la luna non sia là quando non c’è nessuno ad osservarla?”.

«Invece di rilevare la semplice presenza o assenza della particella, ci siamo avvalsi delle misurazioni omodine per consentire a una parte [quella di Alice, vedi figura] di compiere diverse misure e all’altra [quella di Bob] di verificare, con la tomografia quantistica, l’effetto di quelle scelte. Ebbene, attraverso queste diverse misure vediamo la funziona d’onda collassare in modi diversi, confermano così la sua esistenza», conclude Wiseman, «e mostrando che Einstein si sbagliava».

Per saperne di più:

L’ERUZIONE DELLA PROTOSTELLA HOPS 383

Stella in arrivo!

Era sfuggita ai software automatizzati che studiano la variabilità delle stelle nell’infrarosso, ma non agli occhi attenti di una astronoma neo laureata. Che ha così scoperto l’eruzione prodotta dalla più giovane protostella finora nota. Il commento di Fabrizio Massi, ricercatore dell’INAF

 Immagini nell'infrarosso raccolte dal Kitt Peak National Observatory (a sinistra) e dal telescopio spaziale Spitzer della nasa che testimoniano l'eruzione di HOPS 383, una giovane protostella nella zona di formazione stellare di Orione. L'immagine di sfondo è un mosaico di quattro immagini prese da Spitzer. Crediti: NASA/JPL-Caltech/Univ. of Toledo; sfondo, E. Safron et al.

Non è ancora una stella, ma ha già saputo come farsi notare, qui dalle nostre parti.HOPS 383 è infatti un denso agglomerato di gas e polveri che sta continuando a contrarsi e scaldarsi, ma non ha ancora raggiunto nel suo nucleo le condizioni necessarie ad avviare le reazioni di fusione nucleare dell’idrogeno che lo faranno accendere come un astro a tutti gli effetti. Per ora è solo quello che gli astronomi chiamano una protostella di classe 0, una fase evolutiva però tutt’altro che tranquilla: quest’oggetto ci ha infatti mostrato una potente emissione di energia.

«l’evento osservato in HOPS 383 è la prima violenta manifestazione mai registrata in un oggetto celeste di classe 0, e sembra essere un’eruzione prodotta dalla più giovane protostella finora nota» dice William Fischer, studente post-doc presso il Goddard Space Flight Center a Greenbelt, negli USA. Questo oggetto si trova in prossimità della nebulosa NGC 1977, in direzione della costellazione di Orione, a circa 1.400 anni luce di distanza, che è la più attiva fucina stellare tra quelle vicine a noi.

La fase evolutiva di una stella di Classe 0 dura circa 150 mila anni, ed è considerato il primo breve stadio di sviluppo per stelle come il Sole. In questa condizione, la protostella irradia solo l’energia termica liberata dalla sua contrazione e dall’accumulo di materiale dal disco di gas e polveri che la circonda, da cui in futuro potrebbero svilupparsi asteroidi, comete e pianeti. Non è stato quindi facile osservare questa eruzione, profondamente schermata dalla fitta nube di materia attorno alla protostella. A scovarla per la prima volta è stata l’astronoma Emily Safron subito dopo aver conseguito la laurea all’Università di Toledo in Ohio, Stati Uniti. C’è voluto però tutto il suo intuito e la sua costanza per arrivare alla scoperta: il software che aveva utilizzato per individuare variazioni nelle emissioni infrarosse registrate nelle survey dei satelliti Spitzer e WISE della NASA non aveva segnalato variabilità apprezzabili di questo oggetto. Solo un suo ulteriore controllo ‘ad occhio’ delle riprese in archivio è riuscito a mettere in evidenza il cambiamento nell’emissione della protostella. «Questa magnifica eruzione è sempre stata nascosta nel nostro campione di dati» ricorda Safron.

I dati rivisti dalla ricercatrice includevano le osservazioni di Spitzer alle lunghezze d’onda di 3.6, 4.5 e 24 micron e quelli di WISE a 3.4, 4.6 e 22 micron. HOPS 383 è così profondamente avvolta nella sua polvere che l’eruzione è passata del tutto inosservata nelle lunghezze d’onda più corte a cui era sensibile Spitzer, e una svista nella versione del catalogo consultato da Emily Safron ha inizialmente mascherato l’aumento di intensità della sorgente anche alle lunghezze d’onda più lunghe. Una sfortunata combinazione di fatti che spiega così il perché del mancato riconoscimento del fenomeno da parte del suo software.

Una volta scoperta però la vera natura della sorgente, sono stati raccolti ulteriori dati da Spitzer, dall’osservatorio spaziale Herschel dell’ESA e immagini dai telescopi infrarossi terrestri presso l’Osservatorio nazionale di Kitt Peak in Arizona e l’Atacama Pathfinder Experiment nel Cile settentrionale. I il team di ricercatori guidato da Safron ha così ricostruito l’andamento della luminosità di HOPS negli ultimi anni, come riportato in un articolo recentemente pubblicato sulla rivista The Astrophysical Journal. I primi segnali di un aumento della sua luminosità si hanno a partire dal 2006, come indicano i dati di Spitzer. Nel corso del 2008 HOPS 383 ha incrementato la sua brillantezza infrarossa alla lunghezza d’onda di 24 micron di ben 35 volte. I dati più recenti disponibili indicano poi che, a partire dal 2012, l’eruzione non mostra alcun segno di affievolimento.

«Uno dei problemi evidenziati dalle osservazioni è che spesso questi oggetti sono meno luminosi di quanto ci si aspetterebbe, quindi accrescono meno massa di quanto si può ragionevolmente predire» commenta Fabrizio Massi, astronomo INAF presso l’Osservatorio Astrofisico di Arcetri. «Questo ha portato ad un paradigma in cui l’accrescimento di massa non sarebbe costante nel tempo, ma avverrebbe in episodi brevi e intensi. E’ facile capire, da quanto detto sopra, che ogni aumento di massa accresciuta per unità di tempo aumenta l’energia cinetica dissipata e quindi la luminosità dell’oggetto stesso. Diviene quindi importante studiare la variabilità fotometrica (alle lunghezze d’onda in cui questi oggetti possono essere osservati) delle protostelle. Episodi significativi di aumento della luminosità in oggetti stellari giovani sono noti da tempo. Ad esempio, personalmente ho effettuato osservazioni interferometriche (col VLTI) della stella B di Herbig (cioè stelle più massicce del Sole non ancora entrate nella fase di sequenza principale) Z CMa, che nel 2008 mostrò un aumento di brillanza di ben 2 magnitudini nel visibile. Le stelle di tipo FU Ori, stelle di pre-sequenza di piccola massa, sono ben note per mostrare aumenti di luminosità. Posso citare il progetto POISSON, che coinvolge ricercatori italiani ed ha lo scopo di studiare la variabilità di oggetti stellari giovani, il quale ha evidenziato aumenti di luminosità in sorgenti di Classe I. L’interesse del lavoro di Safron et al. sta nell’aver individuato per la prima volta una variazione di luminosità in una Sorgente di Classe 0, cioè in una fase estremamente giovane nella vita di una protostella. In conclusione, questo tipo di osservazioni sembra suggerire la fondatezza del paradigma della crescita non costante della massa di una protostella, con brevi episodi di crescita intensa, ma  è necessaria una statistica molto più robusta per confermarlo. Inoltre, è evidente come anche dove ci siamo formati un quadro abbastanza plausibile della formazione stellare rimangano ancora molti elementi poco chiari da indagare. Per non parlare della formazione di stelle massicce o in ammassi, per le quali il quadro che abbiamo è ancora largamente incompleto».

Per saperne di più:

  • l’articolo HOPS 383: An Outbursting Class 0 Protostar in Orion di Emily J. Safron et al. pubblicato sulla rivista The Astrophysical Journal

DAL ‘SETTORE OSCURO’ AI BUCHI NERI

Nexus, una soluzione alla gravità quantistica?

Secondo uno studio recente condotto da Stuart Marongwe, la via per riconciliare i fenomeni fisici del mondo macroscopico e di quello microscopico passerebbe attraverso una nuova teoria della gravità quantistica che non solo permetterebbe di descrivere i buchi neri ma potrebbe far luce sulla materia oscura e sull’energia oscura, i due misteri più profondi della fisica moderna

Una nuova teoria della gravità quantistica, proposta da uno studente di fisica laureatosi di recente alla Jose Varona University dell’Havana, a Cuba, potrebbe fornire lo strumento per risolvere il conflitto tra relatività generale e meccanica quantistica, permettendo così di dare non solo una spiegazione più appropriata della fenomenologia legata ai buchi neri ma anche di ricavare preziosi indizi sulla natura della materia oscura e dell’energia oscura.

Se si chiede a un teorico quali sono i misteri più profondi della fisica moderna, si rimane sorpresi se la risposta è tutt’altro che legata alla gravità quantistica o al cosiddetto “settore oscuro” dell’Universo. Oggi, i temi più caldi e che lasciano i fisici davvero svegli fino a tarda notte riguardano sostanzialmente alcune problematiche, ad esempio, sulla riconciliazione della relatività generale con la meccanica quantistica e tutti gli sforzi che da qualche decennio tentano di risolvere gli enigmi sulla natura della materia oscura e dell’energia oscura. 

La relatività generale e la meccanica quantistica rappresentano attualmente le due teorie più complete e più esatte che ci permettono di descrivere, rispettivamente, le stelle, le galassie e l’Universo su larga scala e il mondo degli atomi e delle particelle elementari. Nonostante ciò, le due teorie sono in contrasto tra loro. Il mondo della meccanica quantistica è bizzarro, pieno di stranezze e dove si può solo prevedere la probabilità con cui si verifica un determinato fenomeno fisico. Einstein dubitò sempre sul fatto che l’Universo si comportasse in maniera casuale e imprevedibile perchè riteneva invece che esistessero regole ben precise che governassero le leggi della fisica.

Per decenni, i numerosi tentativi di descrivere la gravità con il linguaggio della meccanica quantistica non hanno dato buoni frutti e, dopo la morte di Einstein, nessun scienziato ha preso seriamente in considerazione il problema di unificare le leggi della natura. Da allora, la fisica è come divisa in due branche, da un lato la relatività generale che descrive i fenomeni dell’universo macroscopico e dall’altro la meccanica quantistica che ci spiega come funziona il mondo microscopico. E’ un pò come avere due famiglie che pur vivendo nella stessa casa non vanno d’accordo e non si parlano mai. Sebbene entrambe le teorie descrivono con precisione il dominio in cui esse sono valide, sembra che non sia possibile conciliarle in un’unica teoria che sia in grado di descrivere l’Universo a tutti i livelli.

Le soluzioni proposte per risolvere questi problemi sono molteplici ma non forniscono delle spiegazioni adeguate. Tuttavia, la situazione sta cambiando perchè Stuart Marongwe, ora presso ilDipartimento di Fisica del McConnell College in Botswana, ha proposto una teoria della gravità quantistica autoconsistente che non solo permette di spiegare il settore oscuro dell’Universo ma sembra essere in accordo con le osservazioni. La teoria è stata chiamata “Nexus”, che letteralmente vuol dire “connessione”, nel senso che permette di connettere in qualche modo la relatività generale con la teoria quantistica. Secondo l’autore, questa sorta di “magico collegamento” si manifesterebbe nella forma di una particolare particella dello spaziotempo, detta “gravitone Nexus”, che emerge in maniera quasi naturale dal processo di unificazione.

Una caratteristica interessante del gravitone Nexus, e che lo distingue dal gravitone postulato dalmodello standard delle particelle elementari, è che non si tratta di una “particella-mediatrice” piuttosto essa induce un moto di rotazione costante su ogni particella che si trova all’interno del suo raggio d’azione. Inoltre, il gravitone Nexus può essere considerato come una sorta di “globulo” dell’energia del vuoto in grado di fondersi o separarsi da altri globuli in un processo simile alla citocinesi della biologia cellulare. Dunque, secondo la teoria, questo processo si manifesterebbe sotto forma di energia oscura e avrebbe luogo in tutto lo spazio.

In conclusione, l’articolo sembra interessante perché tenta comunque di far luce su alcune questioni aperte della fisica che includono, tra l’altro, la descrizione quantistica dei buchi neri. Ad ogni modo, anche se un teorico della gravità quantistica possa trascorrere un anno lavorando su qualche teoria che poi nessuno si aspetta funzioni, le soluzioni proposte da Marongwe apriranno, almeno così spera l’autore, nuove finestre ad una fisica alternativa.


International Journal of Geometric Methods in Modern Physics: Stuart Marongwe – The Schwarzschild solution to the Nexus graviton field

IZW18, UN CASO DAVVERO SPECIALE

Una galassia alla Dorian Gray

Un nuovo studio sulla galassia nana IZw18, pubblicato su Astrophysical Journal, ha permesso di identificare vaste regioni di elio ionizzato fornendo una interpretazione alternativa sull’origine della radiazione ionizzante presente in questo oggetto. Questo studio mostra come sia possibile estrarre l’informazione sulla storia dell’Universo anche studiando oggetti abbastanza vicini al nostro ambiente galattico. Il commento di Monica Tosi, Vice Presidente INAF

IZw18_HSTUno studio condotto da un gruppo di ricercatori guidati da Carolina Kehrig, una ricercatrice presso l’Institute of Astrophysics of Andalusia, ha permesso di identificare vaste regioni di elio ionizzato nell’oggetto I Zwicky 18(IZw18), una galassia nana irregolare situata a quasi 60 milioni di anni luce dalla Terra nella costellazione dell’Orsa Maggiore. I risultati, pubblicati su Astrophysical Journal, permettono da un lato di far luce su un problema astrofisico, proponendo una nuova interpretazione sull’origine della radiazione ionizzante presente in questa galassia, e dall’altro di ricavare indirettamente degli indizi sulle condizioni fisiche che caratterizzavano l’Universo primordiale.

Le prime galassie, apparse circa 13,3 miliardi di anni fa, sono composte sostanzialmente da idrogeno ed elio, che rappresentano gli elementi principali formatesi subito dopo il Big Bang. Finora, lo studio di queste galassie primordiali è risultato tecnicamente difficile a causa dell’enorme distanza. Tuttavia, gli astronomi escogitano una sorta di “trucco”: osservare galassie analoghe e più vicine in termini di distanze cosmiche. «Nell’universo locale, IZw18 è la galassia nana che presenta la più bassa abbondanza di metalli ed è quella che assomiglia di più alle galassie primordiali», spiega Carolina Kehrig, una ricercatrice presso l’Institute of Astrophysics of Andalusia e autrice principale dello studio. «Essa ci permette di ricavare preziosi indizi sulle condizioni fisiche che caratterizzavano l’Universo delle origini».

Lo studio ha permesso di trovare in questo oggetto vaste regioni di elio ionizzato, che tende ad essere più frequente nelle galassie più distanti che hanno una bassa percentuale di metalli. La ionizzazione dell’elio implica la presenza di oggetti che emettono una radiazione così intensa da “strappare” gli elettroni agli atomi di elio. «Il nostro gruppo propone una nuova interpretazione sull’origine di questa radiazione nella galassia IZw18, un problema astrofisico che non è stato ancora chiarito», dice Kehrig.

Grazie all’uso dello spettrografo PMAS installato presso il telescopio di 3,5 metri dell’Osservatorio di Calar Alto, i ricercatori hanno ottenuto la prima immagine dettagliata di questa regione di IZw18 per cui è stato possibile analizzare le sorgenti di radiazione ionizzante. Le sorgenti tradizionali di radiazione ionizzante, come le stelle Wolf-Rayet, oggetti massicci che esibiscono violenti venti stellari oppure onde d’urto generate dai resti di supernova, non forniscono quell’energia necessaria per spiegare l’alone di elio ionizzato presente nella galassia IZw18, perciò gli astronomi hanno considerato altre possibilità. «I nostri dati puntano al fatto che le stelle estremamente calde, come quelle supermassicce che hanno un basso contenuto di metalli, o quelle che sono praticamente prive di metalli, possono essere la chiave per risolvere l’enigma dell’elio ionizzato nella galassia IZw18, anche se l’esistenza di queste stelle non è stata ancora confermata dalle osservazioni», continua Kehrig.

Dovremmo parlare di stelle super calde analoghe a quelle della prima generazione, note comestelle di popolazione III, che secondo i modelli teorici sarebbero costituite quasi esclusivamente da idrogeno ed elio e potrebbero essere centinaia di volte più massicce del Sole. Gli scienziati ritengono che queste stelle abbiano giocato un ruolo decisivo nel processo di reionizzazione dell’Universo durante il quale le prime stelle e le prime galassie sono diventate visibili e di cui sappiamo ancora molto poco.

«IZw18 è stata sempre una galassia speciale che attira curiosità perché mostra sempre situazioni estreme», spiega a Media INAF Monica Tosi, Vice Presidente INAF – Osservatorio Astronomico di Bologna. «E’ la galassia più povera di metalli fra quelle con forte formazione stellare in atto. Per giunta contiene un’altissima percentuale di gas e la concomitanza di queste circostanze suggerì, quando fu studiata per la prima volta, una trentina di anni fa (anche se identificata da Fritz Zwicky negli anni ’30), che fosse una galassia giovanissima, appena formata, e quindi praticamente una galassia ‘primordiale’ dietro l’angolo (si fa per dire: si trova comunque a 18 Megaparsec), invece che ai confini dell’Universo. Da allora l’hanno studiata in tanti e non ha mai smesso di stupire. La sorpresa più grande è stata quando l’Hubble Space Telescope mostrò prima indizi concreti (Aloisi et al. 1999), poi prove inoppugnabili (Aloisi et al. 2007Annibali et al. 2013), tutti articoli a firma INAF o di collaboratori INAF, sul fatto che IZw18 non è affatto giovane, ma contiene stelle vecchie di miliardi di anni. Ad un congresso intitolai un mio intervento su di lei ‘IZw18, il ritratto di Dorian Gray’, perché davvero ricorda il protagonista di Oscar Wilde che rimaneva giovane e bello a dispetto del passare degli anni e delle nefandezze che compiva (che però invecchiavano e imbruttivano inesorabilmente il suo ritratto)».

«L’articolo in questione presenta uno studio spettroscopico dell’elio ionizzato e mostra che ancora una volta IZw18 è davvero un caso speciale, perché gli autori hanno misurato un flusso ben superiore a quel che si ci potrebbe aspettare da stelle massicce ‘normali’. La loro ipotesi è che questa emissione anomala sia prodotta da stelle molto massicce (con massa superiore a 300 volte la massa del Sole) e di bassissima metallicità, o addirittura da stelle praticamente senza metalli (con composizione chimica primordiale) che ruotano a velocità elevate. Ipotesi interessanti che vale certamente la pena approfondire con ulteriori studi, sia spettroscopici che fotometrici», conclude Monica Tosi.


The Astrophysical Journal Letters: C. Kehrig et al. – THE EXTENDED He II λ4686-EMITTING REGION IN IZw 18 UNVEILED: CLUES FOR PECULIAR IONIZING SOURCES

arXiv: THE EXTENDED HEIIλ4686-EMITTING REGION IN IZW18 UNVEILED: CLUES FOR PECULIAR IONIZING SOURCES