442 resultados para Astronomia nàutica
Resumo:
In questo elaborato si trattano le soluzioni possibili del Problema dei Tre Corpi nell'ambito della Meccanica Celeste. Nella prima parte viene proposta una trattazione matematica del problema legata alla Meccanica Analitica; nella seconda parte si confrontano i risultati trovati con esempi reali presenti nel Sistema Solare.
Resumo:
In questo lavoro si affronta il tema della rilevazione fotometrica di esopianeti in transito attraverso la tecnica della fotometria differenziale e l'impiego di piccoli telescopi commerciali. Dopo un'introduzione sull'attuale stato della popolazione di esopianeti, verranno analizzati i sistemi extrasolari transitanti, da cui è possibile ricavare grandezze orbitali e fisiche che nessun altro metodo, attualmente, è in grado di garantire. Nella seconda parte verranno affrontate le problematiche relative alla rilevazione fotometrica dei transiti, sviluppando una tecnica di acquisizione e riduzione dei dati semplice, veloce e che possa allo stesso tempo garantire la precisione richiesta, di almeno 0.002 magnitudini. Questa verrà messa alla prova su due esopianeti che soddisfano le richieste di precisione sviluppate nel testo. Verrà dimostrato che con uno strumento da 0.25 m e una camera CCD commerciale, da cieli affetti da moderato inquinamento luminoso, è possibile ottenere curve di luce con una precisione dell'ordine di 0.001 magnitudini per astri con magnitudini comprese tra 8 e 13, comparabili con le accuratezze di strumenti di taglia professionale. Tale precisione è sufficiente per rilevare pianeti gioviani caldi e persino pianeti terrestri in transito attorno a stelle di classe M e dare un aiuto importante alla ricerca di punta. Questo verrà dimostrato presentando la sessione fotometrica con cui è stato scoperto il transito dell'esopianeta HD17156 b, il primo rilevato da strumentazione amatoriale. Con tecniche di ripresa simultanea attraverso setup identici è possibile aumentare la precisione di un fattore √N, dove N è il numero di telescopi impiegati in una sessione fotometrica, supposti raggiungere la stessa precisione. Tre strumenti come quello utilizzato nelle sessioni presentate nel testo sono sufficienti per garantire un campionamento temporale di almeno 0.13 dati/minuto e una precisione di 0.0006 magnitudini, ovvero di 500 ppm, non molto distante dal limite di 200 ppm attualmente raggiunto dai più grandi telescopi terrestri.
Resumo:
L’idrogeno è l’elemento chimico più semplice, leggero e abbondante nell’universo. L’atomo è composto da un nucleo, nella maggior parte dei casi formato da un unico protone o al più da un protone e un neutrone (che formano l’isotopo meno stabile detto deuterio), e da un elettrone che orbita attorno al nucleo. Per tale motivo viene classificato come il primo elemento della tavola periodica, con simbolo H e con numero atomico pari ad 1 (Z = 1) e stesso numero di massa (o numero di massa pari a 2 per il deuterio A = 2). Dal punto di vista isotopico l’idrogeno è composto per il 99.985% da prozio (idrogeno con A=1) e per il 0,015% da deuterio (A=2). Tutti gli altri isotopi sono instabili e meno abbondanti in natura. Data la sua semplicità l’idrogeno è il primo elemento formatosi dopo il Big Bang e da ciò ne deriva la sua abbondanza nell’universo e dunque la sua importanza in astrofisica.
Resumo:
Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entità di- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.
Resumo:
Descrizione dal punto di vista fisico e astronomico dell'effetto Doppler con particolare attenzione all'utilizzo astrofisico
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
La radiazione elettromagnetica è una singola entità, come si deduce dall’universalità delle leggi di Maxwell, nonostante lo spettro elettromagnetico sia caratterizzato da regioni a cui si associano nomi differenti. Questo implica l’esistenza di un meccanismo fondamentale comune alla base di tutti i processi di radiazione, che si identifica in una carica in moto non uniforme. Infatti una carica stazionaria ha un campo elettrico costante e un campo magnetico nullo, quindi non irradia; lo stesso vale per una carica in moto uniforme. La radiazione di Bremsstrahlung, che avviene nel continuo, spaziando dal radio ai raggi gamma, fu scoperta negli anni ’30 del secolo scorso, in seguito all’osservazione che la perdita di energia che subisce un elettrone attraversando la materia non è data unicamente dalla ionizzazione: l’elettrone, accelerato dal nucleo ionizzato, irradia e, di conseguenza, viene frenato. Letteralmente “Bremsstrahlung“ significa “radiazione di frenamento” e in astrofisica rappresenta il principale meccanismo di raffreddamento di un plasma a temperature molto elevate; nel seguente elaborato tale plasma sarà considerato monoatomico e completamente ionizzato. Dall’analisi dello spettro di Bremsstrahlung si possono rilevare la temperatura e la misura di emissione della nube di gas osservato, che consentono di ricavare la densità, la massa e la luminosità della nube stessa. Nel capitolo 1 vengono riportate la descrizione di questo processo di radiazione e le principali formule che lo caratterizzano, illustrate in ambiente semiclassico (Bremsstrahlung termica) e in ambiente relativistico (Bremsstrahlung relativistica). Nel capitolo 2 segue la trattazione di alcuni esempi astrofisici: le regioni HII; il gas intergalattico degli ammassi di galassie ed emettono principalmente nella banda X; le galassie Starburst; le binarie X; la componente elettronica dei raggi cosmici e i brillamenti solari; infine un accenno agli oggetti di Herbig-Haro.
Resumo:
Con la presente Tesi si vuole trattare lo Stato Degenere della materia. Nella prima parte si presenteranno le caratteristiche fisiche principali: limite di non degenerazione, differenze tra bosoni e fermioni, equazioni di stato e distribuzioni di velocità. Nella seconda parte si introdurranno i risvolti astrofisici più interessanti: pressione negli interni stellari, nane bianche, stelle di neutroni e Supernovae di tipo Ia.
Resumo:
Nella tesi vengono trattati i fenomeni di urto tra fotoni e elettroni, nella fattispecie si riconoscono tre urti differenti: lo scattering Thomson, Compton e Compton Inverso (IC). L'attenzione viene focalizzata sull'effetto IC. Una volta riportati i risultati sui tre processi sopracitati, il testo prosegue con la trattazione del problema di interesse astrofisico, ovvero la Comptonizzazione. La Comptonizzazione è il caso più generale in cui IC e effetto Compton competono, e stabilisce come lo spettro fotonico viene modificato a causa delle interazioni col plasma. Vengono in seguito trattati due interessanti applicazioni astrofisiche della Comptonizzazione: l' effetto Sunyaev-Zel'Dovich e il Synchrotron-self-Compton.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
Questo lavoro riguarda la sintesi e caratterizzazione di nanoparticelle basate sul magnesio per l'immagazzinamento di idrogeno. Le nanoparticelle sono state cresciute mediante Inert Gas Condensation, una tecnica aerosol in cui il materiale viene sublimato e diretto verso i substrati tramite un flusso di gas inerte, e caratterizzate attraverso microscopia elettronica e diffrazione di raggi X. Queste operazioni sono state eseguite presso il Dipartimento di Fisica e Astronomia dell'Università di Bologna. Sono stati sintetizzati due tipi di particelle: nel primo il magnesio viene deposto direttamente sul substrato, nel secondo esso incontra un flusso di ossigeno prima di depositarsi sulla superficie. In questo modo si formano delle particelle con struttura core-shell in cui la parte interna è formata da magnesio e quella esterna dal suo ossido. La presenza di una shell consistente dovrebbe permettere, secondo il modello di deformazioni elastiche, di diminuire il valore assoluto dell'entropia di formazione dell'idruro di magnesio, condizione necessaria affinché il desorbimento di idrogeno possa avvenire in maniera più agevole rispetto a quanto non accada col materiale bulk. Tutti i campioni sono stati ricoperti di palladio, il quale favorisce la dissociazione della molecola di idrogeno. La capacità di assorbimento dell'idrogeno da parte dei campioni è stata studiata mediante idrogenografia, una tecnica ottica recentemente sviluppata in cui la quantità di gas assorbita dal materiale è legata alla variazione di trasmittanza ottica dello stesso. Le misure sono state eseguite presso l'Università Tecnica di Delft. I risultati ottenuti evidenziano che le nanoparticelle di solo magnesio mostrano dei chiari plateau di pressione corrispondenti all'assorbimento di idrogeno, tramite cui sono stati stimati i valori di entalpia di formazione. Al contrario, i campioni con struttura core-shell, la cui crescita rappresenta di per sé un risultato interessante, non presentano tale comportamento.
Resumo:
In this thesis work we will explore and discuss the properties of the gamma-ray sources included in the first Fermi-LAT catalog of sources above 10 GeV (1FHL), by considering both blazars and the non negligible fraction of still unassociated gamma-ray sources (UGS, 13%). We perform a statistical analysis of a complete sample of hard gamma-ray sources, included in the 1FHL catalog, mostly composed of HSP blazars, and we present new VLBI observations of the faintest members of the sample. The new VLBI data, complemented by an extensive search of the archives for brighter sources, are essential to gather a sample as large as possible for the assessment of the significance of the correlation between radio and very high energy (E>100 GeV) emission bands. After the characterization of the statistical properties of HSP blazars and UGS, we use a complementary approach, by focusing on an intensive multi-frequency observing VLBI and gamma-ray campaign carried out for one of the most remarkable and closest HSP blazar Markarian 421.
Resumo:
We have used high-resolution spectra, acquired with UVES@ESO-VLT, to determine the chemical abundances of different samples of AGB and RGB stars in 4 Galactic globular clusters, namely 47Tuc, NGC3201, M22 and M62. For almost all the analyzed AGB stars we found a clear discrepancy between the iron abundance measured from neutral lines and that obtained from single ionized lines, while this discrepancy is not obtained for the RGB samples observed in the same clusters and analyzed with the same procedure. Such a behavior exactly corresponds to what expected in the case of Non-Local Thermodynamical Equilibrium (NLTE) in the star atmosphere. These results have a huge impact on the proper determination of GC chemistry. In fact, one of the most intriguing consequences is that, at odds with previous claims, no iron spread is found in NGC3201 and M22 if the iron abundance is obtained from ionized lines only.
Resumo:
The way mass is distributed in galaxies plays a major role in shaping their evolution across cosmic time. The galaxy's total mass is usually determined by tracing the motion of stars in its potential, which can be probed observationally by measuring stellar spectra at different distances from the galactic centre, whose kinematics is used to constrain dynamical models. A class of such models, commonly used to accurately determine the distribution of luminous and dark matter in galaxies, is that of equilibrium models. In this Thesis, a novel approach to the design of equilibrium dynamical models, in which the distribution function is an analytic function of the action integrals, is presented. Axisymmetric and rotating models are used to explain observations of a sample of nearby early-type galaxies in the Calar Alto Legacy Integral Field Area survey. Photometric and spectroscopic data for round and flattened galaxies are well fitted by the models, which are then used to get the galaxies' total mass distribution and orbital anisotropy. The time evolution of massive early-type galaxies is also investigated with numerical models. Their structural properties (mass, size, velocity dispersion) are observed to evolve, on average, with redshift. In particular, they appear to be significantly more compact at higher redshift, at fixed stellar mass, so it is interesting to investigate what drives such evolution. This Thesis focuses on the role played by dark-matter haloes: their mass-size and mass-velocity dispersion correlations evolve similarly to the analogous correlations of ellipticals; at fixed halo mass, the haloes are more compact at higher redshift, similarly to massive galaxies; a simple model, in which all the galaxy's size and velocity-dispersion evolution is due to the cosmological evolution of the underlying halo population, reproduces the observed size and velocity-dispersion of massive compact early-type galaxies up to redshift of about 2.