428 resultados para Profili sismici, corpi sedimentari sepolti, erosione, dinamica costiera.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Propagazione di luce in mezzi disordinati: Misure di trasporto diffusivo tramite imaging stazionario
Resumo:
Nel presente lavoro di tesi è stato effettuato uno studio del trasporto di luce in sistemi diffusivi. Per effettuare tale studio è stato allestito un apparato sperimentale ottimizzato per acquisire profili di trasmissione risolti spazialmente di campioni con geometria a slab. Tramite delle misure su un campione diffusivo di riferimento è stato valutato il funzionamento dell’apparato e sono stati effettuati dei test per ottimizzare il procedimento di misurazione. L’apparato è stato poi impiegato per condurre un’analisi del trasporto in un altro sistema disordinato particolarmente interessante, una scaglia di scarafaggio bianco Chyphochilus. Questa specie presenta una bianchezza unica in natura, per via della particolare struttura ottica insita nelle sue scaglie. Le misure effettuate su questo campione hanno rivelato la presenza di anisotropia di trasporto, elemento che potrebbe rivestire un ruolo centrale nelle eccezionali proprietà macroscopiche della scaglia. Sia l’analisi sul campione diffusivo che sulla scaglia di Chyphochilus dimostrano come l’apparato messo a punto permetta di investigare le proprietà microscopiche e strutturali del processo di trasporto di luce, consentendo di stimare il grado di anisotropia dei sistemi esaminati. L’intero lavoro di tesi è stato svolto presso il laboratorio Europeo di Spettroscopia Non-lineare LENS di Firenze all’interno dell’attività di ricerca del gruppo di ottica dei sistemi complessi di Diederik Wiersma. Il campione di scaglia di Chyphochilus è stato fornito dal prof. Peter Vukusic dell’Università di Exeter, UK.
Resumo:
Questa tesi tratta di problemi dislocativi in spazi elastici, utili per rappresentare campi di spostamento, deformazione e sforzo generati da sorgenti interne. In particolare, considerando la Terra come un corpo elastico, i problemi trattati si riferiscono alla descrizione dei campi di sforzo in prossimità della superficie terrestre, lo studio della cui deformazione rappresenta uno dei più utili metodi di indagine delle sorgenti sismiche e vulcaniche. È possibile, con ottima approssimazione, descrivere la superficie terrestre come una superficie libera, ovvero una superficie su cui le trazioni applicate dall'esterno sono nulle. Tale approssimazione, per il tipo di studio cui mira questa trattazione, è giustificata dal fatto che le sorgenti sismiche sono situate solitamente a diversi chilometri di profondità, dove risulta legittimo trascurare le forze esterne dovute a pressione atmosferica, azione di correnti d'aria, forze di gravità esercitata dal Sole ed altri corpi celesti, etc. Volendo studiare regioni con dimensioni lineari molto inferiori al raggio terrestre, è possibile approssimare la Terra ad un semispazio elastico omogeneo con superficie libera orizzontale. Nel seguito si farà riferimento ad un sistema cartesiano ortogonale con assi y e z diretti lungo l'orizzontale e asse x diretto verticalmente verso l'interno del semispazio. La superficie terrestre è perciò descritta dal piano x=0 e, denotando con T_ij il tensore di sforzo, la condizione di superficie libera risulta: Txx = Txy = Txz = 0; in x = 0. Nella tesi sono esposti alcuni metodi che consentono di estendere soluzioni già note per spazi elastici illimitati al caso di semispazi delimitati da una superficie libera.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Nella tesi che si presenta si è determinata la riduzione percentuale di vulnerabilità sismica di un edificio residenziale, sito a Reggiolo (RE), in seguito ad interventi di riabilitazione e miglioramento sismico con l'introduzione di setti e travi di coronamento in cemento armato. Il punto di partenza è l'analisi delle caratteristiche geometriche dell'edificio, ottenute mediante gli elaborati originali, e le caratteristiche meccaniche dei materiali che compongono la struttura, ottenute mediante prove in situ distruttive e non distruttive. Il punto successivo è stato la creazione di un modello numerico dell'edificio pre-intervento utilizzando il programma commerciale PROSAP, su cui si è eseguita un'analisi dinamica lineare con spettro di progetto da cui si sono determinare le principali criticità e inadeguatezze della struttura nei confronti di un carico sismico. Lo studio è passato alla struttura post-intervento modellando la presenza dei setti verticali e delle travi di coronamento. Dal confronto fra l'analisi dinamica lineare pre e post-intervento si è dedotto un elevato miglioramento sismico con passaggio da un indice di vulnerabilità iniziale pari a 0.02 ad un indice post-intervento pari a 1. Per validare numericamente questi risultati si è eseguita una analisi statica non lineare (pushover) dell'edificio pre-intervento.
Resumo:
La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Le Nubi di Magellano sono una coppia di galassie irregolari molto vicine alla nostra. La loro vicinanza le ha rese target ideali per molti studi, tra cui ricerche sulla formazione ed evoluzione di popolazioni stellari. Da questi studi è emerso che una delle principali differenze tra le Nubi e la MW sta nella popolazione di ammassi globulari: circa il 20% degli ammassi di LMC, infatti, appartiene a una coppia. Si tratta di distinguere tra coppie reali o apparenti, cercando sistemi legati. Questo può essere fatto per via spettrometrica (attraverso velocità radiali o composizione chimica) e/o fotometrica (attraverso stima dell'età e profili di densità). In questo lavoro vengono analizzate fotometricamente tre coppie di LMC, al fine di determinarne la natura per migliorare le statistiche esistenti e porre dei constrain sulle conoscenze a disposizione.
Resumo:
il profilo verticale del gas dipende sia dal potenziale galattico, e quindi dalla distribuzione di materia, sia dalla dispersione di velocit`a del gas La nostra analisi teorica ha mostrato che l’altezza scala dell’idrogeno gassoso ad un certo raggio `e fortemente legata alla componente di massa dominate: nelle parti centrali, dove domina la materia barionica, il disco gassoso incrementa il suo spessore esponenzialmente con una lunghezza scala pari al doppio di quella del disco stellare; dalle zone intermedie fino alla fine del disco, il profilo verticale del gas `e influenzato dalla distribuzione di DM. In queste zone lo spessore del disco gassoso cresce con il raggio in maniera circa lineare. Tale fenomeno viene definito gas flaring. Lo scopo principale di questa tesi `e la ricerca di una nuova tecnica per poter stimare il profilo vertical del gas in galassie con inclinazione intermedia.
Resumo:
I GC rappresentano i laboratori ideali nei quali studiare la dinamica stellare e i suoi effetti sull'evoluzione stellare; infatti, sono gli unici sistemi astrofisici soggetti a quasi tutti i processi fisici noti nella dinamica stellare, entro il tempo scala dell'età dell'Universo. Questo lavoro di tesi si inserisce nell'ambito di un progetto di ricerca che mira ad una dettagliata caratterizzazione dell'evoluzione dinamica dei GC della Galassia. In particolare, la misura delle velocità radiali di un ampio campione di stelle poste a differenti distanze dal centro dell’ammasso permette di derivare il profilo di dispersione di velocità del sistema,il quale ne riflette lo stato dinamico ed è utile per verificare la possibile presenza di un buco nero di massa intermedia al centro dell'ammasso. Lo studio delle velocità radiali delle singole stelle può altresì fornire informazioni riguardo la distribuzione di massa del sistema,oltreché la presenza di un'eventuale rotazione. Inoltre, la conoscenza della sola distribuzione di densità non è sufficiente a vincolare univocamente i modelli e fornire una visione completa della fisica dei GC, in quanto ad ogni determinato profilo di densità possono corrispondere diverse condizioni dinamiche. La contemporanea conoscenza del profilo di dispersione di velocità e della eventuale curva di rotazione permette di rimuovere la degenerazione causata dalla sola conoscenza del profilo di densità. Seguendo un approccio multi-strumentale,è possibile campionare l'intera estensione radiale dell'ammasso globulare: con lo spettrografo FLAMES, le regioni esterne (da distanze di circa 20 arcsec dal centro fino al raggio mareale dell'ammasso), con lo spettrografo KMOS, quelle intermedie e con lo strumento IFU ad ottiche adattive SINFONI, le regioni centrali (pochi arcsec dal centro). Questo lavoro di tesi consiste nell'analisi di spettri ad alta risoluzione acquisiti con FLAMES per un grande campione di stelle (979) localizzate nelle regioni esterne dell'ammasso NGC 2808,con lo scopo di misurare le loro velocità radiali.
Resumo:
Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
La presenta tesi ha come obiettivo la modellazione, tramite il software Matlab Simulink, di un motore a combustione interna ad accensione comandata nelle sue parti fondamentali ed il relativo veicolo. Le parti modellate inerenti al gruppo termico sono quelle di produzione coppia, il sistema di aspirazione con un modello statico e uno dinamico ed, infine, il sistema di scarico. Per quanto riguarda la parte veicolo si implementa la dinamica della driveline e quella longitudinale del mezzo stesso. Il simulatore deve essere costituito da un layout modulare e ha come ipotesi fondamentale quella di poter lavorare in real-time, quindi si utilizza un modello zero-dimensionale e con valori costanti all'interno di un singolo ciclo motore. In conclusione, viene mostrato come implementare il modello in un sistema SIL per poterne testare il funzionamento in tempo reale e visualizzare i risultati da esso prodotti.
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .