1000 resultados para indirizzo :: 837 :: Curriculum A: Generale
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
Nella presente tesi ci si pone lo scopo di studiare stabilità, ciclabilità e cinetica di campioni composti da magnesio e titanio (Mg-Ti) prodotti con la tecnica della condensazione in gas inerte (IGC) per lo di stoccaggio di idrogeno. Il sistema Mg-Ti sembra essere un buon candidato per poter costruire serbatoi di idrogeno allo stato solido sia per applicazioni fisse che mobili. La ricerca di tecnologie efficaci per immagazzinare idrogeno è fondamentale per poter affermare un ciclo energetico sostenibile, svincolato dai combustibili fossili. Sia il lavoro di crescita dei campioni all'Università di Bologna, sia la caratterizzazione di questi nei laboratori dell' Institut de Chimie et des Materiaux Paris-Est (ICMPE) si collocano all'interno del progetto europeo COST per la ricerca di materiali nanostrutturati destinati ad applicazioni nel campo dello stoccaggio dell'energia in forma di idrogeno allo stato solido.
Resumo:
La microscopia Kerr magneto-ottica è una tecnica di caratterizzazione magnetica che permette di ottenere informazioni sulla magnetizzazione superficiale di un campione ferromagnetico. La sensibilità locale e superficiale di questa tecnica, che è determinata sia dalla capacità di un microscopio ottico di ottenere un'immagine della superficie del campione che dalla profondità di penetrazione della luce visibile nei metalli, la rende adatta allo studio delle proprietà fisiche di nanostrutture magnetiche. Attraverso l'uso del microscopio Kerr di proprietà del Gruppo di Nanomagnetismo parte del Centro Cooperativo di Ricerca nanoGUNE Consolider (San Sebastian - Spagna), è stato possibile indagare l'effetto dato dall'anisotropia di scambio in nanostrutture magnetiche, per capire il comportamento di tale effetto in geometrie confinate al variare della temperatura. Questo studio ha permesso di individuare i limiti dello strumento e di conseguenza di estenderne le funzionalità. I principali interventi eseguiti hanno riguardato la stabilizzazione meccanica del sistema e lo sviluppo di un nuovo programma di acquisizione dati. Inoltre, la capacità di ottenere cicli di isteresi da singole nanostrutture magnetiche è stata sfruttata nello sviluppo di un nuovo tipo di dispositivo per la manipolazione di nanoparticelle magnetiche in soluzione, il cui principio di funzionamento si basa sulla mobilità delle pareti di dominio all'interno di anelli ferromagnetici con dimensione micro o nanometrica e sull'accoppiamento magnetostatico tra tali pareti di dominio e nanoparticelle superparamagnetiche trasportate in soluzione.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.
Resumo:
Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.
Resumo:
The objective of this dissertation is to study the structure and behavior of the Atmospheric Boundary Layer (ABL) in stable conditions. This type of boundary layer is not completely well understood yet, although it is very important for many practical uses, from forecast modeling to atmospheric dispersion of pollutants. We analyzed data from the SABLES98 experiment (Stable Atmospheric Boundary Layer Experiment in Spain, 1998), and compared the behaviour of this data using Monin-Obukhov's similarity functions for wind speed and potential temperature. Analyzing the vertical profiles of various variables, in particular the thermal and momentum fluxes, we identified two main contrasting structures describing two different states of the SBL, a traditional and an upside-down boundary layer. We were able to determine the main features of these two states of the boundary layer in terms of vertical profiles of potential temperature and wind speed, turbulent kinetic energy and fluxes, studying the time series and vertical structure of the atmosphere for two separate nights in the dataset, taken as case studies. We also developed an original classification of the SBL, in order to separate the influence of mesoscale phenomena from turbulent behavior, using as parameters the wind speed and the gradient Richardson number. We then compared these two formulations, using the SABLES98 dataset, verifying their validity for different variables (wind speed and potential temperature, and their difference, at different heights) and with different stability parameters (zita or Rg). Despite these two classifications having completely different physical origins, we were able to find some common behavior, in particular under weak stability conditions.
Resumo:
L'obiettivo del seguente lavoro è determinare attraverso l'uso di procedure statistico-econometriche, in particolare del metodo ECM, le previsioni per i tassi di default nel triennio 2013-2015, partendo dalle serie storiche di questi ultimi e da quelle macroeconomiche.
Resumo:
La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.
Resumo:
Ricostruzione della teoria delle funzioni affrontata nel corso "Einleitung in die Theorie der analytischen Funktionen" tenuto da K. Weierstrass attraverso l'analisi e il confronto dei saggi di due suoi studenti: A. Hurwitz e S. Pincherle.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
La tesi presenta una serie di risultati dell'analisi quantitativa sulla linguistica. Inizialmente sono studiate due fra le leggi empiriche più famose di questo campo, le leggi di Zipf e Heaps, e vengono esposti vari modelli sullo sviluppo del linguaggio. Nella seconda parte si giunge alla discussione di risultati più specifici sulla presenza di fenomeni di burstiness e di correlazioni a lungo raggio nei testi. Tutti questi studi teorici sono affiancati da analisi sperimentali, svolte utilizzando varie traduzioni del libro "Guerra e pace" di Leo Tolstoj e concentrate principalmente sulle eventuali differenze riscontrabili tra le diverse lingue.
Resumo:
Percorso didattico alternativo dall'insieme alla struttura matematica con analisi di libri di testo di scuole superiori.
Resumo:
La seguente tesi affronta la dimostrazione del teorema dei quattro colori. Dopo un introduzione dei concetti cardine utili alla dimostrazione, quali i concetti ed i risultati principali della teoria dei grafi e della loro colorazione, viene affrontata a livello prima storico e poi tecnico l'evoluzione della dimostrazione del teorema, che rimase congettura per 124 anni.
Resumo:
La tesi prende spunto da due laboratori del Piano di Lauree Scientifiche, "Numeri primi e crittografia" e "Giocare con i numeri". Si approfondiscono i problemi additivi riguardanti i numeri primi. Questi sono stati scelti per due principali motivi: la semplicità dei contenuti, che possono essere compresi dagli studenti di tutti i tipi di scuola, e la possibilità di prestarsi bene ad un approccio di tipo laboratoriale da parte degli studenti, adattabile alle diverse preparazioni matematiche e al tempo stesso in grado di stimolare curiosità su problemi ancora irrisolti. Si mostreranno metodi di risoluzione di tipo elementare ma anche metodi che coinvolgono l'analisi complessa.