1000 resultados para indirizzo :: 859 :: Curriculum: Ingegneria idraulica


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati film sottili (circa 10 nm) di silicio amorfo idrogenato (a-Si:H), studiando in particolare leghe a basso contenuto di ossigeno e carbonio. Tali layer andranno ad essere implementati come strati di passivazione per wafer di Si monocristallino in celle solari ad eterogiunzione HIT (heterojunctions with intrinsic thin layer), con le quali recentemente è stato raggiunto il record di efficienza pari a 24.7% . La deposizione è avvenuta mediante PECVD (plasma enhanced chemical vapour deposition). Tecniche di spettroscopia ottica, come FT-IR (Fourier transform infrared spectroscopy) e SE (spettroscopic ellipsometry) sono state utilizzate per analizzare le configurazioni di legami eteronucleari (Si-H, Si-O, Si-C) e le proprietà strutturali dei film sottili: un nuovo metodo è stato implementato per calcolare i contenuti atomici di H, O e C da misure ottiche. In tal modo è stato possibile osservare come una bassa incorporazione (< 10%) di ossigeno e carbonio sia sufficiente ad aumentare la porosità ed il grado di disordine a lungo raggio del materiale: relativamente a quest’ultimo aspetto, è stata sviluppata una nuova tecnica per determinare dagli spettri ellisometrici l’energia di Urbach, che esprime la coda esponenziale interna al gap in semiconduttori amorfi e fornisce una stima degli stati elettronici in presenza di disordine reticolare. Nella seconda parte della tesi sono stati sviluppati esperimenti di annealing isocrono, in modo da studiare i processi di cristallizzazione e di effusione dell’idrogeno, correlandoli con la degradazione delle proprietà optoelettroniche. L’analisi dei differenti risultati ottenuti studiando queste particolari leghe (a-SiOx e a-SiCy) ha permesso di concludere che solo con una bassa percentuale di ossigeno o carbonio, i.e. < 3.5 %, è possibile migliorare la risposta termica dello specifico layer, ritardando i fenomeni di degradazione di circa 50°C.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il formalismo Mathai-Quillen (MQ) è un metodo per costruire la classe di Thom di un fibrato vettoriale attraverso una forma differenziale di profilo Gaussiano. Lo scopo di questa tesi è quello di formulare una nuova rappresentazione della classe di Thom usando aspetti geometrici della quantizzazione Batalin-Vilkovisky (BV). Nella prima parte del lavoro vengono riassunti i formalismi BV e MQ entrambi nel caso finito dimensionale. Infine sfrutteremo la trasformata di Fourier “odd" considerando la forma MQ come una funzione definita su un opportuno spazio graduato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il raffreddamento stratosferico associato alla riduzione dell’ozono nelle regioni polari induce un rafforzamento dei venti occidentali nella bassa stratosfera, uno spostamento verso il polo e un’intensificazione del jet troposferico delle medie latitudini. Si riscontra una proiezione di questi cambiamenti a lungo termine sulla polarità ad alto indice di un modo di variabilità climatica, il Southern Annular Mode, alla superficie, dove i venti occidentali alle medie latitudini guidano la Corrente Circumpolare Antartica influenzando la circolazione oceanica meridionale e probabilmente l’estensione del ghiaccio marino ed i flussi di carbonio aria-mare nell’Oceano Meridionale. Una limitata rappresentazione dei processi stratosferici nei modelli climatici per la simulazione del passato e la previsione dei cambiamenti climatici futuri, sembrerebbe portare ad un errore nella rappresentazione dei cambiamenti troposferici a lungo termine nelle rispettive simulazioni. In questa tesi viene condotta un’analisi multi-model mettendo insieme i dati di output derivati da diverse simulazioni di modelli climatici accoppiati oceano-atmosfera, che partecipano al progetto CMIP5, con l'obiettivo di comprendere come le diverse rappresentazioni della dinamica stratosferica possano portare ad una differente rappresentazione dei cambiamenti climatici alla superficie. Vengono utilizzati modelli “High Top” (HT), che hanno una buona rappresentazione della dinamica stratosferica, e modelli “Low Top” (LT), che invece non ne hanno. I risultati vengono confrontati con le reanalisi meteorologiche globali disponibili (ERA-40). Viene mostrato come la rappresentazione e l’intensità del raffreddamento radiativo iniziale e di quello dinamico nella bassa stratosfera, nei modelli, siano i fattori chiave che controllano la successiva risposta troposferica, e come il raffreddamento stesso dipenda dalla rappresentazione della dinamica stratosferica. Si cerca inoltre di differenziare i modelli in base alla loro rappresentazione del raffreddamento radiativo e dinamico nella bassa stratosfera e alla risposta del jet troposferico. Nei modelli, si riscontra che il trend del jet nell'intera troposfera è significativamente correlato linearmente al raffreddamento stesso della bassa stratosfera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento del presente lavoro è l’analisi di dati fMRI (functional Magnetic Resonance Imaging) nell’ambito di uno studio EEG-fMRI su pazienti affetti da malattia di Parkinson idiopatica. L’EEG-fMRI combina due diverse tecniche per lo studio in vivo dell’attività cerebrale: l'elettroencefalografia (EEG) e la risonanza magnetica funzionale. La prima registra l’attività elettrica dei neuroni corticali con ottima risoluzione temporale; la seconda misura indirettamente l’attività neuronale registrando gli effetti metabolici ad essa correlati, con buona risoluzione spaziale. L’acquisizione simultanea e la combinazione dei due tipi di dati permettono di sfruttare i vantaggi di ciascuna tecnica. Scopo dello studio è l’indagine della connettività funzionale cerebrale in condizioni di riposo in pazienti con malattia di Parkinson idiopatica ad uno stadio precoce. In particolare, l’interesse è focalizzato sulle variazioni della connettività con aree motorie primarie e supplementari in seguito alla somministrazione della terapia dopaminergica. Le quattro fasi principali dell’analisi dei dati sono la correzione del rumore fisiologico, il pre-processing usuale dei dati fMRI, l’analisi di connettività “seed-based “ e la combinazione dei dati relativi ad ogni paziente in un’analisi statistica di gruppo. Usando ’elettrocardiogramma misurato contestualmente all’EEG ed una stima dell’attività respiratoria, è stata effettuata la correzione del rumore fisiologico, ottenendo risultati consistenti con la letteratura. L’analisi di connettività fMRI ha mostrato un aumento significativo della connettività dopo la somministrazione della terapia: in particolare, si è riscontrato che le aree cerebrali maggiormente connesse alle aree motorie sono quelle coinvolte nel network sensorimotorio, nel network attentivo e nel default mode network. Questi risultati suggeriscono che la terapia dopaminergica, oltre ad avere un effetto positivo sulle performance motorie durante l’esecuzione del movimento, inizia ad agire anche in condizioni di riposo, migliorando le funzioni attentive ed esecutive, componenti integranti della fase preparatoria del movimento. Nel prossimo futuro questi risultati verranno combinati con quelli ottenuti dall’analisi dei dati EEG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi è incentrato sulla crescita e lo studio delle proprietà strutturali di sistemi nanostrutturati di titanio e ossido di titanio, prodotti mediante la tecnica della condensazione in gas inerte. Lo studio è finalizzato in particolare ad ottenere un materiale idoneo per la produzione di idrogeno tramite la foto-elettrolisi. Nel primo capitolo viene descritto a livello teorico il processo di scissione dell’acqua all’interno di celle foto-elettrochimiche, in cui viene impiegato il TiO2 (titania) come foto-anodo. Nel secondo capitolo viene introdotta la tecnica di crescita, viene descritta la macchina utilizzata illustrandone vantaggi e limitazioni. Inoltre viene fornita una descrizione teorica del tipo di crescita che avviene all’interno della camera di evaporazione. Allo scopo di comprendere meglio questi processi, vengono riportati nel capitolo 3 alcuni studi, basati su principi primi, riguardanti la stabilità di fase e le trasformazioni di fase per i tre principali polimorfi del TiO2. Nel capitolo 4 sono illustrate le tecniche impiegate per l’indagine strutturale: diffrazione e assorbimento di raggi X con relativa analisi dati, microscopia elettronica a scansione. Prima di misurare l’attività fotocatalitica dei campioni di nanoparticelle di titania, è necessario condurre delle misure di fotocorrente in una cella foto-elettrochimica, i risultati di queste analisi di tipo funzionale sono presentati nel capitolo 5. Nel capitolo 6 sono riportate le conclusioni del lavoro di tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata una scelta dei passaggi fondamentali per arrivare alla dimostrazione della congettura della double bubble, dovuta ad Hutchings, Morgan, Ritoré e Ros. Questa dimostrazione assicura l'esistenza e l'unicità della superficie minima che permette di racchiudere due volumi nello spazio reale tridimensionale; si tratta quindi di un caso particolare del problema delle bolle di sapone, che ha richiesto la messa a punto di strumenti sofisticati di teoria geometrica della misura, calcolo delle variazioni ed equazioni differenziali non lineari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro si colloca in un ampio percorso che ha visto diversi studi interessati nella problematica del traffico urbano, e quindi delle congestioni stradali, il cui impatto nella qualità della vita nelle grandi città è diventato sempre più rilevante con il processo di urbanizzazione. Dalle prime ricerche compiute, risalenti alla prima metà del 900, e aventi come oggetto di studio la singola strada, il ricorso alla modellizzazione matematica di recente si è sviluppato in particolar modo per quel che concerne la rete urbana. Le problematiche che si incontrano affrontando il contesto delle reti urbane si possono riassumere sinteticamente innanzitutto nella mutevolezza del flusso del traffico nell'arco della giornata. In secondo luogo nell'esistenza di punti critici variabili nel corso del tempo. Incidentalmente può accadere che si verifichino eventi eccezionali dovuti tanto all'ambiente naturale, quanto sociale. Ogni modello nella sua natura riduzionista consente di prendere in esame alcune problematiche specifiche e la scelta di operare in modo selettivo risponde alla complessità del fenomeno. Con queste indicazioni di metodo si è pensato di concentrarsi sullo studio degli effetti delle fluttuazioni endogene dei flussi di traffico in una stradale di tipo Manhattan. Per modellizzare il traffico utilizzeremo un sistema dinamico, nel quale la velocità ottimale si basa sulla relazione del Diagramma Fondamentale postulato da Greenshields (1935).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi ho trattato l'argomento dei Disturbi Specifici di Apprendimento (DSA), in particolar modo mi sono interessata alla Discalculia e a come si potrebbe affrontare a livello di Scuola Secondaria di II Grado. Ho approfondito in particolar modo l'argomento dell'algebra alla base dei curricula di matematica nel biennio, attraverso il supporto del software Aplusix.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta in primo piano la personalizzazione di un sistema Android utilizzata come piattaforma per la seconda parte del lavoro. Quest'ultima consiste nell'installazione sul sistema operativo Android, personalizzato, un modulo e un'applicazione, il primo denominato Transmission Error Detector (TED), che estende il funzionamento della tecnologia WiFi e la seconda denominata Wvdial che estende invece il funzionamento della tecnologia 3G(o UMTS). Entrambi fanno parte di una architettura per il supporto alla mobilità in contesti eterogenei.