990 resultados para indirizzo :: 962 :: Curriculum E: Elettronica generale e per applicazioni biomediche e industriali


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene descritto il funzionamento delle sorgenti di luce LED (Light Emitting Diode) a confinamento quantico, che rappresentano la nuova frontiera dell'illuminazione ad alta efficienza e durata. Nei capitoli introduttivi è descritta brevemente la storia dei LEDs dalla loro invenzione agli sviluppi più recenti. Il funzionamento di tali dispositivi fotonici è spiegato a partire dal concetto di sorgente di luce per elettroluminescenza, con particolare riferimento alle eterostrutture a confinamento quantico bidimensionale (quantum wells). I capitoli centrali riguardano i nitruri dei gruppi III-V, le cui caratteristiche e proprietà hanno permesso di fabbricare LEDs ad alta efficienza e ampio spettro di emissione, soprattutto in relazione al fatto che i LEDs a nitruri dei gruppi III-V emettono luce anche in presenza di alte densità di difetti estesi, nello specifico dislocazioni. I capitoli successivi sono dedicati alla presentazione del lavoro sperimentale svolto, che riguarda la caratterizzazione elettrica, ottica e strutturale di LEDs a confinamento quantico basati su nitruri del gruppo III-V GaN e InGaN, cresciuti nei laboratori di Cambridge dal Center for Gallium Nitride. Lo studio ha come obiettivo finale il confronto dei risultati ottenuti su LEDs con la medesima struttura epitassiale, ma differente densità di dislocazioni, allo scopo di comprendere meglio il ruolo che tali difetti estesi ricoprono nella determinazione dell'effcienza delle sorgenti di luce LED. L’ultimo capitolo riguarda la diffrazione a raggi X dal punto di vista teorico, con particolare attenzione ai metodi di valutazioni dello strain reticolare nei wafer a nitruri, dal quale dipende la densità di dislocazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati film sottili (circa 10 nm) di silicio amorfo idrogenato (a-Si:H), studiando in particolare leghe a basso contenuto di ossigeno e carbonio. Tali layer andranno ad essere implementati come strati di passivazione per wafer di Si monocristallino in celle solari ad eterogiunzione HIT (heterojunctions with intrinsic thin layer), con le quali recentemente è stato raggiunto il record di efficienza pari a 24.7% . La deposizione è avvenuta mediante PECVD (plasma enhanced chemical vapour deposition). Tecniche di spettroscopia ottica, come FT-IR (Fourier transform infrared spectroscopy) e SE (spettroscopic ellipsometry) sono state utilizzate per analizzare le configurazioni di legami eteronucleari (Si-H, Si-O, Si-C) e le proprietà strutturali dei film sottili: un nuovo metodo è stato implementato per calcolare i contenuti atomici di H, O e C da misure ottiche. In tal modo è stato possibile osservare come una bassa incorporazione (< 10%) di ossigeno e carbonio sia sufficiente ad aumentare la porosità ed il grado di disordine a lungo raggio del materiale: relativamente a quest’ultimo aspetto, è stata sviluppata una nuova tecnica per determinare dagli spettri ellisometrici l’energia di Urbach, che esprime la coda esponenziale interna al gap in semiconduttori amorfi e fornisce una stima degli stati elettronici in presenza di disordine reticolare. Nella seconda parte della tesi sono stati sviluppati esperimenti di annealing isocrono, in modo da studiare i processi di cristallizzazione e di effusione dell’idrogeno, correlandoli con la degradazione delle proprietà optoelettroniche. L’analisi dei differenti risultati ottenuti studiando queste particolari leghe (a-SiOx e a-SiCy) ha permesso di concludere che solo con una bassa percentuale di ossigeno o carbonio, i.e. < 3.5 %, è possibile migliorare la risposta termica dello specifico layer, ritardando i fenomeni di degradazione di circa 50°C.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il raffreddamento stratosferico associato alla riduzione dell’ozono nelle regioni polari induce un rafforzamento dei venti occidentali nella bassa stratosfera, uno spostamento verso il polo e un’intensificazione del jet troposferico delle medie latitudini. Si riscontra una proiezione di questi cambiamenti a lungo termine sulla polarità ad alto indice di un modo di variabilità climatica, il Southern Annular Mode, alla superficie, dove i venti occidentali alle medie latitudini guidano la Corrente Circumpolare Antartica influenzando la circolazione oceanica meridionale e probabilmente l’estensione del ghiaccio marino ed i flussi di carbonio aria-mare nell’Oceano Meridionale. Una limitata rappresentazione dei processi stratosferici nei modelli climatici per la simulazione del passato e la previsione dei cambiamenti climatici futuri, sembrerebbe portare ad un errore nella rappresentazione dei cambiamenti troposferici a lungo termine nelle rispettive simulazioni. In questa tesi viene condotta un’analisi multi-model mettendo insieme i dati di output derivati da diverse simulazioni di modelli climatici accoppiati oceano-atmosfera, che partecipano al progetto CMIP5, con l'obiettivo di comprendere come le diverse rappresentazioni della dinamica stratosferica possano portare ad una differente rappresentazione dei cambiamenti climatici alla superficie. Vengono utilizzati modelli “High Top” (HT), che hanno una buona rappresentazione della dinamica stratosferica, e modelli “Low Top” (LT), che invece non ne hanno. I risultati vengono confrontati con le reanalisi meteorologiche globali disponibili (ERA-40). Viene mostrato come la rappresentazione e l’intensità del raffreddamento radiativo iniziale e di quello dinamico nella bassa stratosfera, nei modelli, siano i fattori chiave che controllano la successiva risposta troposferica, e come il raffreddamento stesso dipenda dalla rappresentazione della dinamica stratosferica. Si cerca inoltre di differenziare i modelli in base alla loro rappresentazione del raffreddamento radiativo e dinamico nella bassa stratosfera e alla risposta del jet troposferico. Nei modelli, si riscontra che il trend del jet nell'intera troposfera è significativamente correlato linearmente al raffreddamento stesso della bassa stratosfera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento del presente lavoro è l’analisi di dati fMRI (functional Magnetic Resonance Imaging) nell’ambito di uno studio EEG-fMRI su pazienti affetti da malattia di Parkinson idiopatica. L’EEG-fMRI combina due diverse tecniche per lo studio in vivo dell’attività cerebrale: l'elettroencefalografia (EEG) e la risonanza magnetica funzionale. La prima registra l’attività elettrica dei neuroni corticali con ottima risoluzione temporale; la seconda misura indirettamente l’attività neuronale registrando gli effetti metabolici ad essa correlati, con buona risoluzione spaziale. L’acquisizione simultanea e la combinazione dei due tipi di dati permettono di sfruttare i vantaggi di ciascuna tecnica. Scopo dello studio è l’indagine della connettività funzionale cerebrale in condizioni di riposo in pazienti con malattia di Parkinson idiopatica ad uno stadio precoce. In particolare, l’interesse è focalizzato sulle variazioni della connettività con aree motorie primarie e supplementari in seguito alla somministrazione della terapia dopaminergica. Le quattro fasi principali dell’analisi dei dati sono la correzione del rumore fisiologico, il pre-processing usuale dei dati fMRI, l’analisi di connettività “seed-based “ e la combinazione dei dati relativi ad ogni paziente in un’analisi statistica di gruppo. Usando ’elettrocardiogramma misurato contestualmente all’EEG ed una stima dell’attività respiratoria, è stata effettuata la correzione del rumore fisiologico, ottenendo risultati consistenti con la letteratura. L’analisi di connettività fMRI ha mostrato un aumento significativo della connettività dopo la somministrazione della terapia: in particolare, si è riscontrato che le aree cerebrali maggiormente connesse alle aree motorie sono quelle coinvolte nel network sensorimotorio, nel network attentivo e nel default mode network. Questi risultati suggeriscono che la terapia dopaminergica, oltre ad avere un effetto positivo sulle performance motorie durante l’esecuzione del movimento, inizia ad agire anche in condizioni di riposo, migliorando le funzioni attentive ed esecutive, componenti integranti della fase preparatoria del movimento. Nel prossimo futuro questi risultati verranno combinati con quelli ottenuti dall’analisi dei dati EEG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi si vuole illustrare, a titolo di caso di studio e come possibile esempio da seguire in materia di acque reflue urbane, la soluzione adottata dal Comune di Ostuni (BR): un impianto terziario di affinamento, a valle del depuratore comunale, avente il fine di rendere riutilizzabili tali acque per altri scopi, essenzialmente agricoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio in esame si pone l'obiettivo di fornire dati sintetici ma rappresentativi del comportamento statico e sismico dell'Istituto di Matematica di Bologna (1965). Nella prima parte vengono descritte le fasi di conoscenza della geometria degli elementi e delle caratteristiche meccaniche dei materiali componenti la struttura in calcestruzzo armato. Nella seconda parte vengono descritte le verifiche condotte (SLE, SLU) e proposti i risultati sotto forma di istogrammi. Viene posta particolare attenzione alle verifiche sismiche allo SLV per le quali l' edificio mostra un comportamento critico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta in primo piano la personalizzazione di un sistema Android utilizzata come piattaforma per la seconda parte del lavoro. Quest'ultima consiste nell'installazione sul sistema operativo Android, personalizzato, un modulo e un'applicazione, il primo denominato Transmission Error Detector (TED), che estende il funzionamento della tecnologia WiFi e la seconda denominata Wvdial che estende invece il funzionamento della tecnologia 3G(o UMTS). Entrambi fanno parte di una architettura per il supporto alla mobilità in contesti eterogenei.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La popolarita` dei giochi online e` in crescita, ma allo stesso tempo le architetture proposte dagli sviluppatori e le connessioni di cui sono dotati gli utenti sembrano restare non adeguate a questo. Nella tesi si descrive un'architettura peer-to-peer che riesce ad effettuare una riduzione nella perdita dei pacchetti grazie al meccanismo del Network Coding senza effetti collaterali per la latenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La microscopia Kerr magneto-ottica è una tecnica di caratterizzazione magnetica che permette di ottenere informazioni sulla magnetizzazione superficiale di un campione ferromagnetico. La sensibilità locale e superficiale di questa tecnica, che è determinata sia dalla capacità di un microscopio ottico di ottenere un'immagine della superficie del campione che dalla profondità di penetrazione della luce visibile nei metalli, la rende adatta allo studio delle proprietà fisiche di nanostrutture magnetiche. Attraverso l'uso del microscopio Kerr di proprietà del Gruppo di Nanomagnetismo parte del Centro Cooperativo di Ricerca nanoGUNE Consolider (San Sebastian - Spagna), è stato possibile indagare l'effetto dato dall'anisotropia di scambio in nanostrutture magnetiche, per capire il comportamento di tale effetto in geometrie confinate al variare della temperatura. Questo studio ha permesso di individuare i limiti dello strumento e di conseguenza di estenderne le funzionalità. I principali interventi eseguiti hanno riguardato la stabilizzazione meccanica del sistema e lo sviluppo di un nuovo programma di acquisizione dati. Inoltre, la capacità di ottenere cicli di isteresi da singole nanostrutture magnetiche è stata sfruttata nello sviluppo di un nuovo tipo di dispositivo per la manipolazione di nanoparticelle magnetiche in soluzione, il cui principio di funzionamento si basa sulla mobilità delle pareti di dominio all'interno di anelli ferromagnetici con dimensione micro o nanometrica e sull'accoppiamento magnetostatico tra tali pareti di dominio e nanoparticelle superparamagnetiche trasportate in soluzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo del seguente lavoro è determinare attraverso l'uso di procedure statistico-econometriche, in particolare del metodo ECM, le previsioni per i tassi di default nel triennio 2013-2015, partendo dalle serie storiche di questi ultimi e da quelle macroeconomiche.