1000 resultados para indirizzo :: 787 :: Curriculum A: Teorico generale
Resumo:
Il presente lavoro di tesi è stato svolto presso la DTU, Technical University of Denmark, nel Department of Energy Conversion and Storage, Riso Campus. Lo scopo del periodo di soggiorno estero è stato quello di caratterizzare appropriati moduli termoelettrici forniti da aziende del settore, utilizzando un opportuno apparato di caratterizzazione. Quest’ultimo è noto come “module test system” e, nello specifico, è stato fornito dalla PANCO GmbH, azienda anch’essa attiva nel campo delle tecnologie termoelettriche. Partendo da uno studio teorico dei fenomeni fisici interessati (effetto Seebeck per la produzione di potenza termoelettrica), si è cercato in seguito di analizzare le principali caratteristiche, ed elementi, del “module test system”. Successivamente a questa prima fase di analisi, sono stati condotti esperimenti che, con l’aiuto di modelli computazionali implementati attraverso il software Comsol Multiphysics, hanno permesso di studiare l’affidabilità del sistema di caratterizzazione. Infine, una volta acquisite le basi necessarie ad una corretta comprensione dei fenomeni fisici e delle caratteristiche relative alla strumentazione, sono stati analizzati moduli termoelettrici di tipo commerciale. In particolare, sono stati estrapolati dati quali correnti, tensioni, gradienti di temperatura, che hanno permesso di ricavare flussi termici, efficienze, e potenze che caratterizzano il modulo in questione durante le condizioni di funzionamento. I risultati ottenuti sono stati successivamente comparati con dati forniti dal produttore, presenti sul catalogo.
Resumo:
In questa tesi vengono studiate le proprietà fisiche della superficie di eterostrutture InGaN/GaN cresciute con orientazione semipolare (20-21). Questi materiali fornirebbero una valida alternativa alle eterostrutture cresciute secondo la tradizionale direzione di crescita polare (0001) per la realizzazione di LED e diodi laser. I dispositivi cresciuti con orientazione semipolare (20-21) sono studiati soltanto da pochi anni e hanno già fornito dei risultati che incitano significativamente il proseguimento della ricerca in questo campo. Oltre all’ottimizzazione dell’efficienza di questi dispositivi, sono richieste ulteriori ricerche al fine di raccogliere delle informazioni mancanti come un chiaro modello strutturale della superficie (20-21). I capitoli 1 e 2 forniscono un quadro generale sul vasto campo dei semiconduttori basati sui nitruri del terzo gruppo. Il capitolo 1 tratta le proprietà generali, come le caratteristiche della struttura cristallina della wurtzite, l’energy gap e il più comune metodo di crescita epitassiale. Il capitolo 2 tratta le proprietà specifiche della superficie (20-21) come struttura, morfologia e proprietà legate all’eterostruttura InGaN/GaN (incorporazione di indio, strain e spessore critico). Nel capitolo 3 vengono descritte sinteticamente le tecniche sperimentali utilizzate per studiare i campioni di InGaN. Molte di queste tecniche richiedono condizioni operative di alto vuoto e appositi metodi di preparazione superficiale. Nel capitolo 4 vengono discussi i risultati sperimentali riguardanti la preparazione superficiale e le proprietà strutturali dei campioni. Il trattamento termico in ambiente ricco di azoto si rivela essere un metodo molto efficiente per ottenere superfici pulite. La superficie dei campioni presenta una morfologia ondulatoria e una cella unitaria superficiale di forma rettangolare. Nel capitolo 4 vengono discussi i risultati sperimentali relativi alle proprietà elettroniche e ottiche dei campioni. Immagini alla risoluzione atomica rivelano la presenza di ondulazioni alla scala dei nanometri. Vengono misurati l’energy gap e l’incurvamento superficiale della bande. Inoltre vengono identificate una serie di transizioni interbanda dovute all’interfaccia InGaN/GaN.
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
L'elaborato affronta le varie fasi progettuali relative alle opere di riqualifica delle infrastrutture di volo dell'aeroporto Marco Polo di venezia. Partendo da nozioni di carattere teorico, come i vari metodi di dimensionamento di una sovrastruttura aeroportuale, si è arrivati ad affrontare in modo pratico il calcolo di verifica delle pavimentazioni esistenti e quello di dimensionamento di due soluzioni progettuali ipotizzate. Infine è stato considerato anche l'aspetto ecosostenibile della progettazione, ipotizzando la possibilità di riutilizzare il materiale fresato dalla vecchia pavimentazione esistente.
Resumo:
I metodi saddlepoint studiati nella tesi permettono di approssimare la densità di una variabile aleatoria a partire dalla funzione generatrice dei cumulanti (ricavabile dalla funzione caratteristica). Integrando la densità saddlepoint si ottiene la formula di Lugannani-Rice (e ulteriori generalizzazioni) per approssimare le probabilità di coda. Quest'ultima formula è stata poi applicata in ambito finanziario per il calcolo del prezzo di un'opzione call rispetto a vari modelli (Black-Scholes, Merton, CGMY)e in ambito assicurativo per calcolare la probabilità che il costo totale dei sinistri in una polizza non superi una certa quota fissata.
Resumo:
The main task of this work is to present a concise survey on the theory of certain function spaces in the contexts of Hörmander vector fields and Carnot Groups, and to discuss briefly an application to some polyharmonic boundary value problems on Carnot Groups of step 2.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.
Resumo:
La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.
Resumo:
Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.
Resumo:
Questa tesi è incentrata sull'analisi dell'arbitraggio statistico, strategia di trading che cerca di trarre profitto dalle fluttuazioni statistiche di prezzo di uno o più asset sulla base del loro valore atteso. In generale, si creano opportunità di arbitraggio statistico quando si riescono ad individuare delle componenti sistematiche nelle dinamiche dei prezzi di alcuni asset che si muovono con regolarità persistenti e prevalenti. Perturbazioni casuali della domanda e dell’offerta nei mercati possono causare divergenze nei prezzi, dando luogo a opportunità di intermarket spread, ossia simultanei acquisto e vendita di commodities correlate tra loro. Vengono approfonditi vari test econometrici, i test unit root utilizzati per verificare se una serie storica possa essere modellizzata con un processo random walk. Infine viene costruita una strategia di trading basata sull'arbitraggio statistico e applicata numericamente alle serie storiche dal 2010 al 2014 di due titoli azionari sul petrolio: Brent e WTI.
Resumo:
Our goal in this thesis is to provide a result of existence of the degenerate non-linear, non-divergence PDE which describes the mean curvature flow in the Lie group SE(2) equipped with a sub-Riemannian metric. The research is motivated by problems of visual completion and models of the visual cortex.
Resumo:
Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.
Resumo:
In recent years is becoming increasingly important to handle credit risk. Credit risk is the risk associated with the possibility of bankruptcy. More precisely, if a derivative provides for a payment at cert time T but before that time the counterparty defaults, at maturity the payment cannot be effectively performed, so the owner of the contract loses it entirely or a part of it. It means that the payoff of the derivative, and consequently its price, depends on the underlying of the basic derivative and on the risk of bankruptcy of the counterparty. To value and to hedge credit risk in a consistent way, one needs to develop a quantitative model. We have studied analytical approximation formulas and numerical methods such as Monte Carlo method in order to calculate the price of a bond. We have illustrated how to obtain fast and accurate pricing approximations by expanding the drift and diffusion as a Taylor series and we have compared the second and third order approximation of the Bond and Call price with an accurate Monte Carlo simulation. We have analysed JDCEV model with constant or stochastic interest rate. We have provided numerical examples that illustrate the effectiveness and versatility of our methods. We have used Wolfram Mathematica and Matlab.