608 resultados para portafoglio efficiente ottimizzazione teoria di Markowitz


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato è costituito da quattro capitoli. Nel primo, dopo aver esposto una breve panoramica della letteratura cinese moderna, ci si concentra innanzitutto sulla presentazione della figura dell’autore Su Tong (苏童 Sūtóng), delle sue opere e della loro ricezione da parte del pubblico italiano. Nella stessa sezione, viene introdotto il progetto della casa editrice Canongate Books all’interno del quale si inscrive il romanzo oggetto della traduzione della tesi. Inoltre, per permettere ad un potenziale lettore italiano di comprendere meglio la struttura narrativa del testo, si è scelto di fornire una descrizione del mito originale di Mengjiangnü (孟姜女 Mèngjiāngnǚ) a cui si è ispirato l’autore durante la stesura del libro in questione, oltre che dei principali temi culturali in esso presenti. Il secondo capitolo propone la traduzione integrale del romanzo “Binu” (碧奴 Bìnú) dell’autore Su Tong. Nel terzo capitolo, oltre a delineare un profilo della traduttrice brasiliana Fernanda Abreu e delle opere di cui essa si è occupata (con particolare riferimento al testo “A mulher que chora”), viene presentato un breve panorama sull’attuale situazione della letteratura cinese moderna in Brasile ed in Portogallo, oltre che sull’utilizzo dell’inglese come lingua pivot per la sua diffusione. Per facilitare l’approfondimento di un argomento così esteso, si è optato per la suddivisione dell’ultima parte in diversi sotto-capitoli. La sezione prevede innanzitutto l’esposizione della teoria alla base delle scelte adottate nella traduzione italiana del romanzo “Binu”. Successivamente, dopo aver presentato le principali differenze tra la lingua cinese e quella portoghese, oltre alle problematiche traduttive che da esse derivano, ci si è concentrati sullo svolgimento di un confronto tra le strategie adottate nella resa italiana dell’opera e tra quelle impiegate nella versione portoghese. Nel fare ciò, ovviamente si è tenuto conto dell’utilizzo della versione inglese da parte di Fernanda Abreu, oltre che dei diversi elementi culturali che caratterizzano le due lingue. Infine, dopo aver brevemente descritto quelle che sono le principali fasi da affrontare quando si decide di avanzare la proposta di traduzione di un testo editoriale, è stata valutata una possibile pubblicazione italiana del romanzo “Binu”, tenendo in considerazione le opere dello stesso autore già tradotte nel nostro Paese.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si è focalizzato sullo studio e sulla ottimizzazione di un sistema integrato, che utilizzi la reazione di oxy-reforming del metano al fine di produrre syngas che venga trattato attraverso la water-gas shift al fine di abbattere il contenuto di CO e al tempo stesso aumentare la resa in H2. Con l’obiettivo di ottenere H2 ad elevata purezza (>99%) da poter essere inviato direttamente a celle a combustible ed in impianti di piccola taglia con possibile delocalizzazione della produzione industriale di energia elettrica e termica “pulita”, la miscela reale uscente dal processo di oxy-reforming è stata processata tramite successiva water-gas shift direttamente all’interno di una membrana ceramica al Pd selettiva nella separazione di H2. L’innovativià di questo progetto di studio è data da diversi parametri quali: 1) l’impiego dell’oxy-reforming in alternativa al normale steam-reforming del CH4, che permette di condurre il processo a temperature decisamente inferiori (700-750°C), utilizzando un minor quantitativo di vapore (S/C = 0.7); 2) l’utilizzo di due nuove formulazioni di catalizzatore di WGS per alte temperature, capace di operare in un unico stadio conversioni di CO ottenibili industrialmente solo attraverso i convenzionali due due stadi di reazione (e due diverse formulazioni di catalizzatori a base di Fe/Cr e Cu); 3) l’utilizzo di supporti ceramici con membrana a base di Pd, capaci di ospitare al loro interno un catalizzatore eterogeneo per la reazione di WGS a 400°C, rendendo quindi possibile la produzione e contemporanea separazione di H2 con un ulteriore effetto positivo poiché la membrana rimuovendo H2 dalla zona di reazione favorisce il superamento dell’equilibrio termodinamico per la conversione del CO, abbassandone il contenuto nel flusso uscente dei gas reazione e rendendo non più necessari sistemi aggiuntivi di separazione quali PSA o PROXY.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo studio ha condotto allo sviluppo di una nuova e altamente efficiente metodologia per la sintesi di diidropiranoni-spiroossindoli, in alte rese ed eccellenti eccessi enantiomerici. In particolare è stata condotta l’addizione viniloga enantioselettiva tra sistemi 3-alchilidenossindolici e isatine, sfruttando un catalizzatore chirale bifunzionale derivante dalla cincona, in grado di attivare mediante catalisi basica la posizione gamma del suddetto ossindolo e attraverso legame idrogeno l’isatina elettrofilica. Successivamente a questo stadio, in cui si ha la formazione del centro chirale, segue anellazione intramolecolare con formazione di un ciclo lattonico e infine apertura dell’anello ossindolico che dà origine ai diidropiranoni-spiroossindoli enantiomericamente arricchiti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi illustra il teorema di decomposizione delle misure e come questo viene applicato alle trasformazioni che conservano la misura. Dopo aver dato le definizioni di σ-algebra e di misura ed aver enunciato alcuni teoremi di teoria della misura, si introducono due differenti concetti di separabilità: quello di separabilità stretta e quello di separabilità, collegati mediante un lemma. Si descrivono poi la funzione di densità relativa e le relative proprietà e, dopo aver definito il concetto di somma diretta di spazi di misura, si dimostra il teorema di decomposizione delle misure, che permette sotto certe ipotesi di esprimere uno spazio di misura come somma diretta di spazi di misura. Infine, dopo aver spiegato cosa significa che una trasformazione conserva la misura e che è ergodica, si dimostra il teorema di Von Neumann, per il quale le trasformazioni che conservano la misura risultano decomponibili in parti ergodiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro di tesi sono stati presentati alcuni concetti sulla teoria delle martingale, un processo stocastico dipendente dal tempo. Nel primo capitolo si studiano le prime proprietà delle martingale, ponendo particolare attenzione per il valore atteso condizionato. Nel secondo capitolo si analizza la convergenza delle martingale negli spazi L^p e nel caso particolare dello spazio L^1, richiamando alcuni importanti teoremi di convergenza di Doob. Infine è stata studiata un'applicazione delle martingale alla Finanza Matematica: i moti browniani.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Breve elaborato sulla teoria degli insiemi a partire dagli assiomi ZFC con introduzione ai numeri ordinali e cardinali e presentazione dell'ipotesi del continuo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi tratta la teoria unificata degli azionamenti in correnti alternata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.