927 resultados para trasformata di Fourier formule di valutazione modello Black-Scholes e Merton


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La ricerca analizza la forma di Stato e di Governo e si focalizza nel ruolo importante del Capo dello Stato in funzione alla separazione dei poteri e consolidamento della democrazia in una Repubblica Parlamentare. Questa ricerca comparativa analizza l’evoluzione della forma di governo in Italia e Albania. La ricerca analizza nei dettagli l’evoluzione della forma di Governo, focalizzandosi all’istituzione del Capo dello Stato in Albania dall’indipendenza (1912), evidenziando il ruolo dell’Italia in quest’evoluzione. In maniera comparativa si analizza l’evoluzione dell’istituzione del Capo dello Stato in Italia fin dalla sua unita e gli altri sviluppi i quali servirono come modello per l’Albania, evidenziano l’influenza a livello internazionale che ebbe l’Italia per l’indipendenza dell’Albania, che portò al consolidamento dei loro rapporti. Questa ricerca analizza la collaborazione di questi due Stati la quale culmino con la loro Unione Personale identificandosi nello stesso Capo di Stato. La ricerca inoltre evidenzia che come questa fase sia stata superata dalla II Guerra Mondiale e la Guerra Fredda che vide questi Stati a sviluppare diverse forme di Governo. Per di più la ricerca evidenzia la trasformazione politico-istituzionale e il processo di cambiamento dell’Albania dopo la caduta del muro di Berlino che segno la fine del sistema comunista, che vide l’Albania ad adottare il modello Italiano per il Capo dello Stato.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

I metalli pesanti presenti nei sedimenti marini possono essere rilasciati alla colonna d’acqua, in seguito a variazioni delle condizioni ambientali, ed entrare nelle catene trofiche degli organismi marini. A partire da una serie di campioni di sedimenti superficiali provenienti dalla Pialassa dei Piomboni (sito SIC-ZPS, a nord della Provincia di Ravenna), prelevati tra novembre e dicembre del 2012, è stato valutato il rischio potenziale associato alla presenza di metalli pesanti (Cd, Cu, Ni, Pb e Zn) per il biota residente nei sedimenti. È stato valutato il comportamento del rapporto SEM/AVS (contenuto di metalli simultaneamente estratti (SEM) e solfuri acidi volatili (AVS)) per ciascuno dei metalli oggetto dello studio. La metodica analitica ha previsto il trattamento dei campioni con HCl 6M, sotto flusso di azoto, e successivamente la lettura del contenuto di solfuro (raccolto in soluzioni di NaOH) e dei metalli pesanti allo spettrometro. Dal valore dei parametri chimico-fisici ottenuti nel momento del campionamento, è evidente che la zona interna della laguna risulta meno influenzata dalle maree rispetto a quella lungo il canale di navigazione. Le concentrazioni di metalli potenzialmente biodisponibili hanno evidenziato una distribuzione eterogenea. Del set di campioni analizzati, soltanto tre presentano un contenuto totale di metalli potenzialmente biodisponibili superiore al contenuto di solfuri labili (∑SEM/AVS>1), per cui la presenza di metalli bivalenti potrebbe rappresentare un rischio per il biota. Come suggerito da diversi autori, si è proceduto con l’ulteriore normalizzazione del rapporto (∑SEM/AVS) con il contenuto di carbonio organico relativo ad ogni campione di sedimento, escludendo possibili rischi associati alla presenza di metalli pesanti.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

OBIETTIVO : Quantificare le CECs/ml nei pazienti affetti da ischemia critica (IC) degli arti inferiori, eventuali correlazioni tra i fattori di rischio, lo stadio clinico con l’ aumento delle CECs. Valutare i cambiamenti strutturali (calcificazione ed infiltratto infiammatorio) e l’ angiogenesi (numero di capillari /sezione) della parete arteriosa. MATERIALI E METODI: Da Maggio 2006 ad Aprile 2008 in modo prospettico abbiamo arruolato paziente affetti da IC da sottoporre ad intervento chirurgico. In un data base abbiamo raccolto : caratteristiche demografiche, fattori di rischio, stadiazione dell'IC secondo Leriche-Fontaine (L-F), il tipo di intervento chirurgico. Per ogni paziente abbiamo effettuato un prelievo ematico di 2 ml per la quantificazione immunomagnetica delle CECs e prelievo di parete arteriosa. RISULTATI: In modo consecutivo abbiamo arruolato 33 pazienti (75.8% maschi) con età media di 71 aa (range 34-91aa), affetti da arteriopatia ostruttiva cronica periferica al IV stadio di L-F nel 84.8%, da cardiopatia ischemica cronica nel 60.6%, da ipertensione arteriosa nel 72.7% e da diabete mellito di II tipo nel 66.6%. Il valore medio di CECs/ml è risultato significativamente più elevato (p= 0.001) nei soggetti affetti da IC (CECs/ml =531.24 range 107- 3330) rispetto ai casi controllo (CECs/ml = 125.8 range 19-346 ). Le CECs/ml nei pazienti diabetici sono maggiori rispetto alle CECs/ml nei pazienti non diabetici ( 726.7 /ml vs 325.5/ml ), p< 0.05 I pazienti diabetici hanno presentato maggior incidenza di lesioni arteriose complesse rispetto ai non diabetici (66% vs 47%) e minor densità capillare (65% vs 87%). Conclusioni : Le CECs sono un marker sierologico attendibile di danno vascolare parietale, la loro quantità è maggiore nei pazienti diabetici e ipertesi. La minor capacità angiogenetica della parete arteriosa in presenza di maggior calcificazioni ed infiltrato infiammatorio nei diabetici, dimostra un danno istopatologico di parete maggiore .

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Generic object recognition is an important function of the human visual system and everybody finds it highly useful in their everyday life. For an artificial vision system it is a really hard, complex and challenging task because instances of the same object category can generate very different images, depending of different variables such as illumination conditions, the pose of an object, the viewpoint of the camera, partial occlusions, and unrelated background clutter. The purpose of this thesis is to develop a system that is able to classify objects in 2D images based on the context, and identify to which category the object belongs to. Given an image, the system can classify it and decide the correct categorie of the object. Furthermore the objective of this thesis is also to test the performance and the precision of different supervised Machine Learning algorithms in this specific task of object image categorization. Through different experiments the implemented application reveals good categorization performances despite the difficulty of the problem. However this project is open to future improvement; it is possible to implement new algorithms that has not been invented yet or using other techniques to extract features to make the system more reliable. This application can be installed inside an embedded system and after trained (performed outside the system), so it can become able to classify objects in a real-time. The information given from a 3D stereocamera, developed inside the department of Computer Engineering of the University of Bologna, can be used to improve the accuracy of the classification task. The idea is to segment a single object in a scene using the depth given from a stereocamera and in this way make the classification more accurate.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Risolvere il problema isoperimetrico in R^2 significa determinare la figura piana avente area maggiore tra tutte le figure aventi ugual perimetro. In questo lavoro trattiamo la risoluzione del problema isoperimetrico in R^2 proposta da Hurwitz, il quale, basandosi esclusivamente sulle proprietà analitiche delle serie di Fourier, è riuscito a dimostrare che la circonferenza è l'unica curva piana, semplice, chiusa e rettificabile con l'area massima avendo fissato il perimetro.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La bonifica di acquiferi contaminati è una pratica che oggi dispone di diverse soluzioni a livello tecnologico, caratterizzate tuttavia da costi (ambientali ed economici) e problematiche tecniche di entità tale da rendere in alcuni casi poco conveniente la realizzazione dell’intervento stesso. Per questo motivo sempre maggiore interesse viene rivolto nell’ambito della ricerca alle tecnologie di bioremediation, ovvero sistemi in cui la degradazione degli inquinanti avviene ad opera di microorganismi e batteri opportunamente selezionati e coltivati. L’impiego di queste tecniche consente un minor utilizzo di risorse ed apparati tecnologici per il raggiungimento degli obiettivi di bonifica rispetto ai sistemi tradizionali. Il lavoro di ricerca presentato in questa tesi ha l’obiettivo di fornire, tramite l’utilizzo della metodologia LCA, una valutazione della performance ambientale di una tecnologia di bonifica innovativa (BEARD) e due tecnologie largamente usate nel settore, una di tipo passivo (Permeable Reactive Barrier) ed una di tipo attivo (Pump and Treat con Carboni Attivi).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Sfruttando un approccio di tipo ordinale all'utilità è possibile semplificare notevolmente la teoria dell'asset prices. Rappresentando le distribuzioni di probabilità attraverso i suoi momenti (non soffermandoci solo ai primi due), si riesce infatti ad ottenere una miglior valutazione dei singoli assets, portando ad un effettivo miglioramento delle performance del portafoglio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’attività sperimentale presentata in questo elaborato riguarda lo studio di una particolare applicazione che impiega la tecnologia laser per la lavorazione di materiali compositi ed è stata interamente svolta, in particolar modo nella sua parte operativa, presso i laboratori della Facoltà di Ingegneria a Bologna. Il lavoro di tesi ha come obiettivo fondamentale la valutazione degli effetti che i parametri di processo possono avere sulla qualità risultante nel procedimento di ablazione per i materiali compositi. Per questa indagine sono stati utilizzati campioni piani (tutti identici tra loro) con rinforzo in fibra di carbonio e matrice in resina epossidica, i quali sono stati lavorati con un laser Nd:YAG (λ = 1064 nm) funzionante in regime continuo. L’idea alla base dell’intera attività sperimentale è stata quella di realizzare una ablazione ottimale, rimuovendo dai campioni esclusivamente la resina (in maniera locale) e tentando, allo stesso tempo, di ottenere il minimo danneggiamento possibile per le fibre. Le prove effettuate non costituiscono naturalmente un punto di arrivo, bensì rappresentano piuttosto un punto di partenza per acquisire informazioni preliminari che potranno consentire, nel prossimo futuro, di proseguire con il perfezionamento del processo e la messa a punto dei parametri, al fine di conseguire una lavorazione che dia risultati effettivamente ottimali ed interessanti per l’eventuale applicazione industriale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questa tesi di dottorato verte sull'individuazione di politiche industriali atte ad implementare il mercato dei prodotti a denominazione di origine. Inevitabilmente, l’analisi economica dei prodotti agroalimentari tipici di qualità implica anche l’approfondimento e l’individuazione, delle problematiche connesse con la creazione di un valore addizionale per il consumatore, rispetto a quello dei prodotti standardizzati. Questo approccio richiama l’attenzione, da una parte, sulle caratteristiche della domanda e sulla disponibilità del consumatore a riconoscere e apprezzare questo plus-valore, dall’altra sulle strategie che l’offerta può attivare per conseguire un premium price rispetto al prodotto standardizzato. Le certificazioni comunitarie Dop, Igp e Stg oltre che il marchio di prodotto biologico racchiudono, solitamente, tali dinamiche valoriali ma sono tutt’oggi poco conosciute dai consumatori. Diversi studi internazionali dimostrano, infatti, che la maggioranza dei cittadini comunitari ignorano il significato delle certificazioni di qualità. L’ipotesi di fondo di questo studio si basa sulla possibilità di fidelizzare questi marchi con i brand della grande distribuzione già affermati, come quello di Coop. Analizzare gli effetti dell’introduzione di prodotti private label a denominazione di origine nel mercato della grande distribuzione organizzata italiana ci permetterebbe di comprendere se questo segmento di mercato può aiutare il settore delle Dop/Igp. Questo studio ha cercato di verificare se il prodotto private label a denominazione di origine, riesca a sfruttare il doppio binario di fiducia rappresentato dal marchio comunitario unito a quello dell’impresa di distribuzione. Per comprendere la propensione del consumatore a spendere di più per questi prodotti, abbiamo utilizzato l’analisi dell’elasticità della domanda sul prezzo dei dati scanner fornitici da Coop Adriatica. Siamo riusciti a dimostrare tale positivo connubio confermato anche da una indagine demoscopica effettuata ad hoc sui consumatori.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Lo scopo di questa tesi è stato migliorare le proprietà di biodegradabilità e le proprietà strutturali del poli(butilene succinato) attraverso copolimerizzazione e trattamento al gas plasma. Entrambe le strategie sono risultate vincenti.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesi tratta della mancata efficacia della terapia di resincronizzazione cardiaca e valuta un metodo per poterne predire la futura efficacia o meno. Si propone ciò studiando la traiettoria 3D dell'elettrodo in seno coronarico e analizzando se le variazioni che la caratterizzano possono essere indicative di una futura risposta positiva alla terapia. Sono inoltre state apportate alcune modifiche al programma Matlab che ricostruisce la traiettoria 3D per eliminare alcune approssimazioni.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.