942 resultados para valutazione di derivati, Fourier-cosine expansion, serie coseno
Resumo:
L'obiettivo di questo progetto è stato il sottotitolaggio del primo episodio della sitcom spagnola "Los Quién". Nel primo capitolo viene presentata la traduzione audiovisiva e diverse tecniche di trasferimento del linguaggio per i prodotti audiovisivi, in particolare viene approfondito il sottotitolaggio e le sue caratteristiche. Il secondo capitolo è dedicato all'ampliamento sulle fiction e sulle sitcom, presentando, inoltre, la serie e i personaggi. Il terzo capitolo presenta la proposta di sottotitolaggio. Il quarto e ultimo capitolo si concentra sull'analisi delle diverse difficoltà linguistiche incontrate e il commento sulle strategie traduttive adottate.
Resumo:
L’elaborato affronta la definizione, il calcolo e l’espressione del rischio chimico in un ambiente di lavoro avendo, come oggetto di studio, un’azienda produttrice di fibre tessili e pelli sintetiche a partire da resine di Polivinilcloruro (PVC). Viene esposta la mappatura schematica degli ambienti di lavoro e la classificazione dei rischi presenti in "irrilevanti per la salute" o "non irrilevanti per la salute", come previsto dal modello di valutazione del rischio “Movarisc”. Sono descritte le successive indagini ambientali volte a verificare le concentrazioni di inquinanti nelle zone più critiche ed, infine, gli interventi migliorativi sia sulla linea di produzione che nelle procedure di lavoro.
Resumo:
Il tema centrale di questa tesi è lo studio del problema di Dirichlet per il Laplaciano in R^2 usando le serie di Fourier. Il problema di Dirichlet per il Laplaciano consiste nel determinare una funzione f armonica e regolare in un dominio limitato D quando sono noti i valori che f assume sul suo bordo. Ammette una sola soluzione, ma non esistono criteri generali per ricavarla. In questa tesi si mostra come la formula integrale di Poisson, sotto determinate condizioni, risolva il problema di Dirichlet in R^2 e in R^n.
Resumo:
La tesi è incentrata sullo studio dei punti di singolarità di una curva nel piano proiettivo complesso. Nel caso in cui il punto sia regolare possiamo sfruttare il teorema delle funzioni implicite che ci permette di esplicitare il luogo di zeri di un'equazione implicita rispetto a una variabile. Quando questa ipotesi di regolarità viene meno per avere un risultato analogo diventa necessario utilizzare le serie di Puiseux. L'interpretazione algebrica del teorema di Puiseux risponde alla domanda di trovare un'estensione del campo delle serie di Laurent che sia algebricamente chiuso; prendendo un polinomio di grado positivo in K(x)*[y], mostreremo che esiste sempre una radice del polinomio appartenente a K(x)*. Il legame con l’interpretazione analitica risulta ora evidente: data infatti una curva nel piano complesso la sua equazione può essere vista come un particolare polinomio in K(x)*[y], esplicitare la y in funzione della x equivale appunto a trovare una radice in K(x)*. Nel primo capitolo abbiamo in primo luogo richiamato il risultato di Dini e parlato del luogo singolare di una curva, mostrando che quest'ultimo è un numero finito di punti. In seguito abbiamo introdotto il poligono di Newton, il quale è un insieme convesso del piano associato ad un polinomio in due variabili. Nel secondo capitolo abbiamo visto due formulazioni del teorema di Puiseux, entrambe le dimostrazioni di questo risultato sono costruttive; per renderle più scorrevoli abbiamo ritenuto opportuno costruire degli esempi che evidenziassero i vari passi.
Resumo:
Questo elaborato consiste nello studio mineralogico e chimico di una parte della successione della Vena del Gesso, coincidente con il sito estrattivo di Monte Tondo. Oltre all'inquadramento geologico della zona oggetto di studio e alcuni accenni sulle attività della cava, il presente elaborato contiene tabelle con le analisi di fluorescenza XRF per tutti i campioni prelevati, grafici dello spettro XRD per due campioni, completi di tabelle con i valori in allegato, diagrammi di correlazione per alcuni elementi, una analisi termogravimetrica ed una termodifferenziale, e i grafici con le rette di regressione per gli elementi maggiori e in tracce, con l'esclusione di certi elementi che hanno dato concentrazioni sotto il limite di rilevabilità.
Resumo:
In this thesis we have identified two electrochemical procedures for preparing two compounds of copper hexacyanoferrate (CuHCF) films with different compositions and structures. The deposition were carried out using a “two steps” method consisting in electrochemical oxidation of previously deposited metallic copper on carbon substrates (glassy carbon and graphite foil electrodes) in K3[Fe(CN)6] solution. Both films, CuHCF-methodA and CuHCF-methodB, were characterized by cyclic voltammetry (GC) and their study using XANES spectroscopy revealed evidence of different structures. Additionally, insertion and extraction of different cations (Na+, K+, Mg2+, Al3+ and Cs+) were performed and the results indicate that CuHCF-methodA has slightly better performances and operational stability than CuHCF-methodB. Data from galvanostatic charge-discharge tests confirme the latter observation. An application for amperometric detection of H2O2 and SEM micrographs are also reported for both films (method A and B). Comparing these results with a previous work of our research group, seems that the deposition of two different compounds using methodA and methodB is due to the different stoichiometry of ions Cu2+ e [Fe(CN)6]3– created near electrode surface during the dissolution step.
Resumo:
Questa tesi di laurea è uno studio magmatologico, sedimentologico e morfostrutturale dei depositi dell’eruzione del Vesuvio del 1944, con particolare riferimento ai depositi di valanghe ardenti associati ad essa. Lo studio è stato affrontato utilizzando metodologie petrografiche, di chimica dei minerali e geotermo-barometriche al fine di ricavare informazioni sul sistema magmatico e sulla dinamica eruttiva nel corso dell’eruzione. I dati petrochimici e l’utilizzo di modelli geotermo-barometrici, unitamente alle informazioni dalla letteratura, indicano che il fattore di trigger che ha determinato il passaggio dalla iniziale effusione di colate laviche alle successive intense fasi di attività esplosiva ultrastromboliana è rappresentato dalla risalita di magma meno evoluto e più ricco in volatili dalla camera magmatica profonda (11-22 km) verso quella più superficiale (circa 3 km) dove ha interagito con il magma lì presente. Durante queste fasi a maggiore esplosività si è avuto sulla parte sommitale del cono un rapido accumulo di materiale ad elevata temperatura e l’instaurarsi di condizioni di overloading dei fianchi con aumento dell’angolo di pendio e conseguente instabilità. Ciò ha verosimilmente determinato la generazione di flussi di valanghe ardenti per rimobilizzazione sin-deposizionale del materiale piroclastico da caduta, probabilmente in seguito ad eventi sismici come elementi di innesco. I flussi di valanghe ardenti del 1944 sono stati interpretati come flussi granulari secchi, in base ai dati sedimentologici e vulcanologici raccolti nel corso dell’attività di terreno, rendendo possibile l’applicazione dei modelli elaborati da Castioni (2015) per la stima della velocità massima del flusso e degli assi maggiore e minore del deposito corrispondente. Sono state ricavate velocità che variano da un minimo di circa 4 m/s ad un massimo di circa 16 m/s in un range che è tipico di flussi granulari in ambiente vulcanico. Le variazioni della velocità sono state messe in relazione con la morfologia del pendio, il tipo di materiale coinvolto nel processo di rimobilizzazione e l’organizzazione interna del flusso, evidenziando in particolare come le maggiori lunghezze siano raggiunte dai flussi che hanno la possibilità di scorrere su pendii più omogenei e con più ridotte variazioni dell'angolo di pendio. La definizione di valori di velocità per i flussi di valanghe ardenti dell'eruzione del 1994 fornisce un ulteriore elemento utile per la valutazione della pericolosità vulcanica del Vesuvio.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Lo scopo di questa tesi è lo sviluppo di una protesi valvolare sensorizzata per la valutazione e il monitoraggio dei parametri funzionali della valvola e di conseguenza la realizzazione un prototipo di PHV (Prosthetic Heart Valve) che integri all’interno delle protesi valvolari in commercio una tecnologia utile alla realizzazione di queste specifiche. Il segnale di impedenza intravalvolare (IVI) è ottenuto grazie ad un sistema di elettrodi utili alla generazione di un campo elettrico locale e alla successiva registrazione della differenza di potenziale. Il lavoro sperimentale è stato suddiviso in due parti: una prima parte deputata alla scelta della posizione ottimale degli elettrodi rispetto ai lembi, al piano e all’anello valvolare, al fine di determinare due prototipi, ed una seconda parte in cui sono stati testati i prototipi in una situazione più fisiologica, cioè in un tratto di aorta bovina, ed è stata simulata una dinamica valvolare alterata. Il maggior segnale di impedenza riscontrato è stato ottenuto ponendo gli elettrodi ortogonalmente al cardine dei lembi valvolari e sovrapponendo elettrodo di eccitazione e ricezione al fine di ottenere un campo elettrico costante e ricezione puntuale della variazione del campo. Infine è stato riscontrato che il segnale di impedenza intravalvolare è in grado di riflettere alterazioni simulate dei lembi.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
Il presente elaborato di tesi si pone come obiettivo quello di valutare il rischio per l’ambiente causato dal rilascio accidentale di idrocarburi liquidi; in particolare è stato preso a riferimento un deposito reale contenente tali sostanze e si è valutato il rischio ambientale da esso generato nelle matrici del suolo e sottosuolo e delle acque superficiali. Per far ciò sono stati applicati il metodo speditivo descritto nel Rapporto 57/2005 (Rapporto APAT) elaborato dal Gruppo misto APAT/ARPA/CNVVF, che ha provveduto all'individuazione di una metodologia speditiva per la valutazione del rischio per l’ambiente da incidenti rilevanti in depositi di idrocarburi liquidi con riferimento a suolo e sottosuolo, e il metodo speditivo per le acque superficiali descritto nel Rapporto ISPRA 92/2013, che riporta criteri e indirizzi tecnico-operativi per la valutazione delle analisi degli incidenti rilevanti con conseguenze per l’ambiente. Il Rapporto APAT propone una metodologia speditiva ad indici; per la sua applicazione è necessario calcolare 2 indici: l’Indice di Propensione al Rilascio, che si ottiene dalla conoscenza delle caratteristiche impiantistiche del deposito preso in esame e l’Indice di Propensione alla Propagazione, che si ottiene dalla conoscenza delle caratteristiche idrogeologiche del sito su cui insiste il deposito. Il Rapporto ISPRA presenta invece diverse metodologie per la valutazione del rischio ambientale maturate in ambito europeo e propone un nuovo metodo a indici per la valutazione del rischio ambientale per le acque superficiali. Per l’applicazione di tale metodo a indici si è calcolato dapprima l’Indice di Propensione al Rilascio, così come richiesto anche nel metodo speditivo per suolo e sottosuolo e si è successivamente classificato il corpo idrico su cui insiste il deposito. Attraverso l’applicazione dei 2 metodi è stato dunque possibile valutare il livello di criticità ambientale del deposito, determinando la necessità di procedere con una metodologia semplificata o una metodologia avanzata per la stima del rischio di contaminazione ambientale.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
La tesi si propone di esaminare i vari protocolli utilizzati per valutare le proprietà sterilizzanti di diverse sorgenti di plasma.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
A partire dalle caratteristiche chiave dell’inquinamento acustico, lo scopo della tesi è stato quello di valutare quantitativamente l’entità del rumore aeronautico prodotto dall'aeroporto Marconi e di analizzare le soluzioni tecniche e gestionali disponibili per definire misure adeguate alle caratteristiche infrastrutturali e operative dello scalo e capaci di mitigare il disturbo subito dalla popolazione. Si è tenuto conto delle profonde modificazioni in atto nel mondo dell’aviazione, il quale, avendo come obiettivo quello di fornire un servizio di trasporto sempre più sostenibile, efficace, competitivo e omogeneo sul territorio europeo, sollecita profonde innovazioni nei requisiti funzionali e tecnici. Inizialmente l’attenzione è stata rivolta alla descrizione del rumore aeronautico e del contesto in cui è inserito, soffermandosi sul concetto di sostenibilità di un’infrastruttura di trasporto. Si è proseguito con un'analisi dettagliata della normativa vigente, italiana ed europea, al fine di affrontare gli aspetti legislativi del problema e di delineare le line guida per la valutazione del rumore. Segue uno studio, dal punto di vista tecnico e infrastrutturale, dell’evoluzione della navigazione aerea e del concetto innovativo di performance based navigation, focalizzando l’interesse sul curved approach, procedura di avvicinamento non convenzionale. L'attenzione è stata, poi, dedicata alla descrizione del caso di studio e alla presentazione della metodologia usata. Mediante il supporto dell’INM, sono state determinate le curve isofoniche, quantificando la popolazione esposta a specifici livelli di rumore aeronautico per lo scenario consuntivo dell’anno 2015. Infine, sono state eseguite simulazioni future, sulla base delle previsioni di crescita del volume di traffico aereo, per definire un limite massimo per lo sfruttamento del sistema ILS in testata 30 e per valutare il beneficio generato dall’introduzione del curved approach.