998 resultados para POI
Resumo:
L’obiettivo di questa tesi di laurea è stato la valutazione delle sovratensioni generate da una scarica atmosferica in linee miste di tipo aerea-cavo affluenti a stazioni di trasformazione. Lo studio si è incentrato sul caso della fulminazione diretta su una fase della linea aerea, il cosiddetto shielding failure, nella situazione peggiore ovvero senza innesco degli spinterometri posti a protezione della catena di isolatori. Applicando la teoria dei diagrammi a graticcio, è stata studiata la propagazione di un’onda di tensione (gradino, triangolo rettangolo e triangolo scaleno), generata da una scarica atmosferica, lungo tre particolari configurazioni di una linea mista AT 132 kV. In particolare, è stato implementato un codice di calcolo in Matlab, con il quale sono state determinate le componenti riflesse, che si formano quando l’onda di tensione incidente va ad impattare nei punti di discontinuità d’impedenza d’onda della linea mista. Tale calcolo ha consentito sia la rappresentazione temporale del transitorio, sia la determinazione del valore di cresta raggiunto dalla sovratensione, in particolari punti sensibili della linea, quali le estremità della linea in cavo ed il collegamento con il trasformatore. Il calcolo analitico è stato poi confrontato con i risultati delle simulazioni relative alla fulminazione diretta su una fase della linea aerea, eseguite con il software EMTPWorks. Il lavoro si è incentrato in particolar modo, sulla determinazione del modello che va a simulare la linea mista presa in considerazione, anche mediante il confronto con un noto caso di studio riportato sulle pubblicazioni.
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.
Resumo:
La tesi tratta di come Noble giunse alla formulazione del modello matematico del cuore, a partire da quello degli impulsi nervosi ideato da Hodgkin e Huxley e di come in seguito arrivò a perfezionarlo grazie ad una sempre maggiore adesione alla biologia dei sistemi integrati, al punto che esso venne poi utilizzato per creare il primo "Cuore Virtuale". Si pone inoltre una particolare attenzione al modo in cui il pensiero di Noble cambiò nel corso dei suoi studi, così da permettergli la formulazione di spiegazioni corrette, relative ai fenomeni osservati.
Resumo:
La tesi consiste in una trattazione sui problemi al contorno per le equazioni differenziali. Si affrontano prima i problemi per le equazioni differenziali ordinarie e poi quelli sulle equazioni iperboliche alle derivate parziali, analizzando nello specifico l'equazione delle onde in una e due dimensioni.
Resumo:
La tesi è orientata ad elaborare un’introduzione alla geometria algebrica particolarmente rivolta agli strumenti di algebra commutativa, al fine di affrontare i problemi descritti nell'ultimo paragrafo. A partire da testi basilari per l’argomento, come [A, MD] e [Ha], si introdurrà la nozione di spettro di un anello e si andranno a studiare vari casi che costituiscono una buona base per avere un panorama delle possibili strutture che si generano come schemi associati ad un anello e se ne studieranno le proprietà caratteristiche. In particolare, si analizzeranno proprietà di irriducibilità, finitezza e altro, in connessione con quelle degli anelli commutativi. Una particolare attenzione viene poi rivolta agli schemi 0-dimensionali, alle loro diverse immersioni negli spazi proiettivi ed ai problemi aperti ad essi connessi (es. determinazione della funzione di Hilbert). In questo ambito molti problemi aperti rimangono anche per questioni di semplice formulazione (ad esempio sulla dimensione di particolari spazi lineari di curve piane definite dall'imposizione di singolarità lungo schemi 0-dimensionali).
Resumo:
Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.
Resumo:
Oggetto di indagine del lavoro è il movimento ambientalista e culturale delle Città in Transizione che rappresentano esperimenti di ri-localizzazione delle risorse volte a preparare le comunità (paesi, città, quartieri) ad affrontare la duplice sfida del cambiamento climatico e del picco del petrolio. A partire dal Regno Unito, la rete delle Transition Towns si è in pochi anni estesa significativamente e conta oggi più di mille iniziative. L’indagine di tale movimento ha richiesto in prima battuta di focalizzare l’attenzione sul campo disciplinare della sociologia dell’ambiente. L’attenzione si è concentrata sul percorso di riconoscimento che ha reso la sociologia dell’ambiente una branca autonoma e sul percorso teorico-concettuale che ha caratterizzato la profonda spaccatura paradigmatica proposta da Catton e Dunlap, che hanno introdotto nel dibattito sociologico il Nuovo Paradigma Ecologico, prendendo le distanze dalla tradizionale visione antropocentrica della sociologia classica. Vengono poi presentate due delle più influenti prospettive teoriche della disciplina, quella del Treadmill of Production e la più attuale teoria della modernizzazione ecologica. La visione che viene adottata nel lavoro di tesi è quella proposta da Spaargaren, fautore della teoria della modernizzazione ecologica, secondo il quale la sociologia dell’ambiente può essere collocata in uno spazio intermedio che sta tra le scienze ambientali e la sociologia generale, evidenziando una vocazione interdisciplinare richiamata anche dal dibattito odierno sulla sostenibilità. Ma le evidenze empiriche progressivamente scaturite dallo studio di questo movimento che si autodefinisce culturale ed ambientalista hanno richiesto una cornice teorica più ampia, quella della modernità riflessiva e della società del rischio, in grado di fornire categorie concettuali spendibili nella descrizione dei problemi ambientali e nell’indagine del mutamento socio-culturale e dei suoi attori. I riferimenti empirici dello studio sono tre specifiche realtà locali in Transizione: York in Transition per il Regno Unito, Monteveglio (Bo) e Scandiano (Re) in Transizione per l’Italia.
Resumo:
Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.
Resumo:
Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.
Resumo:
Nei primi due capitoli mi occupo del recupero del Barocco in ambito novecentesco e delle diverse letture e interpretazioni del Barocco e del Neobarocco, concetto che nasce dalla riflessione sul Barocco lungo tutto il Novecento. Riflessione che è stata anche una rivendicazione, a livello estetico, ma non solo, di una attualità o contemporaneità del Barocco, che accomuna tutta la riflessione sulla scoperta della cultura di un secolo, da Wölfflin a Benjamin, da Riegl a Anceschi. Si tratta anche di un rapporto fra Barocco storico e Neobarocco: se la stessa rivalutazione e riscoperta dell’arte del XVII secolo, dalla fine dell’Ottocento e lungo tutto il Novecento, ha coinciso con la sua costruzione terminologica ed ermeneutica, di questa nuova categoria è lo stesso approccio intellettuale contemporaneo che può definirsi, nella più ampia accezione, «neobarocco». Nel terzo capitolo, invece, ho approfondito il rapporto fra Gadda e il Barocco, partendo dal concetto di allegoria moderna di Walter Benjamin. Fondamentale per la mia ricerca è stato il libro di Gilles Deleuze, La piega. Leibniz e il barocco, che ha visto nell’opera del filosofo Leibniz (studiato anche dal proprio Gadda) la chiave di lettura per capire il Barocco nelle sue diverse manifestazioni. E anche il libro di Robert Dombroski, Gadda e il barocco, in cui si parte appunto dal concetto di barocco/neobarocco come punto di approccio per studiare il barocco di Gadda. Infatti, lo stile di Gadda risponde al canone barocco che il poststrutturalismo ha riaccolto nel vivo del dibattito estetico, si pensi ai contributi di Roland Barthes e di Severo Sarduy e, posteriormente, all’opera proprio di Deleuze. Nell’ultimo capitolo, poi, faccio un’analisi di Gadda traduttore di opere del Seicento spagnolo, opere che vengono da lui riscritte grazie alla rielaborazione del passato attraverso il suo linguaggio neobarocco.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
Diodi organici emettitori di luce bianca (WOLEDs) sono dei dispositivi promettenti per la realizzazione di sorgenti luminose a basso consumo di energia, in quanto essi combinano un’alta efficienza e bassi costi di produzione con l’interessante caratteristica di poter produrre grandi superfici che emettono luce bianca di buona qualità. Tuttavia, la durata, le prestazioni e i costi devono ancora essere ottimizzati affinché i WOLEDs possano diventare commercialmente competitivi con le altre più comuni fonti di illuminazione; in particolare è necessario migliorare la stabilità e l’efficienza degli emettitori. Nella presente tesi viene trattata la sintesi di molecole organometalliche a singolo componente per ottenere un’elettroluminescenza di un bianco più puro possibile. In particolare l’attenzione è stata rivolta all’ottenimento di complessi eterometallici Ir-Eu. Sono stati sintetizzati tre diversi dimeri di Ir (III), con sistemi fenilpiridinici variamente fluorurati come leganti; a secondo del tipo di legante si hanno delle variazioni delle proprietà fotofisiche del complesso di Ir (III) successivamente prodotto. In seguito sono stati sintetizzati leganti bifunzionali contenenti un’unità isocianuro (in grado di coordinare selettivamente l’Iridio) e un gruppo acetilacetonato (in grado di coordinare selettivamente l’Europio). Tali leganti sono stati poi impiegati per formare il complesso di Eu (III). Infine, la reazione tra i dimeri di Ir (III) e il complesso di Eu (III) ha portato alla formazione dei complessi eterometallici Ir-Eu, che sono stati poi caratterizzati sia strutturalmente che fotofisicamente. Grazie ai due diversi centri emissivi presenti nella stessa molecola si è ottenuta una complessiva luce bianca.
Resumo:
La tesi si occupa di tematiche legate alla rigenerazione e riqualificazione urbana, nello specifico viene approfondita la "metodologia" d'intervento dei "Contratti di Quartiere II" istituiti con la Lg. 21/2001. Viene poi studiato e analizzato il progetto del Contratto di Quartiere "San Donato" a Bologna nel quale vengono affrontate in maniera alquanto incisiva tutte le prerogative dello strumento di legge.
Resumo:
Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.
Resumo:
In questo elaborato è stata messa a punto una procedura sintetica, semplice e veloce che sfrutta la tecnica microonde per la sintesi di tetraarilciclopentadienoni variamente sostituiti mediante una condensazione bis-aldolica tra 1,3 difenilacetone con dichetoni aromatici variamente sostituiti. Questa nuova tecnica consente di ottenere tetraarilciclopentadienoni con rese da basse a buone in 25 minuti a 70°C. La stessa procedura sintetica è stata valutata per ottenere leganti piridilimidazolici, usando come fonte di azoto NH4OAc. Basse rese e la formazione di svariati sottoprodotti ha diretto lo studio verso un approccio classico per la sintesi di questi sistemi. I leganti piridilimidazolici sono stati poi impiegati per la sintesi di complessi di Zn(II) luminescenti, i quali sono stati caratterizzati anche da un punto di vista fotofisico.