999 resultados para Carlo Ludovico, duca di Lucca, 1799-1883
Resumo:
Questo lavoro ha analizzato il modulo di localizzazione ed identificazione dei mezzi circolanti in area di manovra e la tecnologia da impiegare per ottenere lo scambio dei dati tra le unità imbarcate ed il server centrale. L’attività è stata svolta in collaborazione con ADR-Aeroporti di Roma, gestore aeroportuale di Fiumicino. L’obiettivo è quello di ottenere, in tempo reale, la conoscenza della posizione e della traiettoria di tutti i mezzi circolanti in area di manovra per creare un sistema automatizzato di monitoraggio, in grado di controllare sia eventuali invasioni delle piste e dei raccordi principali sia rischi di potenziali collisioni tra velivoli e mezzi, garantendo la minima separazione richiesta dalle normative e fornendo agli operatori l’indicazione del rischio rilevato. La prima parte della tesi espone lo scenario europeo per quanto riguarda le tecnologie utilizzate per la sorveglianza di velivoli in area di manovra, la seconda descrive la tecnologia più diffusa e promettente a livello internazionale, proposta per l’aeroporto di Fiumicino, mentre nella terza parte tale tecnologia viene analizzata e sviluppata appunto per lo scenario preso in considerazione.
Resumo:
La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
The main objective of my thesis was the technical-economic feasibility of a system of electricity generation integrated with CCS. The policy framework for development processing is part of the recent attention that at the political level has been directed towards the use of CCS technologies with the aim of addressing the problems of actual climate change. Several technological options have been proposed to stabilize and reduce the atmospheric concentrations of carbon dioxide (CO2) among which, the most promising for IPPC (Intergovernmental Panel on Climate Change)are the CCS technologies (Carbon Capture and Storage & Carbon Capture and Sequestration). The remedy proposed for large stationary CO2 sources as thermoelectric power plants is to separate the flue gas capturing CO2 and to store it into deep subsurface geological formations (more than 800 meters of depth). In order to support the identification of potential CO2 storage reservoirs in Italy and in Europe by Geo Capacity(an European database) new studies are developing. From the various literature data analyzed shows that most of the CO2 emitted from large stationary sources comes from the processes of electricity generation (78% of total emissions) and from (about 60%) those using coal especially. The CCS have the objective of return "to the sender" , the ground, the carbon in oxidized form (CO2) after it has been burned by man starting from its reduced form (CH4, oil and coal), then the carbon dioxide is not a "pollutant" if injected into the subsurface, CO2 is an acid reagent that interacts with the rock, with underground fluid and the characteristics of the host rock. The results showed that the CCS technology are very urgent, because unfortunately there are too many industrial sources of CO2 in assets (power plants, refineries, cement plants, steel mills) in the world who are carrying too quickly the CO2 atmospheric concentration levels to values that aren't acceptable for our dear planet.
Resumo:
Modalità d'integrazione architettonica dei pannelli fotovoltaici e tecnologie innovative per applicazioni BIPV
Resumo:
La finalità di questa tesi, oltre l’analisi sulla valorizzazione energetica delle biomasse e la loro conversione con processi termochimici, sarà quella di compiere uno studio di fattibilità di un impianto di cogenerazione di piccola taglia per la produzione di energia elettrica da biomasse lignocellulosiche, in particolare di scarti di potatura (sarmenti) delle viti.
Resumo:
Le cardiomiopatie che insorgono a seguito di infarto miocardico sono causa di elevata morbilità e mortalità dalle importanti ricadute cliniche, dovute alle patologie insorgenti a seguito dell’ischemia e della cicatrice post-infatuale. Il ventricolo sinistro danneggiato va incontro a un rimodellamento progressivo, con perdita di cardiomiociti e proliferazione dei fibroblasti, risultante in un’architettura e in una funzionalità dell’organo distorta. I fibroblasti cardiaci sono i principali responsabili della fibrosi, il processo di cicatrizzazione caratterizzato da un’eccessiva deposizione di matrice extracellulare (ECM). Negli ultimi anni gli sforzi del nostro laboratorio sono stati volti a cercare di risolvere questo problema, attraverso l’uso di una molecola da noi sintetizzata, un estere misto degli acidi butirrico, retinoico e ialuronico, HBR, capace di commissionare le cellule staminali in senso cardio-vascolare. Studi in vivo mostrano come l’iniezione diretta di HBR in cuori di animali sottoposti a infarto sperimentale, sia in grado, tra le atre cose, di diminuire la fibrosi cardiaca. Sulla base di questa evidenza abbiamo cercato di capire come e se HBR agisse direttamente sui fibroblasti, indagando i meccanismi coinvolti nella riduzione della fibrosi in vivo.. In questa tesi abbiamo dimostrato come HBR abbia un’azione diretta su fibroblasti, inibendone la proliferazione, senza effetti citotossici. Inoltre HBR induce una significativa riduzione della deposizione di collagene.. HBR agisce sull’espressione genica e sulla sintesi proteica, sopprimendo la trascrizione dei geni del collagene, così come dell’a-sma, inibendo la trasizione fibroblasti-miofibroblasti, e promuovendo la vasculogenesi (attraverso VEGF), la chemoattrazione di cellule staminali (attraverso SDF) e un’attività antifibrotica (inibendo CTGF). HBR sembra modulare l’espressione genica agendo direttamente sulle HDAC, probabilmente grazie alla subunità BU. L’abilità di HBR di ridurre la fibrosi post-infartuale, come dimostrato dai nostri studi in vivo ed in vitro, apre la strada a importanti prospettive terapeutiche.
Resumo:
Con il termine IPC (precondizionamento ischemico) si indica un fenomeno per il quale, esponendo il cuore a brevi cicli di ischemie subletali prima di un danno ischemico prolungato, si conferisce una profonda resistenza all’infarto, una delle principali cause di invalidità e mortalità a livello mondiale. Studi recenti hanno suggerito che l’IPC sia in grado di migliorare la sopravvivenza, la mobilizzazione e l’integrazione di cellule staminali in aree ischemiche e che possa fornire una nuova strategia per potenziare l’efficacia della terapia cellulare cardiaca, un’area della ricerca in continuo sviluppo. L’IPC è difficilmente trasferibile nella pratica clinica ma, da anni, è ben documentato che gli oppioidi e i loro recettori hanno un ruolo cardioprotettivo e che attivano le vie di segnale coinvolte nell’IPC: sono quindi candidati ideali per una possibile terapia farmacologica alternativa all’IPC. Il trattamento di cardiomiociti con gli agonisti dei recettori oppioidi Dinorfina B, DADLE e Met-Encefalina potrebbe proteggere, quindi, le cellule dall’apoptosi causata da un ambiente ischemico ma potrebbe anche indurle a produrre fattori che richiamino elementi staminali. Per testare quest’ipotesi è stato messo a punto un modello di “microambiente ischemico” in vitro sui cardiomioblasti di ratto H9c2 ed è stato dimostrato che precondizionando le cellule in modo “continuativo” (ventiquattro ore di precondizionamento con oppioidi e successivamente ventiquattro ore di induzione del danno, continuando a somministrare i peptidi oppioidi) con Dinorfina B e DADLE si verifica una protezione diretta dall’apoptosi. Successivamente, saggi di migrazione e adesione hanno mostrato che DADLE agisce sulle H9c2 “ischemiche” spronandole a creare un microambiente capace di attirare cellule staminali mesenchimali umane (FMhMSC) e di potenziare le capacità adesive delle FMhMSC. I dati ottenuti suggeriscono, inoltre, che la capacità del microambiente ischemico trattato con DADLE di attirare le cellule staminali possa essere imputabile alla maggiore espressione di chemochine da parte delle H9c2.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Despite the scientific achievement of the last decades in the astrophysical and cosmological fields, the majority of the Universe energy content is still unknown. A potential solution to the “missing mass problem” is the existence of dark matter in the form of WIMPs. Due to the very small cross section for WIMP-nuleon interactions, the number of expected events is very limited (about 1 ev/tonne/year), thus requiring detectors with large target mass and low background level. The aim of the XENON1T experiment, the first tonne-scale LXe based detector, is to be sensitive to WIMP-nucleon cross section as low as 10^-47 cm^2. To investigate the possibility of such a detector to reach its goal, Monte Carlo simulations are mandatory to estimate the background. To this aim, the GEANT4 toolkit has been used to implement the detector geometry and to simulate the decays from the various background sources: electromagnetic and nuclear. From the analysis of the simulations, the level of background has been found totally acceptable for the experiment purposes: about 1 background event in a 2 tonne-years exposure. Indeed, using the Maximum Gap method, the XENON1T sensitivity has been evaluated and the minimum for the WIMP-nucleon cross sections has been found at 1.87 x 10^-47 cm^2, at 90% CL, for a WIMP mass of 45 GeV/c^2. The results have been independently cross checked by using the Likelihood Ratio method that confirmed such results with an agreement within less than a factor two. Such a result is completely acceptable considering the intrinsic differences between the two statistical methods. Thus, in the PhD thesis it has been proven that the XENON1T detector will be able to reach the designed sensitivity, thus lowering the limits on the WIMP-nucleon cross section by about 2 orders of magnitude with respect to the current experiments.
Resumo:
L'intervento di connessione cavo-polmonare totale (TCPC) nei pazienti portatori di cuore univentricolare, a causa della particolare condizione emodinamica, determina un risentimento a carico di numerosi parenchimi. Scopo della ricerca è di valutare l'entità di questo danno ad un follow-up medio-lungo. Sono stati arruolati 115 pazienti, sottoposti ad intervento presso i centri di Cardiochirurgia Pediatrica di Bologna (52 pz) e Torino (63 pz). Il follow-up medio è stato di 125±2 mesi. I pazienti sono stati sottoposti ad indagine emodinamica (88 pz), test cardiopolmonare (75 pz) e Fibroscan ed ecografia epatica (47 pz). La pressione polmonare media è stata di 11.5±2.6mmHg, ed in 12 pazienti i valori di pressione polmonare erano superiori a 15mmHg. La pressione atriale media era di 6.7±2.3mmHg ed il calcolo delle resistenze vascolari polmonari indicizzate (RVP) era in media di 2±0.99 UW/m2. In 29 pazienti le RVP erano superiori a 2 UW/m2. La VO2 max in media era pari a 28±31 ml/Kg/min, 58±15 % del valore teorico. La frequenza cardiaca massima all'apice dello sforzo era di 151±22 bpm, pari al 74±17% del valore teorico. Il Fibroscan ha fornito un valore medio di 17.01 kPa (8-34.3kPa). Cinque pazienti erano in classe F2, 9 pazienti in classe F3 e 33 pazienti risultavano in classe F4. Nei pazienti con follow-up maggiore di 10 anni il valore di stiffness epatica (19.6±5.2kPa) è risultato significativamente maggiore a quello dei pazienti con follow-up minore di 10 anni (15.1±5.8kPa, p<0.01). La frequenza cardiaca massima raggiunta durante lo sforzo del test cardiopolmonare è risultata significativamente correlata alla morfologia del ventricolo unico, risultando del 67.8±14.4% del valore teorico nei pazienti portatori di ventricolo destro contro il 79.6±8.7% dei portatori di ventricolo sinistro (p=0.006). L'intervento di TCPC determina un risentimento a carico di numerosi parenchimi proporzionale alla lunghezza del follow-up, e necessita pertanto un costante monitoraggio clinico-strumentale multidisciplinare.
Resumo:
La corretta modellizzazione della zona del riflettore dei sistemi GEN III+ è un passaggio fondamentale per un’accurata predizione dei parametri di cella il cui valore influenza direttamente la distribuzione di potenza su tutto il nocciolo. Tale esigenza si è resa ancora più stringente dopo la constatazione che il fenomeno del “tilt power” risulta essere più amplificato nei noccioli nucleari equipaggiati con un riflettore pesante. Per tali ragioni, nel presente lavoro di tesi si è dedicata particolare attenzione alle metodiche di modellizzazione ed alla generazione delle sezioni d’urto efficaci omogenee ed agli assembly discontinuity factors (ADF) nella zona di riflessione. Il codice deterministico utilizzato per il calcolo è SCALE 6.1.3. La notevole differenza nelle proprietà neutroniche associata ad un’elevata eterogeneità geometrica tra un nocciolo ed un riflettore hanno suggerito di effettuare un’analisi preliminare sul sistema riflettente GEN II proposto nel benchmark NEA-NSC-DOC (2013) per testare la capacità di SCALE 6.1.3 di effettuare un corretto calcolo di cella adottando una modellizzazione monodimensionale assembly/riflettore. I risultati ottenuti sono confrontati con quelli presentati nel benchmark e e con quelli valutati attraverso il codice Monte Carlo SERPENT 2.0 confermando la capacità di calcolo di SCALE 6.1.3. L’analisi sulla modellizzazione dei sistemi riflettenti GEN III+ è stata effettuata ricavando il valore dei parametri di cella per configurazioni omogenee ed una serie di configurazioni geometriche esatte che comprendono tutte le modellizzazioni del sistema riflettente lungo la direzione angolare del riflettore. Si è inoltre effettuata un’analisi di sensitività su parametri operativi e sui parametri di codice. Si è infine effettuato un calcolo in color-set per indagare l’influenza degli effetti 2-D sui parametri di cella. I risultati prodotti rappresentano un contributo migliorativo nella conoscenza dei parametri di cella di riflettore e potranno essere utilizzati per una più precisa valutazione del fenomeno del tilt nei sistemi GEN III+.