691 resultados para Catulo, Cayo Valerio
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
In the first part of my thesis I studied the mechanism of initiation of the innate response to HSV-1. Innate immune response is the first line of defense set up by the cell to counteract pathogens infection and it is elicited by the activation of a number of membrane or intracellular receptors and sensors, collectively indicated as PRRs, Patter Recognition Receptors. We reported that the HSV pathogen-associated molecular patterns (PAMP) that activate Toll-like receptor 2 (TLR2) and lead to the initiation of innate response are the virion glycoproteins gH/gL and gB, which constitute the conserved fusion core apparatus across the Herpesvirus. Specifically gH/gL is sufficient to initiate a signaling cascade which leads to NF-κB activation. Then, by gain and loss-of-function approaches, we found that αvβ3-integrin is a sensor of and plays a crucial role in the innate defense against HSV-1. We showed that αvβ3-integrin signals through a pathway that concurs with TLR2, affects activation/induction of interferons type 1, NF-κB, and a polarized set of cytokines and receptors. Thus, we demonstrated that gH/gL is sufficient to induce IFN1 and NF-κB via this pathway. From these data, we proposed that αvβ3-integrin is considered a class of non-TLR pattern recognition receptors. In the second part of my thesis I studied the capacity of human mesenchymal stromal cells isolated by fetal membranes (FM-hMSCs) to be used as carrier cells for the delivery of retargeted R-LM249 virus. The use of systemically administrated carrier cells to deliver oncolytic viruses to tumoral targets is a promising strategy in oncolytic virotherapy. We observed that FM-hMSCs can be infected by R-LM249 and we optimized the infection condition; then we demonstrate that stromal cells sustain the replication of retargeted R-LM249 and spread it to target tumoral cells. From these preliminary data FM-hMSCs resulted suitable to be used as carrier cells
Resumo:
Waste management represents an important issue in our society and Waste-to-Energy incineration plants have been playing a significant role in the last decades, showing an increased importance in Europe. One of the main issues posed by waste combustion is the generation of air contaminants. Particular concern is present about acid gases, mainly hydrogen chloride and sulfur oxides, due to their potential impact on the environment and on human health. Therefore, in the present study the main available technological options for flue gas treatment were analyzed, focusing on dry treatment systems, which are increasingly applied in Municipal Solid Wastes (MSW) incinerators. An operational model was proposed to describe and optimize acid gas removal process. It was applied to an existing MSW incineration plant, where acid gases are neutralized in a two-stage dry treatment system. This process is based on the injection of powdered calcium hydroxide and sodium bicarbonate in reactors followed by fabric filters. HCl and SO2 conversions were expressed as a function of reactants flow rates, calculating model parameters from literature and plant data. The implementation in a software for process simulation allowed the identification of optimal operating conditions, taking into account the reactant feed rates, the amount of solid products and the recycle of the sorbent. Alternative configurations of the reference plant were also assessed. The applicability of the operational model was extended developing also a fundamental approach to the issue. A predictive model was developed, describing mass transfer and kinetic phenomena governing the acid gas neutralization with solid sorbents. The rate controlling steps were identified through the reproduction of literature data, allowing the description of acid gas removal in the case study analyzed. A laboratory device was also designed and started up to assess the required model parameters.
Resumo:
Geochemical mapping is a valuable tool for the control of territory that can be used not only in the identification of mineral resources and geological, agricultural and forestry studies but also in the monitoring of natural resources by giving solutions to environmental and economic problems. Stream sediments are widely used in the sampling campaigns carried out by the world's governments and research groups for their characteristics of broad representativeness of rocks and soils, for ease of sampling and for the possibility to conduct very detailed sampling In this context, the environmental role of stream sediments provides a good basis for the implementation of environmental management measures, in fact the composition of river sediments is an important factor in understanding the complex dynamics that develop within catchment basins therefore they represent a critical environmental compartment: they can persistently incorporate pollutants after a process of contamination and release into the biosphere if the environmental conditions change. It is essential to determine whether the concentrations of certain elements, in particular heavy metals, can be the result of natural erosion of rocks containing high concentrations of specific elements or are generated as residues of human activities related to a certain study area. This PhD thesis aims to extract from an extensive database on stream sediments of the Romagna rivers the widest spectrum of informations. The study involved low and high order stream in the mountain and hilly area, but also the sediments of the floodplain area, where intensive agriculture is active. The geochemical signals recorded by the stream sediments will be interpreted in order to reconstruct the natural variability related to bedrock and soil contribution, the effects of the river dynamics, the anomalous sites, and with the calculation of background values be able to evaluate their level of degradation and predict the environmental risk.
Resumo:
Despite the scientific achievement of the last decades in the astrophysical and cosmological fields, the majority of the Universe energy content is still unknown. A potential solution to the “missing mass problem” is the existence of dark matter in the form of WIMPs. Due to the very small cross section for WIMP-nuleon interactions, the number of expected events is very limited (about 1 ev/tonne/year), thus requiring detectors with large target mass and low background level. The aim of the XENON1T experiment, the first tonne-scale LXe based detector, is to be sensitive to WIMP-nucleon cross section as low as 10^-47 cm^2. To investigate the possibility of such a detector to reach its goal, Monte Carlo simulations are mandatory to estimate the background. To this aim, the GEANT4 toolkit has been used to implement the detector geometry and to simulate the decays from the various background sources: electromagnetic and nuclear. From the analysis of the simulations, the level of background has been found totally acceptable for the experiment purposes: about 1 background event in a 2 tonne-years exposure. Indeed, using the Maximum Gap method, the XENON1T sensitivity has been evaluated and the minimum for the WIMP-nucleon cross sections has been found at 1.87 x 10^-47 cm^2, at 90% CL, for a WIMP mass of 45 GeV/c^2. The results have been independently cross checked by using the Likelihood Ratio method that confirmed such results with an agreement within less than a factor two. Such a result is completely acceptable considering the intrinsic differences between the two statistical methods. Thus, in the PhD thesis it has been proven that the XENON1T detector will be able to reach the designed sensitivity, thus lowering the limits on the WIMP-nucleon cross section by about 2 orders of magnitude with respect to the current experiments.
Resumo:
The idea of balancing the resources spent in the acquisition and encoding of natural signals strictly to their intrinsic information content has interested nearly a decade of research under the name of compressed sensing. In this doctoral dissertation we develop some extensions and improvements upon this technique's foundations, by modifying the random sensing matrices on which the signals of interest are projected to achieve different objectives. Firstly, we propose two methods for the adaptation of sensing matrix ensembles to the second-order moments of natural signals. These techniques leverage the maximisation of different proxies for the quantity of information acquired by compressed sensing, and are efficiently applied in the encoding of electrocardiographic tracks with minimum-complexity digital hardware. Secondly, we focus on the possibility of using compressed sensing as a method to provide a partial, yet cryptanalysis-resistant form of encryption; in this context, we show how a random matrix generation strategy with a controlled amount of perturbations can be used to distinguish between multiple user classes with different quality of access to the encrypted information content. Finally, we explore the application of compressed sensing in the design of a multispectral imager, by implementing an optical scheme that entails a coded aperture array and Fabry-Pérot spectral filters. The signal recoveries obtained by processing real-world measurements show promising results, that leave room for an improvement of the sensing matrix calibration problem in the devised imager.
Resumo:
Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.
Resumo:
The so called cascading events, which lead to high-impact low-frequency scenarios are rising concern worldwide. A chain of events result in a major industrial accident with dreadful (and often unpredicted) consequences. Cascading events can be the result of the realization of an external threat, like a terrorist attack a natural disaster or of “domino effect”. During domino events the escalation of a primary accident is driven by the propagation of the primary event to nearby units, causing an overall increment of the accident severity and an increment of the risk associated to an industrial installation. Also natural disasters, like intense flooding, hurricanes, earthquake and lightning are found capable to enhance the risk of an industrial area, triggering loss of containment of hazardous materials and in major accidents. The scientific community usually refers to those accidents as “NaTechs”: natural events triggering industrial accidents. In this document, a state of the art of available approaches to the modelling, assessment, prevention and management of domino and NaTech events is described. On the other hand, the relevant work carried out during past studies still needs to be consolidated and completed, in order to be applicable in a real industrial framework. New methodologies, developed during my research activity, aimed at the quantitative assessment of domino and NaTech accidents are presented. The tools and methods provided within this very study had the aim to assist the progress toward a consolidated and universal methodology for the assessment and prevention of cascading events, contributing to enhance safety and sustainability of the chemical and process industry.
Resumo:
Aim of the present work of thesis is to synthesize new non-noble metal based complexes to be employ in redox reactions by a metal-ligand cooperative mechanism. The need of replacing toxic and expensive precious metal complexes with more available and benign metals, has led to the development of new compounds based on cobalt and iron, which are the metals investigated in this study. A carbonyl-tetrahydroborato-bis[(2-diisopropylphosphino)ethyl]amine-cobalt complex bearing a PNP-type ligand is synthesized by a three-step route. Optimization attempt of reaction route were assessed in order to lowering reaction times and solvent waste. New cobalt complex has been tested in esters hydrogenation as well as in acceptorless dehydrogenative coupling of ethanol. Other varieties of substrates were also tested in order to evaluate any possible applications. Concerning iron complex, dicarbonyl-(η4-3,4-bis(4-methoxyphenyl)-2,5-diphenylcyclopenta-2,4-dienone)(1,3-dimethyl-ilidene)iron is synthesized by a three steps route, involving transmetallation of a silver complex, derived from an imidazolium salt, to iron complex. In order to avoid solvent waste, optimization is assessed. Studies were performed to assess activity of triscarbonyl iron precursor toward imidazolium salt and silver complexes.
Resumo:
In this thesis, we propose a novel approach to model the diffusion of residential PV systems. For this purpose, we use an agent-based model where agents are the families living in the area of interest. The case study is the Emilia-Romagna Regional Energy plan, which aims to increase the produc- tion of electricity from renewable energy. So, we study the microdata from the Survey on Household Income and Wealth (SHIW) provided by Bank of Italy in order to obtain the characteristics of families living in Emilia-Romagna. These data have allowed us to artificial generate families and reproduce the socio-economic aspects of the region. The families generated by means of a software are placed on the virtual world by associating them with the buildings. These buildings are acquired by analysing the vector data of regional buildings made available by the region. Each year, the model determines the level of diffusion by simulating the installed capacity. The adoption behaviour is influenced by social interactions, household’s economic situation, the environmental benefits arising from the adoption and the payback period of the investment.
Resumo:
La tesi mira ad affrontare le problematiche relative al potenziamento e all'adeguamento migliorativo di alcune sezioni dell’esistente impianto di trattamento finale della frazione organica dei rifiuti solidi urbani, sito nel Comune di Salerno. Si è analizzata, in prima istanza, la gestione dei rifiuti in Campania negli ultimi anni: dall'inizio dell’emergenza negli anni ’90, fino ai giorni odierni con la stesura del “Piano Regionale per la Gestione dei rifiuti Solidi Urbani”. Si è posto, poi, l’accento sul modello che caratterizza la città di Salerno: una corretta gestione integrata dei rifiuti, contraddistinta da una raccolta “porta a porta” spinta e dalla realizzazione di un moderno impianto di compostaggio e produzione di biogas. Si è descritto l’impianto nella sua interezza, andando ad analizzare le singole sezioni che lo contraddistinguono: durante il periodo di funzionamento, dall'apertura dell’impianto, si sono riscontrate alcune criticità, che si è ritenuto di affrontare al fine di migliorarne l’efficienza. Si è elaborato, così, un progetto di potenziamento ed adeguamento migliorativo di alcune sezioni. In particolare, si è cercato di determinare quale fosse il sistema di depurazione dei reflui più adatto a questo tipo di realtà e si proceduto, quindi, al dimensionamento delle varie sezioni del sistema depurativo scelto. Si è ritenuto utile effettuare, anche, un confronto economico con il sistema attualmente in uso, che consiste nella depurazione dei liquami presso impianti terzi.
Resumo:
Il presente lavoro di tesi punta a cercare di capire quali funzionalità, le startup del settore IT ritengono più utili all’interno dei software di project management. L’approccio per rispondere alla domanda sarà quello di intervistare startup presenti in diversi incubatori italiani ed elaborare i dati raccolti. Le aziende dovranno essere operanti nel settore informatico ed avere massimo 7 anni. Nel primo periodo di ricerca ho analizzato le funzionalità descritte nella letteratura scientifica e ho trovato che quanto presente non fosse compatibile con le attuali necessità e caratteristiche delle startup. Per avvalorare quanto affermo, sottoporrò un questionario alle startup compatibili con i requisiti, in cui valuterò se concordano o smentiscono ciò che dichiaro. L’intervista sarà rivolta ai project manager delle aziende, verrà loro sottoposto un questionario online in cui dovranno esprimere una preferenza tra 2 elenchi di funzionalità e indicare qual è maggiormente compatibile con le loro esigenze. In base alla scelta che effettueranno gli verrà domandato quali funzionalità tra quelle elencate ritengono più utili per i loro bisogni aziendali. Al termine della ricerca verranno elaborate le informazioni osservando se hanno trovato più utile il nuovo elenco di funzionalità e quali funzionalità sono considerate maggiormente necessarie a soddisfare le esigenze aziendali.
Resumo:
Oggetto di questa tesi è un'ipotesi di musealizzazione di un parco archeologico attraverso la valorizzazione degli elementi che caratterizzavano la città romana di Suasa. L'intento del progetto è quello di far comprendere al visitatore, o al fruitore dello spazio, che il paesaggio agreste e naturale presente oggi nell'area archeologica un tempo era occupato da una città. Città che, nonostante le numerose ricostruzioni e gli studi effettuati non è ancora stata decodificata nella sua interezza. I resti delle architetture antiche fuori terra infatti rappresentano solo una parte di un contesto molto più vasto che è quello proprio della città. Accanto alle architetture evidenti esistono delle archeologie cosiddette "nascoste", individuate tramite sondaggi geofisici. La sfida è stata quindi quella di rendere visibile una città invisibile attraverso interventi sulle archeologie e sul paesaggio. Essendo l'architettura un fatto percepibile in tre dimensioni e la rovina un antico manufatto oggi apprezzabile quasi solo in pianta, si è scelto di riconsegnare la terza dimensione dell'archeologia al paesaggio. In questo modo è possibile leggere le tracce della storia attraverso l'interpretazione dei segni lasciati. Gli interventi su foro, domus e anfiteatro hanno seguito questa linea di approccio, un fil rouge che lega i tre progetti sull'archeologia: la volontà di alludere alla volumetria antica. Per musealizzare il parco e facilitarne la sua comprensione non si è intervenuto solo sull'esistente ma è stato ritenuto necessario ai fini della comprensione del sito stesso rinforzare alcuni temi e attivare alcuni servizi tramite l'inserimento di nuovi manufatti architettonici come l'unità introduttiva.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.