999 resultados para indirizzo :: 860 :: Curriculum: Costruzioni per il territorio
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Freshwater is extremely precious; but even more precious than freshwater is clean freshwater. From the time that 2/3 of our planet is covered in water, we have contaminated our globe with chemicals that have been used by industrial activities over the last century in a unprecedented way causing harm to humans and wildlife. We have to adopt a new scientific mindset in order to face this problem so to protect this important resource. The Water Framework Directive (European Parliament and the Council, 2000) is a milestone legislative document that transformed the way that water quality monitoring is undertaken across all Member States by introducing the Ecological and Chemical Status. A “good or higher” Ecological Status is expected to be achieved for all waterbodies in Europe by 2015. Yet, most of the European waterbodies, which are determined to be at risk, or of moderate to bad quality, further information will be required so that adequate remediation strategies can be implemented. To date, water quality evaluation is based on five biological components (phytoplankton, macrophytes and benthic algae, macroinvertebrates and fishes) and various hydromorphological and physicochemical elements. The evaluation of the chemical status is principally based on 33 priority substances and on 12 xenobiotics, considered as dangerous for the environment. This approach takes into account only a part of the numerous xenobiotics that can be present in surface waters and could not evidence all the possible causes of ecotoxicological stress that can act in a water section. The mixtures of toxic chemicals may constitute an ecological risk not predictable on the basis of the single component concentration. To improve water quality, sources of contamination and causes of ecological alterations need to be identified. On the other hand, the analysis of the community structure, which is the result of multiple processes, including hydrological constrains and physico-chemical stress, give back only a “photograph” of the actual status of a site without revealing causes and sources of the perturbation. A multidisciplinary approach, able to integrate the information obtained by different methods, such as community structure analysis and eco-genotoxicological studies, could help overcome some of the difficulties in properly identifying the different causes of stress in risk assessment. In synthesis, the river ecological status is the result of a combination of multiple pressures that, for management purposes and quality improvement, have to be disentangled from each other. To reduce actual uncertainty in risk assessment, methods that establish quantitative links between levels of contamination and community alterations are needed. The analysis of macrobenthic invertebrate community structure has been widely used to identify sites subjected to perturbation. Trait-based descriptors of community structure constitute a useful method in ecological risk assessment. The diagnostic capacity of freshwater biomonitoring could be improved by chronic sublethal toxicity testing of water and sediment samples. Requiring an exposure time that covers most of the species’ life cycle, chronic toxicity tests are able to reveal negative effects on life-history traits at contaminant concentrations well below the acute toxicity level. Furthermore, the responses of high-level endpoints (growth, fecundity, mortality) can be integrated in order to evaluate the impact on population’s dynamics, a highly relevant endpoint from the ecological point of view. To gain more accurate information about potential causes and consequences of environmental contamination, the evaluation of adverse effects at physiological, biochemical and genetic level is also needed. The use of different biomarkers and toxicity tests can give information about the sub-lethal and toxic load of environmental compartments. Biomarkers give essential information about the exposure to toxicants, such as endocrine disruptor compounds and genotoxic substances whose negative effects cannot be evidenced by using only high-level toxicological endpoints. The increasing presence of genotoxic pollutants in the environment has caused concern regarding the potential harmful effects of xenobiotics on human health, and interest on the development of new and more sensitive methods for the assessment of mutagenic and cancerogenic risk. Within the WFD, biomarkers and bioassays are regarded as important tools to gain lines of evidence for cause-effect relationship in ecological quality assessment. Despite the scientific community clearly addresses the advantages and necessity of an ecotoxicological approach within the ecological quality assessment, a recent review reports that, more than one decade after the publication of the WFD, only few studies have attempted to integrate ecological water status assessment and biological methods (namely biomarkers or bioassays). None of the fifteen reviewed studies included both biomarkers and bioassays. The integrated approach developed in this PhD Thesis comprises a set of laboratory bioassays (Daphnia magna acute and chronic toxicity tests, Comet Assay and FPG-Comet) newly-developed, modified tacking a cue from standardized existing protocols or applied for freshwater quality testing (ecotoxicological, genotoxicological and toxicogenomic assays), coupled with field investigations on macrobenthic community structures (SPEAR and EBI indexes). Together with the development of new bioassays with Daphnia magna, the feasibility of eco-genotoxicological testing of freshwater and sediment quality with Heterocypris incongruens was evaluated (Comet Assay and a protocol for chronic toxicity). However, the Comet Assay, although standardized, was not applied to freshwater samples due to the lack of sensitivity of this species observed after 24h of exposure to relatively high (and not environmentally relevant) concentrations of reference genotoxicants. Furthermore, this species demonstrated to be unsuitable also for chronic toxicity testing due to the difficult evaluation of fecundity as sub-lethal endpoint of exposure and complications due to its biology and behaviour. The study was applied to a pilot hydrographic sub-Basin, by selecting section subjected to different levels of anthropogenic pressure: this allowed us to establish the reference conditions, to select the most significant endpoints and to evaluate the coherence of the responses of the different lines of evidence (alteration of community structure, eco-genotoxicological responses, alteration of gene expression profiles) and, finally, the diagnostic capacity of the monitoring strategy. Significant correlations were found between the genotoxicological parameter Tail Intensity % (TI%) and macrobenthic community descriptors SPEAR (p<0.001) and EBI (p<0.05), between the genotoxicological parameter describing DNA oxidative stress (ΔTI%) and mean levels of nitrates (p<0.01) and between reproductive impairment (Failed Development % from D. magna chronic bioassays) and TI% (p<0.001) as well as EBI (p<0.001). While correlation among parameters demonstrates a general coherence in the response to increasing impacts, the concomitant ability of each single endpoint to be responsive to specific sources of stress is at the basis of the diagnostic capacity of the integrated approach as demonstrated by stations presenting a mismatch among the different lines of evidence. The chosen set of bioassays, as well as the selected endpoints, are not providing redundant indications on the water quality status but, on the contrary, are contributing with complementary pieces of information about the several stressors that insist simultaneously on a waterbody section providing this monitoring strategy with a solid diagnostic capacity. Our approach should provide opportunities for the integration of biological effects into monitoring programmes for surface water, especially in investigative monitoring. Moreover, it should provide a more realistic assessment of impact and exposure of aquatic organisms to contaminants. Finally this approach should provide an evaluation of drivers of change in biodiversity and its causalities on ecosystem function/services provision, that is the direct and indirect contributions to human well-being.
Resumo:
Nell'elaborato viene introdotto l'ambito della Computer Vision e come l'algoritmo SIFT si inserisce nel suo panorama. Viene inoltre descritto SIFT stesso, le varie fasi di cui si compone e un'applicazione al problema dell'object recognition. Infine viene presentata un'implementazione di SIFT in linguaggio Python creata per ottenere un'applicazione didattica interattiva e vengono mostrati esempi di questa applicazione.
Resumo:
La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.
Resumo:
Il progetto si concentra principalmente sullo studio formale e funzionale del carter di una nuova tipologia di macchina industriale per il trattamento superficiale (coating) continuo di prodotti famaceutici. I punti di interesse sono stati: la scelta del materiale, la forma del carter, l'interazione con l'utente, la visualizzazione della macchina finita, la proposta di un piano comunicativo e di una strategià d'identità del prodotto.
Resumo:
La tesi in oggetto affronta il problema di realizzare un circuito per la gestione della corrente di una batteria ricaricabile. Il circuito esegue fasi di carica e scarica a corrente costante e programmabile. La batteria impiegata nel sistema è considerata carica a 5 V e scarica a 3 V. Un'alimentazione di 15 V viene fornita da una fonte esterna. Per la progettazione del circuito di carica, viene studiato il transitorio della batteria da 3 V a 5 V. Il circuito di scarica effettua invece il comportamento opposto, facendo fluire corrente dalla batteria, che decresce da 5 V a 3 V, con il flusso di potenza diretto verso l'alimentazione esterna. Entrambe le fasi vengono effettuate in maniera programmabile: variando la tensione di un MOSFET a canale p viene fornita la corrente costante scelta in un intervallo che varia da 100 mA a 5 A, come richiesto dalle specifiche di progetto. Per selezionare in quale modalità deve operare il circuito, si è utilizzata una rete a pass transistor. I convertitori posti a monte del circuito e la logica pass transistor sono stati impiegati nel circuito per la loro semplicità di impiego. Tali scelte, in un secondo momento, potranno esser riviste per impiegare soluzioni migliori e più efficienti. Il circuito realizzato soddisfa le specifiche di progetto.
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.
Resumo:
Nell’ottica della pianificazione di interventi di Retrofit Energetico che possano migliorare l’efficienza energetica del comparto edilizio-residenziale, in relazione agli obiettivi della vigente normativa energetica di ispirazione comunitaria, obiettivo della tesi è la ricerca e validazione di strumenti economici che possano guidare le committenze nella scelta del migliore rapporto tra costi e benefici delle opere. La tesi affronta l’approccio dell’analisi del Costo Globale come previsto dalla normativa comunitaria formato dalla direttiva 2010/31/UE sulla prestazione energetica degli edifici, dal regolamento delegato UE n°244 del 16 gennaio 2012 e dalla norma EN 15459 del 2008. Obiettivo è la comparazione di tre interventi alternativi di retrofit energetico per un edificio ad uso misto sito nel centro di Bologna. Si tratta di interventi mirati all’efficientamento e all’abbattimento del fabbisogno energetico per la climatizzazione invernale dello stabile, con gradi successivi di approfondimento, come definiti dalla attuale normativa (ristrutturazione importante di primo livello, di secondo livello e riqualificazione energetica). Lo studio si sviluppa definendo le criticità dello stato attuale del costruito e i possibili interventi migliorativi necessari. Definiti i pacchetti tecnici delle soluzioni di intervento si è passato alla ricerca dei dati necessari comprendenti dati finanziari su tassi di sconto e di inflazione e sui costi di investimento iniziali, costi di gestione e manutenzione, costi di sostituzione e costi energetici relativi alle varie alternative di progetto. I risultati dell’analisi economica delle alternative progettuali, nel periodo di studio considerato, vengono poi confrontati con i dati relativi all’impatto energetico e delle emissioni di CO2 e con le relative classi energetiche.
Resumo:
Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.
Resumo:
Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.
Resumo:
Questo lavoro di tesi è stato svolto sull’ impianto di produzione di polioli presso lo stabilimento Cargill di Castelmassa (RO) con lo scopo di ottimizzare la gestione dello ione Ni2+, derivante dal nichel metallico utilizzato come catalizzatore (nichel Raney) nella reazione di idrogenazione del glucosio condotta a 42 bar. Il nichel, infatti, a seguito di fluttuazioni di pH che avvengono durante il corso della reazione aumenta la sua solubilità passando in fase liquida sotto forma di ione bivalente. Nel successivo step di raffinazione e demineralizzazione del prodotto mediante una serie di resine a scambio ionico, il Ni2+ è trattenuto assieme ad altri ioni e separato dal prodotto stesso. Infine quando si va a rigenerare la resina, a seguito della sua saturazione, si producono dei reflui contenenti nichel, che, seppur presente in quantità modeste, non potranno essere inviati al depuratore comunale in quanto il metallo avvelenerebbe i microorganismi deputati al trattamento delle acque reflue, quindi dovranno essere smaltiti come rifiuti speciali. L’azienda è già dotata di un impianto di nichel recovery che utilizza una batteria di resine chelanti, in grado di catturare selettivamente metalli pesanti, in modo tale da avere un refluo con la concentrazione di Ni2+ più alta possibile per ridurre al minimo i costi, non esigui, di smaltimento. L’obbiettivo del mio lavoro di tesi è quello di trovare soluzioni alternative per la concentrazione del nichel e verificare mediante semplici bilanci economici se queste soluzioni proposte siano sostenibili dal punto di vista industriale, ed eventualmente possano essere concorrenti alla soluzione impiantistica già adottata.
Resumo:
In questo lavoro viene effettuata un’analisi di membrane per la separazione di CO2 basate sul meccanismo di trasporto facilitato. Queste membrane sono caratterizzate da un supporto poroso impregnato di una fase liquida le cui proprietà chimico-fisiche vengono presentate in relazione alle performance di separazione fornite: si tratta di liquidi ionici che presentano gruppi funzionali in grado di reagire con la CO2 consentendo il trasporto facilitato del gas acido attraverso la membrana. Le prestazioni in termini di separazione di CO2 da miscele gas fornite da questa tecnologia vengono analizzate e confrontate con quelle offerte da altre tipologie di membrane: alcune basate sul meccanismo di solution-diffusion (membrane polimeriche e membrane impregnate di liquidi ionici room-temperature) ed altre caratterizzate da permeazione di CO2 con presenza di reazione chimica ottenuta mediante facilitatori (mobili o legati allo scheletro carbonioso del polimero costituente la membrana). I risultati ottenuti sono analizzati in merito alla possibile implementazione di tale sistema di separazione a membrana in processi di cattura di CO2 nell'ambito della tecnologia di Carbon Capture and Storage.