420 resultados para Regionale ingestione ibrido laminare
Resumo:
Nel 2009 l'Italia attraversa la più grande crisi economica del secondo dopoguerra. Lo studio di ciò che accade, attraverso uno sguardo attento alle principali variabili congiunturali prodotte nel paese, è fondamentale per capire quali sono state le cause che hanno portato a questa situazione e per dare la possibilità ai policy maker di limitarne gli effetti in futuro. Ma l'Italia non è un territorio dalle caratteristiche monolitiche, è un aggregato di parti molto diverse fra loro. Analizzando il territorio italiano come insieme delle sue parti, osserveremo le medesime condizioni economiche ripetersi in ogni territorio del paese? L'esperienza ci suggerisce di no. La tesi vuole evidenziare come e quanto la struttura caratteristica del tessuto produttivo regionale è responsabile anche della performance economica. La tesi è quindi caratterizzata da due parti. Da un lato si è cercato di analizzare quali siano le differenze nei cicli economici regionali, dall'altro, attraverso l'utilizzo di un sistema di valutazione "fuzzy", si è cercato di ricostruire la natura strutturale delle regioni, al fine di determinare quali siano le specializzazioni che ogni territorio è in grado di mettere in campo. La tesi si conclude con un'analisi comparativa degli indici di dissimilarità tra cicli regionali e nazionale e i livelli sintetici di specializzazione, si è verificato che esiste una relazione forte che lega le caratteristiche strutturali delle regioni alle distanze tra i loro cicli, dimostrando quindi la tesi che struttura regionale e performance economica siano strettamente interconnesse.
Resumo:
- ZUSAMMENFASSUNG:Die vorliegende Dissertation befasst sich mit der Bestimmung der chemischen und physikalischen Eigenschaften von Aerosolpartikeln im Amazonasbecken, die während Zeiten mit Biomasseverbrennung und bei Hintergrundbedingungen bestimmt wurden. Die Messungen wurden während zwei Kampagnen im Rahmen des europäischen Beitrags zum LBA-EUSTACH Experiment in Amazonien. Die Daten umfassen Messungen der Anzahlkonzentrationen, Größenverteilungen, optischen Eigenschaften sowie Elementzusammensetzungen und Kohlenstoffgehalte der gesammelten Aerosole. Die Zusammensetzung des Aerosols wies auf folgende drei Quellen hin: natürlichen biogenen, Mineralstaub, und pyrogenes Aerosol. Aller drei Komponenten trugen signifikant zur Extinktion des Sonnenlichts bei. Insgesamt ergab sich eine Steigerung der Meßwerte um ca. das Zehnfache während der Trockenzeit im Vergleich zur Regenzeit, was auf eine massive Einbringung von Rauchpartikeln im Submikrometerbereich in die Atmosphäre während der Trockenzeit zurückzuführen ist. Dementsprechend sank die Einzelstreualbedo von ca. 0,97 auf 0,91. Der Brechungsindex der Aerosolpartikel wurde mit einer neuen iterative Methoden, basierend auf der Mie-Theorie berechnet. Es ergaben sich durchschnittliche Werte von 1,42 0,006i für die Regenzeit und 1,41 0,013i für die Trockenperiode. Weitere klimatisch relevante Parameterergaben für Hintergrundaerosole und für Aerosole aus Biomasseverbrennung folgende Werte: Asymmetrieparameter von 0,63 ± 0,02 bzw. 0,70 ± 0,03 und Rückstreuungsverhältnisse von 0,12 ± 0,01 bzw. 0,08 ± 0,01. Diese Veränderungen haben das Potential, das regionale und globale Klima über die Variierung der Extinktion der Sonneneinstrahlung als auch der Wolkeneigenschaften zu beeinflussen.
Resumo:
Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).
Resumo:
Zusammenfassung:In dieser Studie werden Deformationsprozesse im mesozoischen Torlesse Akkretionskeil (Neuseeland) quantifiziert, um Aufschluß über die Dynamik in Akkretionskeilen zu erhalten. Absolute und relative Verformungsmessungen zeigen sowohl im lokalen als auch regionalen Maßstab eine stark heterogene Deformation des Torlesse Keils. Die regionale Deformation wurde mit Hilfe einer Tensordurchschnittsberechnung, unter Benutzung einzelner lokaler Verformungsdaten, als uniaxiale Verkürzung entlang einer subvertikalen, maximalen Verkürzungsachse charakterisiert. Absolute Verformungsmessungen an niedriggradigen Metasandsteinen belegen darüber hinaus durchschnittliche Volumenverluste von ca. 20% SiO2. Volumenveränderungen in tieferkrustalen Aufschlüssen wurden mittels einer geochemischen Massenbilanzanalyse abgeschätzt. Chemische Zusammensetzungen höhergradiger Zonen weichen je nach Grad der Volumenverformung von der Protolitzusammensetzung ab und zeigen somit Verluste von 15% SiO2 an. Da Speicherorte für das gelöste Material nicht bekannt sind, muss angenommen werden, dass das Material aus dem Keil abtransportiert wurde. Die Verformungsergebnisse geben weiterhin Aufschluß über den Grad der Kopplung zwischen Akkretionskeil und subduzierter Platte. Die ermittelten Scherwerte in den Gesteinen liegen deutlich unter den zu erwartenden Scherwerten, die mittels eines einfachen Modells berechnet wurden, das sowohl verschiedene Konvergenzgeschwindigkeiten als auch Exhumierungsraten berücksichtigt. Dies belegt, dass der Torlesse Keil stark von der subduzierten pazifischen Platte entkoppelt war und die Deformation hauptsächlich durch den Fluß der Sedimente in und aus dem Keil bestimmt wurde.
Resumo:
La presente tesi si pone in continuità con il Laboratorio di Sintesi Finale in Urbanistica “La città e le case. L’urbanistica e lo spazio dell’abitare”e si propone di applicare e sperimentare una nuova forma urbana quella dell’open block derivante dall’omonima teoria dell’architetto francese Christian de Portzamparc. L’intervento si inserisce all’interno della cosiddetta Darsena di Città di Ravenna, un’ex area industriale di 136 ettari collocata a ridosso del centro storico della città, ma priva di collegamenti diretti con questo da cui si discosta nettamente per caratteristiche e funzioni. Nel corso del laboratorio si sono condotte analisi in maniera approfondita rispetto alle caratteristiche dello stato di fatto e dei bisogni principali del territorio, non solo facendo riferimento agli stessi strumenti urbanistici, ma anche avvalendosi dell’incontro con professionisti, tecnici e docenti. La conoscenza dell’area così raggiunta ci ha permesso di redigere, a conclusione del laboratorio, una serie di linee guida generali da cui nasce il masterplan. Su questo si basa la riqualificazione urbana dell’intera area da cui deriva la peculiarità della nuova Darsena ovvero la coesistenza di due rive dalle caratteristiche opposte e allo stesso tempo complementari. A nord trova spazio la “riva naturale” contraddistinta dalla prevalenza di spazi verdi di diversa natura; questa riva si pone in stretta relazione con il verde agricolo collocato nelle immediate vicinanze della Darsena e fortemente segnato dalla centuriazione romana. La riva sud, la “riva urbana”, è invece caratterizzata dalla prevalenza del costruito che trova un diretto confronto con il tessuto urbano preesistente collocato sia all’interno dell’area sia lungo il limite sud della stessa. Grande importanza per la riqualificazione del Comparto Darsena è stata data al mantenimento degli edifici di archeologia industriale ai quali viene dato ruolo centrale attraverso le nuove funzioni che vengono loro affidate. Altro aspetto fondamentale per la riuscita della riqualificazione della Darsena e allo stesso tempo valoreaggiunto per l’intero territorio comunale, nonché argomento centrale della presente tesi, è il tema dell’housing sociale. A seguito di analisi, studi sulle politiche abitative attualmente vigenti a livello regionale e comunale e indagini sui bisogni radicati nel territorio, si è redatto un masterplan da cui nasce un progetto per un quartiere con housing sociale situato all’interno del comparto CMC. Il progetto nasce dalle riflessioni condotte sull’argomento, mette al centro l’idea della mixité e si fonda sulla forma urbana dell’isolato aperto.
Resumo:
In der wissenschaftlichen Diskussion über die Entwicklung Lateinamerikas in den letzten Jahrzehnten erschienen zwei hauptsächliche Studiengegenstände: zum einen die Strukturanpassungsreformen und zum anderen die (Re-) Demokratisierungsprozesse. Die Frage nach den Verflechtungen beider Prozesse führte zur Forschung nach den Ursachen, dem Verlauf und den Ergebnissen des Regimewechsels und der wirtschaftlichen Reformen. Bei der Fortsetzung und Vertiefung der neuen Entwicklungsstrategie wurde immer deutlicher, dass die tiefgreifenden Veränderungen, die dieses Modell mit sich brachte, viele Herausforderungen für die jungen Demokratien darstellten. In dieser Studie geht es um die politisch-institutionellen Bestimmungsfaktoren der makroönomischen Politik in der Zeit der neoliberalen Wende Brasiliens und Mexikos. Die analytische Perspektive dieser Arbeit konzentriert sich nicht nur auf die sozio-ökonomischen, sondern auch auf die politisch-institutionellen Bestimmungsfaktoren. Anhand der Analyse des Entwicklungsprozesses in Mexiko und Brasilien wird untersucht, inwiefern exogene und endogene sozio-ökonomische und politisch-institutionelle Bestimmungsfaktoren die Ausprägungen der makroökonomischen Politik nach der entwicklungspolitischen Wende in Mexiko und in Brasilien beeinflussten. Diese Untersuchung ging von der Tatsache aus, dass in beiden Ländern nach der Verschuldungskrise eine unterschiedliche Entwicklungsstrategie eingeführt wurde, aufgrund derer die Inhalte und die Reichweite der Fiskal-, Geld- und Wechselkurspolitik neu definiert wurden. Der Entscheidungsprozess der makroökonomischen Politik wurde von verschiedenen externen und internen Bestimmungsfaktoren beeinflusst: endogene Institutionen (Regierungsform, Verfassung, Parteiensystem, Föderalismus, Ministerien, Zentralbank) und Akteure (Eliten, Technokraten und Berater) sowie externe Faktoren (Wandel des internationalen Kontextes, Rolle der USA, Auflagen der internationalen Finanzinstitutionen, Einflussnahme der ausländischen Investoren und regionale Integrationsprozesse).
Resumo:
This dissertation focuses on characterizing the emissions of volatile organic compounds (VOCs) from grasses and young trees, and the burning of biomass mainly from Africa and Indonesia. The measurements were performed with a proton-transfer-reaction mass spectrometer (PTR-MS). The biogenic emissions of tropical savanna vegetation were studied in Calabozo (Venezuela). Two field campaigns were carried out, the first during the wet season (1999) and the second during the dry season (2000). Three grass species were studied: T. plumosus, H. rufa and A. canescens, and the tree species B. crassifolia, C. americana and C. vitifolium. The emission rates were determined with a dynamic plant enclosure system. In general, the emissions increased exponentially with increasing temperature and solar radiation. Therefore, the emission rates showed high variability. Consequently, the data were normalized to a standard temperature of 30°C, and standard emission rates thus determined allowed for interspecific and seasonal comparisons. The range of average daytime (10:00-16:00) emission rates of total VOCs measured from green (mature and young) grasses was between 510-960 ngC/g/h. Methanol was the primary emission (140-360 ngC/g/h), followed by acetaldehyde, butene and butanol and acetone with emission rates between 70-200 ngC/g/h. The emissions of propene and methyl ethyl ketone (MEK) were <80 ngC/g/h, and those of isoprene and C5-alcohols were between 10-130 ngC/g/h. The oxygenated species represented 70-75% of the total. The emission of VOCs was found to vary by up to a factor of three between plants of the same species, and by up to a factor of two between the different species. The annual source of methanol from savanna grasses worldwide estimated in this work was 3 to 4.4 TgC, which could represent up to 12% of the current estimated global emission from terrestrial vegetation. Two of the studied tree species, were isoprene emitters, and isoprene was also their primary emission (which accounted for 70-94% of the total carbon emitted) followed by methanol and butene + butanol. The daytime average emission rate of isoprene measured in the wet season was 27 mgC/g/h for B. crassifolia, and 123 mgC/g/h for C. vitifolium. The daytime emissions of methanol and butene + butanol were between 0.3 and 2 mgC/g/h. The total sum of VOCs emission measured during the day in the wet season was between 30 and 130 mgC/g/h. In the dry season, in contrast, the methanol emissions from C. vitifolium saplings –whose leaves were still developing– were an order of magnitude higher than in the wet season (15 mgC/g/h). The isoprene emission from B. crassifolia in the dry season was comparable to the emission in the wet season, whereas isoprene emission from C. vitifolium was about a factor of three lower (~43 mgC/g/h). Biogenic emission inventories show that isoprenoids are the most prominent and best-studied compounds. The standard emission rates of isoprene and monoterpenes of the measured savanna trees were in the lower end of the range found in the literature. The emission of other biogenic VOCs has been sparsely investigated, but in general, the standard emissions from trees studied here were within the range observed in previous investigations. The biomass burning study comprised the measurement of VOCs and other trace-gas emissions of 44 fires from 15 different fuel types, primarily from Africa and Indonesia, in a combustion laboratory. The average sum of emissions (excluding CO2, CO and NO) from African fuels was ~18 g(VOC)/kg. Six of the ten most important emissions were oxygenated VOCs. Acetic acid was the major emission, followed by methanol and formaldehyde. The emission of methane was of the same order as the methanol emission (~5 g/kg), and that of nitrogen-containing compounds was ~1 g/kg. An estimate of the VOC source from biomass burning of savannas and grasslands worldwide suggests that the sum of emissions is about 56 Tg/yr, of which 34 Tg correspond to oxygenated VOCs, 14 Tg to unsaturated and aromatic compounds, 5 Tg to methane and 3 Tg to N-compounds. The estimated emissions of CO, CO2 and NO are 216, 5117 and 9.4 Tg/yr, respectively. The emission factors reported here for Indonesian fuels are the first results of laboratory fires using Indonesian fuels. Acetic acid was the highest organic emission, followed by acetol, a compound not previously reported in smoke, methane, mass 97 (tentatively identified as furfural, dimethylfuran and ethylfuran), and methanol. The sum of total emissions of Indonesian fuels was 91 g/kg, which is 5 times higher than the emissions from African fuels. The results of this study reinforces the importance of oxygenated compounds. Due to the vast area covered by tropical savannas worldwide, the biogenic and biomass burning emission of methanol and other oxygenated compounds may be important for the regional and even global tropospheric chemistry.
Resumo:
Il territorio di Ferrara è caratterizzata da un’area ad elevata concentrazione di stabilimenti a rischio di incidente rilevante e dalla movimentazione di ingenti quantitativi di sostanze pericolose sulla rete stradale, ferroviaria ed in condotta. Basti pensare che nel solo Comune di Ferrara sono ben 5 le aziende che, per tipologia e quantità di sostanze presenti, rientrano nel campo di applicazione del D.Lgs. 334/99 (“Attuazione delle direttiva 96/82/CE relativa al controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose”). Per questo motivo, il 24 febbraio 2012 è stato sottoscritto a Ferrara il protocollo d’intesa per l’avvio dello Studio di Sicurezza Integrato d’Area (SSIA) del polo chimico ferrarese da parte della Regione Emilia Romagna, dell’Agenzia Regionale di Protezione Civile, del Comune e della Provincia di Ferrara, dell’Ufficio Territoriale del Governo, della Direzione Regionale dei Vigili del Fuoco, dell’Agenzia Regionale Prevenzione e Ambiente e delle stesse aziende del polo chimico. L’Università di Bologna, tramite il Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali presso il quale è stato svolto il presente lavoro di tesi, prende parte al Consiglio Scientifico ed al Comitato Tecnico del SSIA, aventi funzioni di direzione e di gestione operativa della ricerca. Il progetto è modellato sulla precedente esperienza realizzata in regione per il polo industriale di Ravenna (progetto ARIPAR), la cui validità è stata ampiamente riconosciuta a livello nazionale ed internazionale. L’idea alla base dello studio deriva dal fatto che per avere un quadro della situazione in un’area così complessa, è necessario non solo valutare l’insieme dei rischi presenti, ma anche le loro correlazioni e le conseguenze sul territorio di riferimento. In un’analisi di rischio d’area risulta di primaria importanza l’analisi della vulnerabilità del territorio circostante il sito industriale, in quanto scenari attesi di danno di pari severità assumono una differente valenza in relazione all’effettiva presenza di bersagli nell’area di interesse. Per tale motivo il presente lavoro di tesi ha avuto l’obiettivo di istruire il censimento della vulnerabilità del territorio di Ferrara, con riferimento ai bersagli “uomo”, “ambiente” e “beni materiali”. In primo luogo si è provveduto, sulla base delle distanze di danno degli scenari incidentali attesi, a definire l’estensione dell’area in cui effettuare il censimento. Successivamente si è approfondito il censimento della vulnerabilità del bersaglio “uomo”, prendendo in considerazione sia la popolazione residente, sia i centri di vulnerabilità localizzati all’interno dell’area potenzialmente interessata da incidenti rilevanti. I centri di vulnerabilità non sono altro che luoghi ad elevata densità di persone (ad esempio scuole, ospedali, uffici pubblici, centri commerciali), spesso caratterizzati da una maggiore difficoltà di evacuazione, sia per l’elevato numero di persone presenti sia per la ridotta mobilità delle stesse. Nello specifico si è proceduto alla creazione di un database (grazie all’utilizzo del software ArcView GIS 3.2) di tutti i centri di vulnerabilità presenti, ai quali è stato possibile associare una precisa localizzazione territoriale ed altri dati di carattere informativo. In una fase successiva dello SSIA sarà possibile associare ai centri di vulnerabilità le relative categorie di popolazione, indicando per ciascuna il numero dei presenti. I dati inseriti nel database sono stati forniti in massima parte dal Comune di Ferrara e, in misura più limitata, dall’Agenzia Regionale di Protezione Civile e dalla Camera di Commercio. Presentando spesso tali dati un’aggregazione diversa da quella necessaria ai fini dello SSIA, è stato necessario un intenso lavoro di analisi, di depurazione e di riaggregazione allo scopo di renderli disponibili in una forma fruibile per lo SSIA stesso. Da ultimo si è effettuata una valutazione preliminare della vulnerabilità dei bersagli “ambiente” e “beni materiali”. Per quanto riguarda l’ambiente, si sono messe in luce le aree sottoposte a vincoli di tutela naturalistica e quindi particolarmente vulnerabili in caso di un rilascio accidentale di sostanze pericolose. Per il bersaglio “beni materiali”, non essendo stato possibile reperire dati, si è sono evidenziate le categorie di beni da censire. In conclusione, è possibile affermare che lo studio effettuato in questo lavoro di tesi, ha consentito non solo di conseguire l’obiettivo inizialmente stabilito – l’istruzione del censimento della vulnerabilità del territorio di Ferrara - ma ha contribuito anche alla definizione di una metodologia per il censimento di aree vaste che potrà essere utilmente applicata ad altre zone del territorio nazionale.
Resumo:
Il calcestruzzo è uno dei materiali più utilizzati nell’edilizia, ma il meno sostenibile. Per la sua produzione vengono sfruttate elevate quantità di risorse naturali non rinnovabili con un impatto ambientale non trascurabile, sia per le sostanze emesse in atmosfera, sia per le macerie derivate post utilizzo. L’ingresso nel XXI secolo ha segnato definitivamente l’affermazione del concetto di sviluppo sostenibile nei riguardi di tutti i processi produttivi dei beni, che devono essere necessariamente strutturati secondo una logica di risparmio energetico e di controllo della produzione di scorie e rifiuti, prevedendone un loro riutilizzo in altri settori, o un loro smaltimento senza provocare danni all’ambiente. Anche l’industria del cemento e del calcestruzzo è chiamata a svolgere il proprio ruolo per contribuire ad un miglior bilancio ecologico globale, indirizzando la ricerca verso possibilità d’impiego di materiali “innovativi”, che siano in grado di sostituire parzialmente o totalmente l’uso di materie prime non rinnovabili, tenendo conto dell’enorme richiesta futura di infrastrutture, soprattutto nei paesi in via di sviluppo. Negli ultimi anni si sta sempre più affermando il potenziale del riciclo dei materiali ottenuti dalla demolizione di edifici (C&DW – Construction and Demolition Waste), questo dovuto anche a politiche di gestione dei rifiuti che incentivano il risparmio, il riutilizzo, il riciclo e la valorizzazione dei beni. I calcestruzzi con aggregati di riciclo sono generalmente suddivisi in due macrogruppi: quelli ottenuti da aggregati di riciclo di solo calcestruzzo (RCA – Recycled Coarse Aggregate) e quelli da aggregati da demolizione totale (MRA – Mixed Recycled Aggregate) che però contengono molte impurità. Come anche uno può subito pensare gli aggregati riciclati hanno delle proprietà diverse da quelli naturali, questi contengono oltre l’aggregato naturale anche il legante coeso, polveri di laterizio, vetro, ceramica, plastica eccet., i quali offrono una miscela ricca di cloruri, solfati, silice amorfa ed altri componenti dannosi per la nuova miscela di calcestruzzo. In presenza di questi prodotti, gli aggregati non solo non soddisfano i requisiti chimici, ma influiscono negativamente anche sulle proprietà fisico-meccaniche del calcestruzzo. Per questo vedremmo in questa tesi tramite un accurata analisi degli aggregati, e del loro “contributo” per il corretto comportamento del calcestruzzo, leggendo criticamente come le normative regolano i requisiti che gli aggregati debbono soddisfare, vedendo le varie possibilità di riutilizzo dei materiali di riciclo da demolizione. La tesi mira all'incentivo dei materiali da riciclo, come scelta sostenibile per il futuro dell'edilizia. E' stato calcolato che la produzione totale di macerie da demolizione nel mondo, non supera il 20% in massa degli aggregati che vengono utilizzati per la produzione del calcestruzzo nei paesi sviluppati. Dai vari studi è stato valutato in media che col solo 20% di riciclato sostituito, le caratteristiche del calcestruzzo indurito cambiano di poco dal normale miscelato con aggregati naturali; ovviamente se gli aggregati da riciclo sono stati selezionati e sottoposti ai vari test delle norme europee standardizzate. Quindi uno può subito pensare in linea teorica, tralasciando i costi di gestione, trasporto eccet. , che basta utilizzare per ogni metro cubo di calcestruzzo 20% di riciclato, per rispondere allo smaltimento dei rifiuti da C&D; abbassando cosi i costi degli inerti naturali, sempre parlando di economie di scala. Questo è in linea teorica, ma riflette un dato rilevante. Nel presente lavoro si partirà da una veloce lettura sul comportamento del calcestruzzo, su i suoi principali costituenti, concentrandoci sugli aggregati, analizzandone le sue proprietà fisico-meccaniche, quali la granulometria, la resistenza meccanica e la rigidezza, valutando l’importanza dei legami coesivi tra aggregato alla pasta cementizia. Verranno inoltre analizzate le azioni deleterie che possono instaurarsi tra aggregato di riciclo e pasta cementizia. Dopo aver visto le varie politiche sulla gestione dei rifiuti, la legislazione passata e presente sull’uso dei materiali riciclati, si analizzeranno vari studi sulle proprietà fisico-meccaniche dei calcestruzzi con aggregati di riciclo seguiti da università e poli di ricerca internazionali. Se gli aggregati di riciclo sono selezionati con metodo, in presenza di piani di gestione regionale e/o nazionale, è possibile soddisfare le prestazioni richieste del calcestruzzo, nel rispetto delle politiche di sostenibilità economico-ambientali. Può essere il calcestruzzo riciclato una scelta non solo sostenibile, ma anche economica per il settore edile? Si può avere un calcestruzzo riciclato ad alte prestazioni? Quali sono le politiche da mettere in atto per un mercato di produzione sostenibile del riciclato? Questo e molto altro verrà approfondito nelle pagine seguenti di questa tesi.
Resumo:
Numerosi studi hanno messo in evidenza che la struttura delle comunità macrobentoniche delle spiagge sabbiose dipende da una serie di forzanti fisiche; queste ultime interagendo tra loro determinano la morfodinamica della spiagge stesse. Lo scopo di questo lavoro consiste nell’analisi dei popolamenti macrobentonici di due siti presenti lungo la costa emiliano - romagnola, che differiscono per caratteristiche morfodinamiche, grado di antropizzazione e modalità gestionali di difesa dall’erosione costiera. I siti oggetto di studio sono Lido Spina e Bellocchio; il primo è soggetto ad interventi di ripascimento periodici, mentre il secondo rappresenta un’opportunità rara, per lo studio degli effetti del retreat, in quanto è in forte erosione da molti anni ma, essendo inserito all’interno di una riserva naturale, non è sottoposto ad alcuna misura di gestione. Sono state analizzate le comunità macrobentoniche e le variabili abiotiche (mediana e classazione del sedimento, ampiezza della zona intertidale, pendenza della spiaggia, contenuto di sostanza organica totale presente nel sedimento e i principali parametri chimico-fisici). I risultati del presente studio hanno evidenziato un’elevata eterogeneità della struttura di comunità all’interno del sito di Bellocchio rispetto a Spina; inoltre i popolamenti presenti a Bellocchio mostrano una netta differenza tra i due livelli mareali. Per quanto riguarda i descrittori abiotici, i due siti differiscono per ampiezza della zona intertidale e pendenza della spiaggia; in particolare Lido Spina presenta una condizione di minore dissipatività, essendo caratterizzata da un profilo più ripido e una granulometria più grossolana rispetto a Bellocchio. Nel complesso le caratteristiche granulometriche (mediana e classazione) e il contenuto di materia organica rappresentano le variabili ambientali maggiormente responsabili delle differenze osservate tra i popolamenti macrobentonici analizzati. Al fine di valutare la resistenza dell’habitat intertidale agli eventi naturali di disturbo (storm surge e flooding), sono state effettuare delle simulazioni considerando lo scenario attuale (SLR=0), mediante un modello ibrido fuzzy naive Bayes. I risultati indicano una maggiore resistenza delle comunità presenti nel sito di Spina, in quanto non si hanno variazioni significative del numero medio di taxa e di individui; viceversa le simulazioni relative a Bellocchio mostrano una diminuzione del numero medio di taxa e aumento del numero medio di individui, sottolineando una maggiore vulnerabilità delle comunità macrobentoniche presenti in questo sito. L’inasprimento dei fenomeni estremi potrebbe quindi avere un effetto negativo sulla diversità della componente macrobentonica, soprattutto per gli ambienti di transizione già interessati da fenomeni erosivi, come nel caso di Bellocchio. La perdita di specie, che svolgono processi ecosistemici particolarmente importanti, come il riciclo di nutrienti, potrebbe favorire l’aumento di abbondanza di specie opportunistiche, l’insediamento di specie alloctone, con la conseguente alterazione, se non scomparsa delle principali funzioni ecologiche svolte da questi ecosistemi costieri.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
Resumo:
La tesi di Dottorato studia il flusso sanguigno tramite un codice agli elementi finiti (COMSOL Multiphysics). Nell’arteria è presente un catetere Doppler (in posizione concentrica o decentrata rispetto all’asse di simmetria) o di stenosi di varia forma ed estensione. Le arterie sono solidi cilindrici rigidi, elastici o iperelastici. Le arterie hanno diametri di 6 mm, 5 mm, 4 mm e 2 mm. Il flusso ematico è in regime laminare stazionario e transitorio, ed il sangue è un fluido non-Newtoniano di Casson, modificato secondo la formulazione di Gonzales & Moraga. Le analisi numeriche sono realizzate in domini tridimensionali e bidimensionali, in quest’ultimo caso analizzando l’interazione fluido-strutturale. Nei casi tridimensionali, le arterie (simulazioni fluidodinamiche) sono infinitamente rigide: ricavato il campo di pressione si procede quindi all’analisi strutturale, per determinare le variazioni di sezione e la permanenza del disturbo sul flusso. La portata sanguigna è determinata nei casi tridimensionali con catetere individuando tre valori (massimo, minimo e medio); mentre per i casi 2D e tridimensionali con arterie stenotiche la legge di pressione riproduce l’impulso ematico. La mesh è triangolare (2D) o tetraedrica (3D), infittita alla parete ed a valle dell’ostacolo, per catturare le ricircolazioni. Alla tesi sono allegate due appendici, che studiano con codici CFD la trasmissione del calore in microcanali e l’ evaporazione di gocce d’acqua in sistemi non confinati. La fluidodinamica nei microcanali è analoga all’emodinamica nei capillari. Il metodo Euleriano-Lagrangiano (simulazioni dell’evaporazione) schematizza la natura mista del sangue. La parte inerente ai microcanali analizza il transitorio a seguito dell’applicazione di un flusso termico variabile nel tempo, variando velocità in ingresso e dimensioni del microcanale. L’indagine sull’evaporazione di gocce è un’analisi parametrica in 3D, che esamina il peso del singolo parametro (temperatura esterna, diametro iniziale, umidità relativa, velocità iniziale, coefficiente di diffusione) per individuare quello che influenza maggiormente il fenomeno.
Resumo:
The objective of this thesis was to improve the commercial CFD software Ansys Fluent to obtain a tool able to perform accurate simulations of flow boiling in the slug flow regime. The achievement of a reliable numerical framework allows a better understanding of the bubble and flow dynamics induced by the evaporation and makes possible the prediction of the wall heat transfer trends. In order to save computational time, the flow is modeled with an axisymmetrical formulation. Vapor and liquid phases are treated as incompressible and in laminar flow. By means of a single fluid approach, the flow equations are written as for a single phase flow, but discontinuities at the interface and interfacial effects need to be accounted for and discretized properly. Ansys Fluent provides a Volume Of Fluid technique to advect the interface and to map the discontinuous fluid properties throughout the flow domain. The interfacial effects are dominant in the boiling slug flow and the accuracy of their estimation is fundamental for the reliability of the solver. Self-implemented functions, developed ad-hoc, are introduced within the numerical code to compute the surface tension force and the rates of mass and energy exchange at the interface related to the evaporation. Several validation benchmarks assess the better performances of the improved software. Various adiabatic configurations are simulated in order to test the capability of the numerical framework in modeling actual flows and the comparison with experimental results is very positive. The simulation of a single evaporating bubble underlines the dominant effect on the global heat transfer rate of the local transient heat convection in the liquid after the bubble transit. The simulation of multiple evaporating bubbles flowing in sequence shows that their mutual influence can strongly enhance the heat transfer coefficient, up to twice the single phase flow value.