119 resultados para MALTRATO FISICO


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'intento della tesi è realizzare un'unità didattica rivolta ad una classe di terza media, incentrata sullo studio della simmetria, partendo dall'osservazione delle arti decorative, nella fattispecie dei fregi, fino ad approdare all'analisi di particolari composizioni musicali. Nel primo capitolo ci proponiamo di classificare i \textit{gruppi dei fregi}, ovvero i sottogruppi discreti dell'insieme delle isometrie del piano euclideo in cui le traslazioni formano un sottogruppo ciclico infinito. Nel secondo capitolo trasferiremo i concetti introdotti nel primo capitolo dal piano euclideo a quello musicale. Nel terzo capitolo troveremo la descrizione della proposta didattica costruita sulla base dei contenuti raccolti nei primi due capitoli. Tale laboratorio è stato ideato nel tentativo di assolvere un triplice compito: fornire uno strumento in più per lo studio matematico delle isometrie e delle simmetrie, mostrare in che modo un processo fisico come la musica può essere rappresentato sul piano cartesiano come funzione del tempo, offrendo un primo assaggio di ciò che molti ragazzi dovranno affrontare nel prosieguo dei loro studi e infine introdurre lo studente ad un approccio più critico e ``scientifico'' all’arte in generale, e in particolare alla musica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonostante negli ultimi anni si sia verificato un generale abbassamento degli infortuni sul lavoro, si rileva che gli incidenti legati alle esplosioni sono rimasti pressoché stazionari. Questo indica la necessità, sia di una maggiore aderenza delle soluzioni di limitazione dei rischi adottate, alle direttive nazionali ed europee pur introdotte in campo legislativo, sia – soprattutto – di asseverare processi di valutazione dei rischi medesimi, caso per caso presentati dalle differenti realtà produttive. Nel lavoro qui presentato si è proceduto, quindi, dopo un'introduzione sulle dinamiche dei fenomeni fisico-chimici che portano all’esplosione, a proporre ed illustrare una metodologia di analisi ed adeguamento alle principali normative in materia di ATEX, ovvero alle Direttive europee di riferimento e alle norme tecniche CEI specialistiche mediante un approccio classico di analisi del rischio. Fine ultimo di tale metodologia sarà la definizione del livello di riduzione del rischio ottenuto grazie all’adeguamento alle predette Direttive. Preliminarmente viene definita una procedura di ottimizzazione per l’individuazione e classificazione le sorgenti di emissione, sia di gas e vapori, che di polveri. Analogo ragionamento viene, poi, condotto per le principali fonti d’innesco delle nubi. Utilizzando opportuni software nel continuo si definisce il livello di rischio pre-adeguamento, le aree di maggiore criticità (in cui procedere agli interventi di prevenzione e protezione, materiali e organizzativi) e il livello di rischio residuo post-adeguamento. La metodologia è stata applicata al caso reale di un impianto per la distillazione dell’etanolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il calcestruzzo è uno dei materiali più utilizzati nell’edilizia, ma il meno sostenibile. Per la sua produzione vengono sfruttate elevate quantità di risorse naturali non rinnovabili con un impatto ambientale non trascurabile, sia per le sostanze emesse in atmosfera, sia per le macerie derivate post utilizzo. L’ingresso nel XXI secolo ha segnato definitivamente l’affermazione del concetto di sviluppo sostenibile nei riguardi di tutti i processi produttivi dei beni, che devono essere necessariamente strutturati secondo una logica di risparmio energetico e di controllo della produzione di scorie e rifiuti, prevedendone un loro riutilizzo in altri settori, o un loro smaltimento senza provocare danni all’ambiente. Anche l’industria del cemento e del calcestruzzo è chiamata a svolgere il proprio ruolo per contribuire ad un miglior bilancio ecologico globale, indirizzando la ricerca verso possibilità d’impiego di materiali “innovativi”, che siano in grado di sostituire parzialmente o totalmente l’uso di materie prime non rinnovabili, tenendo conto dell’enorme richiesta futura di infrastrutture, soprattutto nei paesi in via di sviluppo. Negli ultimi anni si sta sempre più affermando il potenziale del riciclo dei materiali ottenuti dalla demolizione di edifici (C&DW – Construction and Demolition Waste), questo dovuto anche a politiche di gestione dei rifiuti che incentivano il risparmio, il riutilizzo, il riciclo e la valorizzazione dei beni. I calcestruzzi con aggregati di riciclo sono generalmente suddivisi in due macrogruppi: quelli ottenuti da aggregati di riciclo di solo calcestruzzo (RCA – Recycled Coarse Aggregate) e quelli da aggregati da demolizione totale (MRA – Mixed Recycled Aggregate) che però contengono molte impurità. Come anche uno può subito pensare gli aggregati riciclati hanno delle proprietà diverse da quelli naturali, questi contengono oltre l’aggregato naturale anche il legante coeso, polveri di laterizio, vetro, ceramica, plastica eccet., i quali offrono una miscela ricca di cloruri, solfati, silice amorfa ed altri componenti dannosi per la nuova miscela di calcestruzzo. In presenza di questi prodotti, gli aggregati non solo non soddisfano i requisiti chimici, ma influiscono negativamente anche sulle proprietà fisico-meccaniche del calcestruzzo. Per questo vedremmo in questa tesi tramite un accurata analisi degli aggregati, e del loro “contributo” per il corretto comportamento del calcestruzzo, leggendo criticamente come le normative regolano i requisiti che gli aggregati debbono soddisfare, vedendo le varie possibilità di riutilizzo dei materiali di riciclo da demolizione. La tesi mira all'incentivo dei materiali da riciclo, come scelta sostenibile per il futuro dell'edilizia. E' stato calcolato che la produzione totale di macerie da demolizione nel mondo, non supera il 20% in massa degli aggregati che vengono utilizzati per la produzione del calcestruzzo nei paesi sviluppati. Dai vari studi è stato valutato in media che col solo 20% di riciclato sostituito, le caratteristiche del calcestruzzo indurito cambiano di poco dal normale miscelato con aggregati naturali; ovviamente se gli aggregati da riciclo sono stati selezionati e sottoposti ai vari test delle norme europee standardizzate. Quindi uno può subito pensare in linea teorica, tralasciando i costi di gestione, trasporto eccet. , che basta utilizzare per ogni metro cubo di calcestruzzo 20% di riciclato, per rispondere allo smaltimento dei rifiuti da C&D; abbassando cosi i costi degli inerti naturali, sempre parlando di economie di scala. Questo è in linea teorica, ma riflette un dato rilevante. Nel presente lavoro si partirà da una veloce lettura sul comportamento del calcestruzzo, su i suoi principali costituenti, concentrandoci sugli aggregati, analizzandone le sue proprietà fisico-meccaniche, quali la granulometria, la resistenza meccanica e la rigidezza, valutando l’importanza dei legami coesivi tra aggregato alla pasta cementizia. Verranno inoltre analizzate le azioni deleterie che possono instaurarsi tra aggregato di riciclo e pasta cementizia. Dopo aver visto le varie politiche sulla gestione dei rifiuti, la legislazione passata e presente sull’uso dei materiali riciclati, si analizzeranno vari studi sulle proprietà fisico-meccaniche dei calcestruzzi con aggregati di riciclo seguiti da università e poli di ricerca internazionali. Se gli aggregati di riciclo sono selezionati con metodo, in presenza di piani di gestione regionale e/o nazionale, è possibile soddisfare le prestazioni richieste del calcestruzzo, nel rispetto delle politiche di sostenibilità economico-ambientali. Può essere il calcestruzzo riciclato una scelta non solo sostenibile, ma anche economica per il settore edile? Si può avere un calcestruzzo riciclato ad alte prestazioni? Quali sono le politiche da mettere in atto per un mercato di produzione sostenibile del riciclato? Questo e molto altro verrà approfondito nelle pagine seguenti di questa tesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La produzione di sedili auto rappresenta una delle principali applicazioni delle schiume poliuretaniche flessibili a bassa densità. La forte necessità di riduzione del peso totale del veicolo si traduce in una richiesta di significative riduzioni di densità dei materiali utilizzati per l’interno vettura. Tale riduzione deve tuttavia essere associata a migliorate proprietà, nel senso del mantenimento delle performance nel tempo, della sicurezza e del comfort. Ricerche di mercato hanno evidenziato la necessità di sviluppare schiume poliuretaniche con elevate performance in termini di comfort, associate a significative riduzioni di densità e significative riduzioni di spessori applicati, nell’ottica di produrre sedili sempre più sottili consentendo la massima flessibilità di design dell’interno del veicolo. Scopo del presente progetto è lo sviluppo di una nuova chimica associata a quella del poliuretano che permetta di ottenere un elevato comfort. Il corpo umano e maggiormente sensibile a vibrazioni con frequenza tra i 4 e gli 8 Hz. In questo intervallo di frequenze le vibrazioni trasmesse sono correlate con l’isteresi del materiale stesso. Solitamente basse isteresi sono associate a bassa trasmissività delle vibrazioni. I produttori di auto hanno quindi cominciato a valutare il comfort di un sedile in termini di isteresi del materiale stesso. Nel caso specifico è considerato un sedile confortevole se possiede una isteresi inferiore al 18%. Le performance in termini di comfort devono essere associate anche ad una bassa emissione di composti organici volatili, con particolare attenzione ad ammine e aldeidi, ad un 15% di riduzione di densità (l’obiettivo è raggiungere una densità di 60 g/L a fronte di una densità attuale che si colloca nel range 75-80 g/L), con proprietà fisico meccaniche e resistenza all’invecchiamento in grado di soddisfare i capitolati delle case automobilistiche. Recentemente la produzione di SMPs (silane-modified polymers) ricopre un ruolo fondamentale nel mercato dei sigillanti e degli adesivi. L’idea di utilizzare questa famiglia di silani nella produzione di schiume poliuretaniche flessibili risiede nel fatto che, esattamente come in sigillanti e adesivi, ci possa essere una reazione successiva a quella di formazione del PU che possa dare ulteriore reticolazione della frazione morbida. La reazione di post-curing del silano ha incontrato diverse problematiche relative alla scarsa reattività del silano stesso. Per attivare la reazione di idrolisi e oligomerizzazione si è utilizzato un acido di Brønsted (DBSA) ma l’interazione con le ammine presenti nel poliolo formulato, necessarie alla reazione di formazione del legame uretanico, ne hanno inibito l’attività.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, affianco ai succhi di frutta “classici” è sempre più importante la produzione di “nuovi succhi” che vengono formulati a partire da frutta non convenzionalmente utilizzata per la produzione di succo. Un esempio particolare è il melograno, ricco di sostanze come ellagitannini, antociani e altri derivati dell’acido gallico ed ellagico. Al melograno sono state attribuite differenti attività biologiche tra le quali effetti benefici a livello cardiovascolare ed intestinale, attività di prevenzione del cancro e altre patologie neurodegenarative. Non è ancora chiaro quali siano i costituenti che dimostrano avere tali proprietà. L’alto potere antiossidante degli ellagitannini ha fatto supporre che fossero essi stessi i responsabili di alcune attività benefiche. Tuttavia, è stato dimostrato che la loro biodisponibilità è molto bassa, in particolare, alcuni studi hanno dimostrato che essi vengono trasformati dalla flora batterica intestinale in urolitine, che, in quella forma, possono essere assorbiti nell’intestino. Per questo motivo si pensa che questi composti, formati a partire dai tannini, presenti nel melograno, siano i responsabili dell’attività. Questo lavoro sperimentale si colloca all’interno del progetto finanziato dalla Regione Emilia-Romagna; in particolare fa parte dell’OR4 “componenti alimentari che concorrano al mantenimento di uno stato di benessere fisico e riduca il rischio di contrarre malattie”. In questo lavoro sperimentale sono stati analizzati succhi di melograno ottenuti da arilli, i semi del melograno, di cultivar e provenienze geografiche diverse. Lo scopo è quello di mettere a punto metodiche analitiche strumentali avanzate (HPLC-ESI-TOF-MS) per la determinazione di antociani e altri composti fenolici nei succhi oggetto della sperimentazione e di identificare i composti presenti nei diversi campioni. La possibilità di utilizzare un analizzatore di massa come il TOF, infatti, permetterà di avere un’ottima accuratezza/sicurezza nell’identificazione dei composti fenolici nei campioni in esame. I metodi messi a punto verranno poi utilizzati per la determinazione dei composti fenolici nei diversi succhi di melograno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi tratta di una sperimentazione condotta su uve Cabernet Franc vinificate secondo due diversi protocolli: (i) una fermentazione tradizionale/standard durante la quale la fermentazione alcolica (FA) precede la fermentazione malolattica (FML), (ii) ed una innovativa, definita “co-inoculo”, in cui i tempi delle due fermentazioni coincidono. Sui vini ottenuti dalle due prove sono state esaminate le caratteristiche fisico-chimiche e sensoriali. Nel corso delle analisi effettuate sono state riscontrate alcune differenze chimiche e sensoriali tra i due campioni “co-inoculo” e “testimone” in esame. Inoltre, con il metodo del co-inoculo la FML si è conclusa in anticipo rispetto al protocollo tradizionale di inoculo al termine della FA. Questo dato indica la possibilità di un guadagno sia dal punto di vista economico sia dal punto di vista tecnico-pratico di gestione della cantina. Nel co-inoculo, la rapida conclusione della fermentazione malolattica è da attribuire alla popolazione batterica che, moltiplicatasi in un ambiente favorevole e ricco in nutrienti qual è il mosto, ha consentito una rapida cinetica di degradazione del malico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto QRPlaces - Semantic Events, oggetto di questo lavoro, focalizza l’attenzione sull’analisi, la progettazione e l’implementazione di un sistema che sia in grado di modellare i dati, relativi a diversi eventi facenti parte del patrimonio turistico - culturale della Regione Emilia Romagna 1, rendendo evidenti i vantaggi associati ad una rappresentazione formale incentrata sulla Semantica. I dati turistico - culturali sono intesi in questo ambito sia come una rappresentazione di “qualcosa che accade in un certo punto ad un certo momento” (come ad esempio un concerto, una sagra, una raccolta fondi, una rappresentazione teatrale e quant’altro) sia come tradizioni e costumi che costituiscono il patrimonio turistico-culturale e a cui si fa spesso riferimento con il nome di “Cultural Heritage”. Essi hanno la caratteristica intrinseca di richiedere una conoscenza completa di diverse informa- zioni correlata, come informazioni di geo localizzazione relative al luogo fisico che ospita l’evento, dati biografici riferiti all’autore o al soggetto che è presente nell’evento piuttosto che riferirsi ad informazioni che descrivono nel dettaglio tutti gli oggetti, come teatri, cinema, compagnie teatrali che caratterizzano l’evento stesso. Una corretta rappresentazione della conoscenza ad essi legata richiede, pertanto, una modellazione in cui i dati possano essere interconnessi, rivelando un valore informativo che altrimenti resterebbe nascosto. Il lavoro svolto ha avuto lo scopo di realizzare un dataset rispondente alle caratteristiche tipiche del Semantic Web grazie al quale è stato possibile potenziare il circuito di comunicazione e informazione turistica QRPlaces 2. Nello specifico, attraverso la conversione ontologica di dati di vario genere relativi ad eventi dislocati nel territorio, e sfruttando i principi e le tecnologie del Linked Data, si è cercato di ottenere un modello informativo quanto più possibile correlato e arricchito da dati esterni. L’obiettivo finale è stato quello di ottenere una sorgente informativa di dati interconnessi non solo tra loro ma anche con quelli presenti in sorgenti esterne, dando vita ad un percorso di collegamenti in grado di evidenziare una ricchezza informativa utilizzabile per la creazione di valore aggiunto che altrimenti non sarebbe possibile ottenere. Questo aspetto è stato realizzato attraverso un’in- terfaccia di MashUp che utilizza come sorgente il dataset creato e tutti i collegamenti con la rete del Linked Data, in grado di reperire informazioni aggiuntive multi dominio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo principale della tesi è quello di presentare alcuni aspetti quantistici di un siste- ma fisico intermedio fra la buca infinita di potenziale e l’oscillatore armonico: una buca di potenziale con le pareti elastiche. Per questo tipo di potenziale si determinano le autofunzioni dell’energia attraverso l’u- tilizzo di equazioni differenziali di Kummer, Whittaker o Weber. Si determina inoltre lo spettro energetico di tale sistema sotto forma di un’equazione trascendente, e ne si analizza il comportamento sotto determinati limiti, dapprima in approssimazione zero e successivamente in prima approssimazione. Segue una breve trattazione sul propagatore quantistico e sulla sua forma in approssi- mazione semiclassica fornita dalla formula di Pauli - van Vleck - Morette, completa di alcuni esempi di calcolo esplicito relativo a semplici potenziali che presentano analogie con il potenziale in oggetto, e di confronti fra le forme esatte di tali propagatori e le loro approssimazioni semiclassiche. È calcolato infine anche il propagatore quantistico per la buca di potenziale con pareti elastiche, nella sua forma semiclassica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ottica di uno sviluppo ecosostenibile, la progettazione e la realizzazione di imballaggi alimentari devono necessariamente tener conto del destino del materiale al termine della sua vita utile. Negli ultimi anni, infatti, il considerevole incremento dei volumi dei rifiuti plastici e le difficoltà legate al loro smaltimento e riciclo hanno rappresentato le forze motrici per l’individuazione di soluzioni concrete ai problemi connessi alla gestione di tali scarti. Lo sviluppo di nuovi polimeri che soddisfino requisiti di degradabilità, compatibilità con l’ambiente di smaltimento e rilascio di prodotti di degradazione con un basso livello di tossicità, oltre che possedere proprietà fisico-meccaniche adatte per l’applicazione richiesta, offre una possibile soluzione a tali questioni ad oggi irrisolte. Tra i polimeri biodegradabili, il poli(butilene 1,4-cicloesandicarbossilato) (PBCE) è un materiale di grande interesse, in quanto la presenza dell’anello alifatico nell’unità monomerica conferisce al materiale un’elevata cristallinità, una notevole stabilità termica e interessanti proprietà meccaniche. Per contro, l’eccessiva rigidità e fragilità del materiale e la sua lenta cinetica di biodegradazione lo rendono poco versatile e ne limitano notevolmente la gamma di possibili applicazioni. Per tali ragioni, si è scelto di incentrare il presente lavoro sullo sviluppo di copolimeri a base di PBCE, dotati sia di migliori proprietà meccaniche che di una maggiore velocità di degradazione. Lo scopo previsto è stato raggiunto mediante sintesi di due sistemi di copolimeri a blocchi contenenti eteroatomi lungo la catena principale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.