619 resultados para Campo geomagnetico,Geodinamo,Inversioni di polarità,comportamento caotico
Resumo:
L’oggetto della presente tesi è sviluppare la ricostruzione virtuale di un autobus pubblicitario progettato negli anni 50, un simbolo del design italiano legato allo sviluppo industriale del secondo dopoguerra. La tesi si sviluppa inizialmente con un’attività di ricerca e documentazione legata all'autobus, con particolare attenzione alla raccolta di immagini e disegni progettuali d’epoca, punto di partenza per la ricostruzione virtuale del mezzo. Si procede quindi alla modellazione CAD della carrozzeria cercando di replicare in modo quanto più dettagliato l’originale. Dal modello ottenuto, sono stati ricavati due prototipi di diverse dimensioni e materiali: un primo di dimensioni ridotte, realizzato tramite la tecnica del rapid prototyping, ed un secondo di dimensioni maggiori, in ureol fresato. Successivamente si procede ad uno studio preliminare di ricostruzione del mezzo con lo scopo di analizzare le principali problematiche di un’eventuale futura costruzione e messa in strada del mezzo. Tale studio parte dalla normativa vigente sulla costruzione e sulle norme di circolazione degli autobus, comprendente sia le leggi italiane sia comunitarie, riguardanti le caratteristiche dimensionali, prestazionali e di sicurezza che qualsiasi autobus con licenza di circolazione deve rispettare. Quindi verrà compiuta la scelta del telaio base da utilizzare tra quelli proposti dai maggiori costruttori europei e verrà realizzato il modello CAD anche del telaio con l’obiettivo di collegarlo alla carrozzeria e ottenere così il modello completo in tutte le sue parti. Per realizzare la scocca, verranno prese in esame le soluzioni costruttive più utilizzate dai progettisti di autobus, e viene svolto un breve studio riguardo i materiali utilizzabili a tale scopo. Sulla base di tali considerazioni si procederà alla modellazione della stessa. In ultimo si procede ad un preliminare studio fluidodinamico attraverso l’analisi CFD, e ad un preliminare studio del comportamento meccanico della struttura reticolare che sostiene la carrozzeria.
Resumo:
L’incidente stradale è la conseguenza di uno o più errori all'interno di un sistema complesso, in cui l'uomo rappresenta la principale causa d’incidentalità. Spesso ciò che può apparire a una prima analisi un errore dell’utente, in realtà può essere collegato a problemi di progettazione e gestione dell’infrastruttura. Per massimizzare i risultati nel campo della sicurezza stradale, occorre valutare il “sistema strada” in ogni suo elemento. Per raggiungere questi obiettivi le analisi di sicurezza giocano un ruolo fondamentale. Il Road Safety Review consente di individuare nel tracciato la presenza di situazioni di rischio, in modo tale da eliminarli o attenuarli prima che diano luogo ad incidenti. Il Ministero delle Infrastrutture e dei Trasporti ha emanato le "Linee guida per la gestione della sicurezza delle infrastrutture stradali". Secondo queste Linee Guida l'uomo detiene un ruolo centrale nel sistema. L'uomo deve adattare il suo comportamento, in funzione del veicolo condotto e delle condizioni ambientali. Diventa indispensabile integrare le analisi di sicurezza con il fattore uomo. Obiettivo della tesi è analizzare la sicurezza di un’infrastruttura viaria esistente integrando i risultati ottenuti dal Road Safety Review con metodologie innovative che tengano conto del comportamento degli utenti durante la guida. È stata realizzata una sperimentazione in sito che ha coinvolto un campione formato da 6 soggetti. Ognuno di essi ha percorso il tronco stradale, della SP26 "Valle del Lavino", in provincia di Bologna. La strada, richiede interventi di adeguamento e messa in sicurezza poiché risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. La sperimentazione ha previsto due fasi: la prima, in cui è stato condotto il Road Safety Review . La seconda, in cui ogni soggetto ha guidato lungo il tronco stradale, indossando il Mobile Eye-XG, un'innovativa strumentazione eye tracking in grado di tracciare l’occhio umano e i suoi movimenti.
Resumo:
Lo scopo di questo elaborato è descrivere alcuni dei meccanismi di produzione dell’energia studiati nel campo astrofisico. Essendo questi piuttosto numerosi, sono stati trascurati i processi ritenuti di sola conversione di energia da una forma ad un’altra, come, per esempio,l’emissione da parte di una particella accelerata. In questo modo si è potuto dedicare più spazio ad altri fenomeni, molto comuni ed efficienti, che saranno qui anticipatamente elencati. Nel Capitolo 1 vengono descritti i processi di fusione nucleare che alimentano le stelle; per ognuno sono state riportate la quantità di energia prodotta e i tempi scala. Si è scelto inoltre di dare maggiore importanza a quei fenomeni che caratterizzano le fasi principali dell’evoluzione stellare, essendo questi anche i più efficienti, mentre le reazioni secondarie sono state solamente accennate. Nella Sezione 1.4 vengono descritti i meccanismi alla base dell’esplosione di supernova, essendo un’importante fase evolutiva nella quale la quantità di energia in gioco è considerevole. Come conclusione dell’argomento vengono riportare le equazioni che descrivono la produzione energetica nei processi di fusione descritti precedentemente. Nella seconda parte dell’elaborato, viene descritto il fenomeno dell’accrescimento gravitazionale utilizzando come oggetto compatto di riferimento un buco nero. Si è scelto di porre l’accento sull’efficienza della produzione energetica e sul limite di luminosità di Eddington.
Resumo:
Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entità di- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
La radiazione elettromagnetica è una singola entità, come si deduce dall’universalità delle leggi di Maxwell, nonostante lo spettro elettromagnetico sia caratterizzato da regioni a cui si associano nomi differenti. Questo implica l’esistenza di un meccanismo fondamentale comune alla base di tutti i processi di radiazione, che si identifica in una carica in moto non uniforme. Infatti una carica stazionaria ha un campo elettrico costante e un campo magnetico nullo, quindi non irradia; lo stesso vale per una carica in moto uniforme. La radiazione di Bremsstrahlung, che avviene nel continuo, spaziando dal radio ai raggi gamma, fu scoperta negli anni ’30 del secolo scorso, in seguito all’osservazione che la perdita di energia che subisce un elettrone attraversando la materia non è data unicamente dalla ionizzazione: l’elettrone, accelerato dal nucleo ionizzato, irradia e, di conseguenza, viene frenato. Letteralmente “Bremsstrahlung“ significa “radiazione di frenamento” e in astrofisica rappresenta il principale meccanismo di raffreddamento di un plasma a temperature molto elevate; nel seguente elaborato tale plasma sarà considerato monoatomico e completamente ionizzato. Dall’analisi dello spettro di Bremsstrahlung si possono rilevare la temperatura e la misura di emissione della nube di gas osservato, che consentono di ricavare la densità, la massa e la luminosità della nube stessa. Nel capitolo 1 vengono riportate la descrizione di questo processo di radiazione e le principali formule che lo caratterizzano, illustrate in ambiente semiclassico (Bremsstrahlung termica) e in ambiente relativistico (Bremsstrahlung relativistica). Nel capitolo 2 segue la trattazione di alcuni esempi astrofisici: le regioni HII; il gas intergalattico degli ammassi di galassie ed emettono principalmente nella banda X; le galassie Starburst; le binarie X; la componente elettronica dei raggi cosmici e i brillamenti solari; infine un accenno agli oggetti di Herbig-Haro.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
In questa tesi, utilizzando le particolari proprietà del polimero conduttivo poli(3,4-etilenediossitiofene) drogato con polistirene sulfonato , o PEDOT:PSS, sono stati realizzati dei transistor elettrochimici organici (OECTs), in cui il gate e canale source-drain sono stati realizzati depositando su substrato di vetro film sottili di questo polimero. I dispositivi realizzati sono stati caratterizzati, per comprenderne meglio le funzionalità e le proprietà per possibili applicazioni future, in particolare come sensori di glucosio. Il PEDOT:PSS è uno dei materiali più studiati per applicazioni della bioelettronica in virtù della sua grande stabilità chimica e termica, della reversibilità del suo processo di drogaggio, della grande conducibilità e delle sue proprietà elettrochimiche, nonché della sua attività in un vasto range di pH. Vengono trattate nell’elaborato anche le tecniche di deposizione di questo polimero per la creazione di film sottili, necessari per le varie applicazioni nell’ambito della bioelettronica organica, la quale si propone di unire la biologia e l’elettronica in un mutuale scambio di informazioni e segnali. Questa interazione si sta verificando soprattutto nel campo sanitario, come si può evincere dagli esempi riportati nella trattazione. Si conclude la parte teorica con una descrizione degli OECTs: viene spiegata la loro struttura, la capacità di connettere conducibilità ionica ed elettronica e il loro funzionamento, inserendo anche un confronto con i FET (“Field Effect Transistor”), per agevolare la comprensione dei meccanismi presenti in questi strumenti. Per la parte sperimentale si presenta invece una descrizione dettagliata dei procedimenti, degli strumenti e degli accorgimenti usati nel fabbricare i transistor sui quali si è lavorato in laboratorio, riportando anche una piccola esposizione sulle principali misure effettuate: curve caratterische I–V, transcaratteristiche e misure di corrente nel tempo sono le principali acquisizioni fatte per studiare i dispositivi. E’ stata studiata la diversa risposta degli OECTs al variare della concentrazione di PBS in soluzione, mostrando un generale rallentamento dei processi e una diminuzione della capacità di modificare la corrente source-drain al calare della concentrazione. In seguito, è stato effettuato un confronto tra transistor appena fatti e gli stessi analizzati dopo un mese, osservando una riduzione della corrente e quindi della conducibilità, seppur senza una modifica qualitativa delle curve caratteristiche (che mantengono il loro andamento). Per quanto riguarda la possibilità di usare questi dispositivi come sensori di glucosio, si introduce uno studio preliminare sulla risposta di un transistor, il cui gate è stato funzionalizzato con ferrocene, alla presenza di glucosio e glucosio ossidasi, un enzima necessario al trasferimento di elettroni, nella soluzione elettrolitica, seppur con qualche difficoltà, per via della mancanza di informazioni sui parametri da utilizzare e il range in cui compiere le misure (tuttora oggetto di ricerca).
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
Con questa tesi ho voluto mettere insieme delle nozioni oggi basilari per chiunque voglia avere un quadro globale del geomagnetismo cercando di essere il più chiaro e esplicativo possibile nell'esposizione sia dal punto di vista matematico che linguistico. Non è stato, comunque, possibile affrontare in soli tre capitoli di tesi tutte le problematiche inerenti a una disciplina così ricca di informazioni e che si è evoluta in modo così rapido negli ultimi anni. La tesi inizia con un'introduzione storica sul magnetismo per passare, attraverso un quadro generale di elettromagnetismo e le equazioni fondamentali di Maxwell, a una descrizione del campo magnetico terrestre e delle sue variazioni spaziotemporali accompagnate da una descrizione dei fenomeni elettrici in atmosfera più importanti del nostro pianeta. Segue poi, nel secondo capitolo, una breve presentazione delle teorie sull'origine del campo e successivamente, tramite la magnetoidrodinamica, si passa alla teoria della dinamo ad autoeccitazione il cui funzionamento è preso come modello, fino ad oggi considerato il più valido, per spiegare le origini del campo magnetico terrestre. Infine, nel terzo ed ultimo capitolo, si parla del rapporto del campo magnetico terrestre con le rocce terrestri che introduce un approfondimento generale sul paleomagnetismo ossia del campo magnetico nel passato e che ruolo svolge nell'ambito della tettonica a placche.
Resumo:
Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.
Resumo:
Nell’ambito del tirocinio svolto è stato affrontato lo studio del Progetto di messa in sicurezza e bonifica della Raffineria ISAB IMP. SUD, attiva nel SIN di Priolo Gargallo. In particolare lo studio ha visto il Monitoraggio Annuale delle acquee sotterranee. Il lavoro è stato articolato nelle seguenti fasi: Lo studio del Progetto di messa in sicurezza e bonifica dell’area Il campionamento delle acque attraverso sopralluoghi in campo Le analisi in laboratorio La validazione dei dati ottenuti La stesura della relazione tecnica relativamente ai dati validati, trasmessa all’azienda e agli enti competenti Il campionamento, che avviene attraverso un piezometro, prevede: Inizialmente la misura del livello statico della falda tramite freatimetro Segue la fase di spurgo, fin quando non si ha la stabilizzazione dei parametri quali pE, pH, temperatura, conducibilità elettrica, ecc… misurati in continuo tramite una sonda multiparametrica accoppiata alla cella di flusso Infine si campiona. In laboratorio sono state applicate le seguenti tecniche per l’analisi degli inquinanti definiti dal D.L.152/06: VOC e IPA; Analisi svolte secondo le metodiche ufficiali EPA 8260B e EPA 8272 Metalli; EPA 6020 a Idrocarburi; UNI EN ISO 9377-2/2002 (fraz. C10-C40). La validazione dei dati ha visto in particolare l’elaborazione dei risultati attraverso il confronto, per ogni parametro, tra i dati forniti dall’Azienda e i risultati delle analisi compiute dall’ARPA. Inerentemente al seguente studio è stata condotta, sulla base dei risultati delle diverse fasi di indagine ambientale svolte dall’azienda, l’analisi di rischio sito-specifica utilizzando il software RiskNet.
Resumo:
Il presente lavoro è inserito nel contesto di applicazioni che riguardano la pianificazione e gestione delle emergenze umanitarie. Gli aspetti che si sono voluti mettere in evidenza sono due. Da un lato l'importanza di conoscere le potenzialità dei dati che si hanno di fronte per poterli sfruttare al meglio. Dall'altro l'esigenza di creare prodotti che siano facilmente consultabili da parte dell'utente utilizzando due diverse tecniche per comprenderne le peculiarità. Gli strumenti che hanno permesso il presente studio sono stati tre: i principi del telerilevamento, il GIS e l'analisi di Change Detection.
Resumo:
Lo scopo del lavoro di tesi, svolto presso gli stabilimenti della Ditan Color Srl di Palazzolo Acreide (SR), è stato quello di realizzare un rivestimento colorato a base acquosa per il settore edile avente uno spessore medio del film essiccato di circa 150 micron, rivestimento definito a “basso spessore”, da applicare con sistemi tradizionali (rullo, spray, pennello) su intonaci “civili”, a base di calce e/o cemento, rasature cementizie e su pitture minerali esistenti. La caratteristica peculiare di questa pittura è la presenza di un sistema sinergico di “leganti” costituito da resine acriliche, silossaniche e da silice colloidale a dimensioni nanometriche. La presenza di PV con leganti acrilici, acril/silossanici, minerali a base di calce aerea o silicato di potassio è una realtà da tempo consolidata. Il mercato offre moltissime soluzioni legate alle caratteristiche delle superfici da trattare, alle esigenze dei clienti o semplicemente alle aree geografiche. Con questo progetto si è valutata la possibilità di includere tra i leganti un nuovo componente, il gel di silice a dimensioni nanometriche (diametro delle particelle < 100 nm) e di monitorare le proprietà del prodotto finito. Le caratteristiche fondamentali per classificare il PV sono: l’adesione della pittura ai supporti, intesa come misurazione dell’aderenza per trazione diretta; la traspirabilità del film essiccato – con conseguente ruolo attivo del PV nello scambio tra ambiente interno ed esterno - intesa come determinazione del grado di trasmissione del vapore acqueo secondo la norma UNI EN ISO 7783; la resistenza all’acqua meteorica - con conseguente protezione dello stato e della salubrità delle murature - intesa come determinazione del grado di trasmissione dell’acqua liquida secondo la UNI EN 1062-3. Lo studio è iniziato con la messa a punto del tipo di sistema disperdente/bagnante e del suo dosaggio, quindi del dosaggio di pigmento TiO2. Successivamente è stato valutato il comportamento di una serie di sistemi leganti contenenti vari tipi di polimeri e l’effetto della presenza di silice colloidale. Infine, sulle formulazioni ottimizzate, sono state condotte prove di adesione al supporto, traspirabilità e resistenza all’acqua meteorica.