145 resultados para Microsphaera diffusa
Resumo:
Gli ammassi di galassie sono gli oggetti gravitazionalmente legati più grandi dell’Universo. Questi emettono principalmente in banda X tramite bremsstrahlung. Una frazione mostra anche emissione radio diffusa da parte di elettroni relativistici che spiraleggiano nel campo magnetico. Si possono classificare tre tipi di emissione: alon, relitti e mini-aloni radio (MH). I MH sono sorgenti radio su scale di ≥ 200 – 500 kpc, osservate al centro di ammassi caratterizzati dalla presenze di cool-core (CC). L’origine dei MH non è ancora chiara. Gli elettroni relativistici che emettono in banda radio hanno tempi di vita radiativi di molto inferiori a quelli necessari per diffondere sulle scale dell’emissione diffusa. Quindi non sono semplicemente iniettati dalle galassie presenti negli ammassi ed è necessario un meccanismo di accelerazione “in-situ” nell’ICM. I MH testimoniano la presenza di meccanismi che canalizzano parte del budget energetico disponibile nei CC nell’ICM.Quindi lo studio è importante per comprendere la fisica dell’ICM e l’interazione fra le componenti non termiche e termiche. I MH si formano attraverso la riaccelerazione delle particelle relativistiche ad opera della turbolenza del gas. L’origine di questa turbolenza tuttavia non è ancora ben compresa. Gli ammassi CC sono caratterizzati da un picco della brillanza X nelle regioni centrali e da un drop della temperatura verso il centro accompagnata da aumento della densità del gas. Si ritiene che questo sia dovuto al raffreddamento del gas che quindi fluisce nelle zone centrali. Recenti osservazioni in X risultan inconsistenti con il modello classico di CF, suggerendo la presenza di una sorgente di riscaldamento del gas su scale del core degli ammassi. Recentemente Zhuravleva (2014) hanno mostrato che il riscaldamento dovuto alla turbolenza prodotta dall'AGN centrale è in grado di bilanciare il processo di raffreddamento. Abbiamo assunto che la turbolenza responsabile del riscaldamento del gas è anche responsabile dell’accelerazione delle particelle nei MH. Nell’ambito di questo scenario ci si aspetta una correlazione tra la potenza del cooling flow, PCF, che è una misura del tasso di energia emessa dal gas che raffredda nei CC, e la luminosità radio, che è una frazione dell’energia della turbolenza che è canalizzata nell’accelerazione delle particelle. In questo lavoro di tesi abbiamo utilizzato il più grande campione disponibile di MH, allo scopo di studiare la connessione fra le proprietà dei MH e quelle del gas termico nei core degli ammassi che li ospitano. Abbiamo analizzato i dati di 21 ammassi e ricavato i parametri fisici all’interno del raggio di cooling e del MH. Abbiamo ricavato la correlazione fra luminosità radio, e PCF. Abbiamo trovato che le due quantità correlano in modo quasi-lineare confermando i risultati precedenti. Tale correlazione suggerisce uno stretto legame fra le proprietà del gas nei CC e l’origine dei MH.
Resumo:
Il Cloud Computing è una realtà sempre più diffusa e discussa nel nostro periodo storico, ma probabilmente non è ancora chiaro a tutti di cosa si tratta e le potenzialità che possiede. Infatti, non esiste ancora una definizione univoca e condivisa e questo può creare confusione. Oggi le grandi compagnie nella comunità informatica spingono sempre di più per affermare i servizi Cloud a livello mondiale, non solo per le aziende del settore, ma anche per tutte le altre. Ed è così che le aziende di tutto il mondo si muovono per imparare e adottare questa nuova tecnologia, per spostare i loro centri dati e le loro applicazioni nel Cloud. Ma dove e quando nasce il Cloud Computing? Quali sono realmente i benefici per le aziende che adottano questa tecnologia? Questo è l'obiettivo della mia tesi: cercare di far chiarezza sulla sua definizione, indagare sulla sua nascita e fare un quadro economico del suo sviluppo, analizzando i benefici per le aziende e le opportunità offerte. Come caso di studio ho scelto la piattaforma Cloud Foundry perchè in questo momento è in forte espansione e sta facendo un grosso lavoro per cercare di rendere il suo prodotto uno standard per il Cloud Computing. Come esempio particolare di piattaforma basata su Cloud Foundry si parlerà di Bluemix, la piattaforma Cloud offerta da IBM, una delle più grandi aziende nel settore informatico.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.
Resumo:
All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.
Resumo:
I Software di editing o manipolazione delle immagini sono divenuti facilmente disponibili nel mercato e sempre più facili da utilizzare. Attraverso questi potenti tool di editing è consentito fare delle modifiche al contenuto delle immagini digitali e violarne l'autenticità. Oggigiorno le immagini digitali vengono utilizzate in maniera sempre più diffusa anche in ambito legislativo quindi comprovarne l'autenticità e veridicità è diventato un ambito molto rilevante. In questa tesi vengono studiati alcuni approcci presenti in letteratura per l'individuazione di alterazioni nelle immagini digitali. In particolare modo è stata approfondita la tecnica di alterazione digitale definita Morphing che, utilizzata in fotografie per il rilascio di documenti di identità di viaggio con elementi biometrici, potrebbe comportare dei rischi per la sicurezza. Il lavoro di questa tesi include, infine, la verifica del comportamento di alcuni Software in commercio in presenza di immagini campione soggette a diversi tipi di alterazione.
Resumo:
Questa analisi è volta a esaminare le perturbazioni che, in date diverse (5/6 Febbraio 2015, 19-22 dicembre 2009, 1 febbraio 2012), hanno portato piovosità diffusa e nevicate intense nell'Emilia-Romagna. Il primo caso preso in esame, ossia quello relativo al periodo suddetto, ha rivestito grande importanza nello scenario dell’inverno scorso, in quanto ha provocato numerosi disagi alla viabilità, interruzione della distribuzione di acqua potabile e black-out elettrici nelle zone interessate da precipitazioni nevose; in Romagna invece sono stati numerosi gli allagamenti soprattutto nel Cesenate e nel Riminese. Nel secondo caso analizzato, invece, assistiamo al fenomeno non troppo comune del gelicidio. Provoca, infatti, anch’esso disagi gravi alla viabilità stradale e autostradale, nonché il pericolo di interruzione della corrente nelle linee elettriche, dovuta al peso del ghiaccio depositato sui conduttori che fa crollare i cavi dell’alta tensione. L’ultimo caso, infine, è stato trattato poiché rientrante nella famosa ondata di gelo della prima metà del Febbraio 2012. Vedremo, infatti, un quadro generale dell’ondata, dopodiché un “focus” sulle importanti nevicate del primo Febbraio in regione.
Resumo:
Le ammine biogene sono composti azotati a basso peso molecolare che vengono prodotti in seguito alla decarbossilazione degli aminoacidi da parte di specifici enzimi microbici della famiglia delle decarbossilasi. Questi composti sono presenti in diversi alimenti e, in particolare, in quelli fermentati. Nonostante la capacità dell’organismo di metabolizzare tali molecole tramite appositi sistemi di detossificazione una loro eccessiva assunzione provoca sintomatologie deleterie per la salute umana. La tiramina, in particolare, è una delle ammine biogene attualmente più studiate in ragione della diffusa presenza dell’enzima tirosina decarbossilasi (tyrDC) nel pool enzimatico di diversi batteri lattici, specialmente quelli appartenenti al genere Enterococcus. Seppure in letteratura vi siano numerosi studi riguardanti il rapporto fra contenuto di tiramina e l’attività degli enterococchi in molti alimenti, ad oggi sono ridotte le informazioni inerenti la regolazione e il ruolo fisiologico di tale molecola per la cellula microbica. Alla luce di tali considerazioni questa tesi mi sono occupata di approfondire le conoscenze relative l’attività dell’enzima tyrDC in un terreno di coltura a composizione nota da parte dei due ceppi di Enterococcus faecalis EF37 e ATCC29212. A tal fine i ceppi sono stati inoculati in cinque diversi terreni e incubati a tre diverse temperature (20°C, 30°C e 40°C), dopo averli pre-coltivati in terreni contenenti o meno tirosina, allo scopo di valutare se la fase di pre-adattamento fosse in grado di influenzare le performance dei ceppi considerati. Dai risultati ottenuti è emerso che è presente un’estrema eterogeneità nell’attività dell’enzima tyrDC anche all’interno della medesima specie, infatti se il ceppo EF37 ha performance migliori in termini di decarbossilazione quando pre-adattato, il ceppo ATCC29212 non sembra essere influenzato da questo fattore, seppur entrambi presentino una crescita cellulare più accentuata quando pre-adattati. È stata inoltre confermata, alle condizioni adattate, la capacità di produrre 2-feniletilamina da parte del solo ceppo EF37.
Resumo:
Le piante spontanee hanno da sempre svolto un ruolo fondamentale nell’alimentazione. Fino alla seconda guerra mondiale, per le limitate possibilità economiche le popolazioni rurali hanno sempre impiegato le specie spontanee come integrazione dell’alimentazione di base, rappresentata da cereali o patate e dalla poca carne disponibile. La raccolta delle piante spontanee ha rappresentato una componente importante della cultura diffusa, di appannaggio, seppure non esclusivo, soprattutto delle donne, che riguardava tanto la conoscenza delle specie e relativi usi, che la stagionalità ed i luoghi più adatti per la raccolta. Successivamente, per le mutate condizioni economiche e la maggiore disponibilità di alimenti diversi sul mercato, l’uso delle piante spontanee è stato progressivamente abbandonato, soprattutto dalle popolazioni urbane. Recentemente, l’interesse per l’uso delle specie spontanee è di nuovo aumentato anche se solamente una piccola parte delle giovani generazioni conosce e consuma queste piante, il cui uso è oggi limitato dalla mancanza di tempo da dedicare alla preparazione dei pasti connessa, in questo caso, ai lunghi tempi di pulizia e mondatura richiesti dopo la raccolta e dalla difficile reperibilità di questi prodotti, il cui prezzo è anche piuttosto elevato. Dato il rinnovato interesse su queste specie, lo scopo di questo lavoro è stata la caratterizzazione analitica di alcune specie erbacee spontanee di uso alimentare nella tradizione tosco-romagnola. I campioni sono stati raccolti nella primavera 2015 nei comuni di Bertinoro (Forlì-Cesena) e Monterchi (Arezzo). Le analisi svolte in laboratorio sono state le seguenti: -determinazione della sostanza secca; -determinazione dei composti fenolici tramite HPLC-DAD; -identificazione dei composti fenolici tramite HPLC/MS; -determinazione spettrofotometrica dei polifenoli totali; -determinazione dell’attività antiossidante tramite metodo DPPH e ABTS.
Resumo:
La branca della ricerca impegnata sul fronte riguardante lo studio della proliferazione dei tumori, si è confrontato negli ultimi anni con una forma di patologia in crescente diffusione a livello mondiale. In particolare si è messo in evidenza che, per quanto riguarda la popolazione femminile, la tipologia più diffusa di tumore colpisce il seno e, se non individuata in tempo, rende molto difficile la sopravvivenza dei soggetti in cui si manifesta. Tutto questo ha portato gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. In particolare, un ruolo molto importante per la diagnosi, è ricoperto dalla Mammografia Digitale ( Digital Mammography): una tecnologia biomedicale principalmente deputata allo screening preventivo, in grado di individuare il tumore al suo stato iniziale e di aumentare quindi la probabilità di una completa guarigione. Tale tecnica si è evoluta di pari passo con i grandi progressi nell’ambito dell’ingegneria biomedicale e dell’informatizzazione dei processi all’interno delle strutture ospedaliere. Questa tesi si propone di descrivere il funzionamento e le normative che regolamento la Digital Mammography, seguendone il processo di integrazione all’interno del panorama clinico sanitario. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di presentare a scopo diagnostico se correttamente interfacciata agli altri sistemi che attualmente caratterizzano il parco clinico nelle strutture ospedaliere. L’analisi è stata condotta partendo dagli aspetti che riguardano la trasmissione delle informazioni e delle immagini digitali, passando attraverso la necessità di un ambiente omogeno e funzionale all’interno del quale tali dati possano essere condivisi, fino ad arrivare all’esaminazione degli standard che rendono possibile una condivisione il più possibile diffusa delle informazioni in ambito ospedaliero. L’ultima parte della trattazione intende valutare una tecnica per l’allineamento dei profili del seno relativi ad una stessa paziente, ma provenienti da acquisizioni temporalmente distinte, con lo scopo di fornire uno strumento di diagnosi più efficace e funzionale.
Resumo:
La presente tesi nasce da un tirocinio avanzato svolto presso l’azienda CTI (Communication Trend Italia) di Milano. Gli obiettivi dello stage erano la verifica della possibilità di inserire gli strumenti automatici nel flusso di lavoro dell’azienda e l'individuazione delle tipologie testuali e delle combinazioni linguistiche a cui essi sono applicabili. Il presente elaborato si propone di partire da un’analisi teorica dei vari aspetti legati all’utilizzo della TA, per poi descriverne l’applicazione pratica nei procedimenti che hanno portato alla creazione dei sistemi custom. Il capitolo 1 offre una panoramica teorica sul mondo della machine translation, che porta a delineare la modalità di utilizzo della TA ad oggi più diffusa: quella in cui la traduzione fornita dal sistema viene modificata tramite post-editing oppure il testo di partenza viene ritoccato attraverso il pre-editing per eliminare gli elementi più ostici. Nel capitolo 2, partendo da una panoramica relativa ai principali software di traduzione automatica in uso, si arriva alla descrizione di Microsoft Translator Hub, lo strumento scelto per lo sviluppo dei sistemi custom di CTI. Nel successivo passaggio, l’attenzione si concentra sull’ottenimento di sistemi customizzati. Un ampio approfondimento è dedicato ai metodi per reperire ed utilizzare le risorse. In seguito viene descritto il percorso che ha portato alla creazione e allo sviluppo dei due sistemi Bilanci IT_EN e Atto Costitutivo IT_EN in Microsoft Translator Hub. Infine, nel quarto ed ultimo capitolo gli output che i due sistemi forniscono vengono rivisti per individuarne le caratteristiche e analizzati tramite alcuni tool di valutazione automatica. Grazie alle informazioni raccolte vengono poi formulate alcune previsioni sul futuro uso dei sistemi presso l’azienda CTI.
Resumo:
La Provincia di Ferrara ha avuto (ed ha tuttora) sul suo territorio, insediamenti produttivi di varia natura, che nel tempo hanno fatto uso di idrocarburi alifatici clorurati, per scopi diversi: solventi, sgrassanti, refrigeranti, supporti chimici e farmaceutici, ecc. Soprattutto nei decenni passati, a causa di normative poco restringenti sull’uso e sullo smaltimento di questi composti, si sono verificate le condizioni per provocare l’inquinamento delle falde del territorio provinciale. Nel corso degli anni, si sono svolti studi di diverso carattere, finalizzati ad individuare e caratterizzare siti (o raggruppamenti di siti) contaminati da idrocarburi clorurati. In questo lavoro si è allargata l’attenzione a tutti i siti presenti nel territorio definito dai limiti amministrativi della Provincia di Ferrara, che, nell‘arco temporale 2000 – 2015, hanno evidenziato contaminazioni da CAHs nell’acquifero superficiale A0 e/o nell’acquifero confinato A1. Si sono create, quindi, carte di distribuzione dei siti inquinati su scala provinciale, analizzandone principalmente caratteristiche idrogeologiche e variazioni di distribuzione chimica nello spazio e nel tempo, in relazione agli studi di caratterizzazione ed a eventuali messe in sicurezza e/o bonifiche. I dati necessari sono stati reperiti dagli atti amministrativi e dai relativi documenti tecnici, messi a disposizione dalla Provincia di Ferrara. L’attenzione è ricaduta in particolare sul cloruro di vinile (Vinyl Chloride, VC) ritrovato in alte concentrazioni e in un alto numero di siti. Il suo non utilizzo diretto nei processi produttivi in esame, ne esclude la presenza in qualità di contaminante primario, classificandolo come prodotto della degradazione di altri idrocarburi clorurati più complessi, in larga parte etileni clorurati. Si è inoltre appurato, come la presenza di VC non sia solo attribuibile a siti operanti nel settore metallurgico o chimico, ma riguardi in alcuni casi inquinamenti provocati da commercio o stoccaggio di carburanti, a cui, in passato, furono aggiunti solventi clorurati per migliorarne le caratteristiche chimico-fisiche. Si è concluso infine, come nel territorio della Provincia di Ferrara siano frequenti condizioni particolari, che favoriscono la degradazione di composti organo-clorurati complessi, ed agevolano l’accumulo di cloruro di vinile. Tali caratteristiche, sono state principalmente individuate nella diffusa presenza di livelli fini, anche torbosi, e nella altrettanto diffusa presenza di ambienti riducenti, non solo nel caso dell’acquifero confinato A1 ma anche nel caso dell’acquifero superficiale A0.
Resumo:
L’acquifero superficiale della Provincia di Ferrara è caratterizzato dalla presenza di una diffusa contaminazione da Arsenico. Per dare una risposta a questo fenomeno gli Enti della Provincia e del Comune hanno deciso di intraprendere uno studio volto alla determinazione dei valori di fondo del metalloide ed al miglioramento della comprensione del fenomeno. Il lavoro ha portato alla creazione di tre database con i dati presenti negli archivi provinciali inerenti: ubicazione e caratteristiche dei piezometri, dati idrochimici, concentrazione di Arsenico. L’acquifero superficiale è l’A0, olocenico, che si presenta eterogeneo per via della sua evoluzione geologica. Da uno studio stratigrafico ed idrogeologico si è visto come l’area sia costituita, andando da Ovest verso Est, da corpi alluvionali-deltizio-costieri olocenici in eteropia di facies. L’area centro-orientale è caratterizzata da un ciclo sedimentario trasgressivo-regressivo caratterizzato, nella parte superiore, dalla progradazione di un antico delta del Po. In tale ambiente si sono andati formando depositi ricchi in materia organica e in torba. Questi possono assumere una rilevante importanza nello spiegare il fenomeno, poiché possono svolgere sia il ruolo di sorgente dell’Arsenico che di redox driver attraverso la loro decomposizione. Elaborando i dati sono emersi elementi che sembrano confermare l’azione di un meccanismo di dissoluzione riduttiva che rilascia l’Arsenico, come mostrato dai cross plot tra Arsenico e Potenziale Redox, Ferro e Potenziale Redox, Arsenico e Ferro, Ferro e Manganese. L’area è stata suddivisa in tre zone, in cui la centrale corrisponde all’area ricca in materia organica. Sulla base delle tre aree individuate si è proceduto alla creazione di tre popolazioni di dati sottoposte ad analisi statistica. Quindi si è dimostrata l’assenza di contaminazione antropica, si sono esclusi i dati non significativi, si sono trattati i non detected e si sono individuati ed eliminati gli outlier. Infine si è proceduto alla determinazione della migliore distribuzione per ogni popolazione. Fatto ciò si è calcolato il 95° percentile, che è stato assunto come valore di fondo dell’area. Si è visto come tutti i tre valori di fondo superassero la CSC ed in particolare il valore di fondo dell’area centrale risultasse nettamente superiore agli altri due, superando la CSC di circa 10 volte. Questo ad ulteriore conferma della possibile azione della torba nel rilascio di Arsenico.
Resumo:
In questo progetto di tesi ci si addentrerà nel campo della scansione corporea, e più in generale di qualunque oggetto. In questo ambito le soluzioni proposte sono numerose e questo settore ha vissuto negli ultimi anni un’incredibile crescita, favorita anche dalla nascita delle stampanti 3D. Si può ragionevolmente supporre che tale crescita non sia destinata ad esaurirsi nei prossimi anni; ci sono i presupposti per cui questo settore occupi fette sempre più importanti del mercato. In questa tesi ci si è occupati prevalentemente di tecniche di scansione del corpo umano, in quanto una descrizione geometricamente accurata della superficie corporea riveste una notevole importanza sia nelle applicazioni industriali che nello studio della biomeccanica del movimento. Per quanto riguarda le applicazioni industriali si pensi ad esempio all’utilizzo di scanner 3D in accoppiata alle moderne stampanti 3D per la realizzazione di protesi custom o al comparto sartoriale per il confezionamento di abiti su misura. Nell’ambito della biomeccanica essa può risultare utile sia per quanto riguarda gli aspetti cinematici e dinamici nei campi riabilitativo, ergonomico e sportivo, sia per quanto riguarda la stima delle grandezze antropometriche. Attualmente esistono sistemi di scansione corporea low-cost che si stanno sempre più diffondendo e si può pensare ad un futuro neanche tanto lontano nel quale essi siano presenti in maniera diffusa nelle abitazioni. In tale contesto gli obiettivi di questa tesi sono: 1) Documentare quanto prodotto finora a livello scientifico, brevettuale ed industriale, evidenziando meriti e limiti di ciascuna soluzione. 2) Individuare e valutare la realizzabilità di soluzioni innovative low-cost.