971 resultados para Nubi di Magellano, ammassi globulari, sistemi binari, profili di densità, isocrone
Resumo:
Lo scopo della seguente tesi è quello di illustrare la disposizione dei campioni di sistemi binari Mg Pd e di deposizioni singole di Ti, nell’abito di due progetti di ricerca, l’SSHS, Solide State Hydrogen Storage nell’ambito dell’Azione COST, e la produzione di titania (TiO2) per la fotocatalisi, sintetizzati in differenti reggimi di flusso di gas d’He, realizzando la crescita con il metodo IGC. Sono state illustrate le nuove proprietà e i metodi di formazione dei materiali nanostrutturati, per poi passare alla descrizione dell’apparato dove sono stati prodotti i campioni, con la conseguente spiegazione della progettazione del controllore di flusso dei sistemi di alimentazione e interfacciamento di quest’ultimo. Dopo un’accurata analisi al microscopio elettronico, `e stata descritta la morfologia dei campioni a due diversi reggimi di flusso di gas He, per i campioni di Mg Pd non sono state apprezzate differenze al variare del flusso, per il Ti, invece, si può notare una variazione morfologica legata alle dimensioni.
Resumo:
Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.
Resumo:
In questo elaborato viene presentata l'analisi cinematica delle regioni centrali di NGC 6441, uno degli ammassi globulari più massivi (M ~10^6 Msol) della nostra Galassia. L'ammasso è stato selezionato, insieme ad altri 18, all'interno dell'ESO Large Program “Unveiling the kinematics in the core of high-density globular clusters with SINFONI" (PI: Ferraro) per cercare evidenze di buchi neri di massa intermedia (IMBH), la cui esistenza è ancora controversa. Poichè la misura della dispersione di velocità da spettri integrati può essere affetta dalla contaminazione di poche stelle brillanti, in questo lavoro si sono misurate le velocità radiali (RV) di stelle individuali, utilizzando lo spettrografo IFU SINFONI dell'ESO, dotato di un sistema di ottiche adattive. Sono state misurate le RV di 709 stelle giganti nei primi 17" dal centro, da cui è stato estratto un sotto-campione di alta qualità di circa 200 stelle. Queste misure sono state poi combinate con un campione di RV nelle regioni più esterne dell'ammasso, ottenute con gli spettrografi multi-oggetto KMOS e FLAMES dell'ESO. Tali dati sono stati utilizzati per il calcolo del profilo di dispersione di velocità e per la ricerca di rotazione lungo l'intera estensione radiale nell'ammasso. I risultati ottenuti sembrano escludere sia l'esistenza di un IMBH, che la presenza di forte rotazione interna. Inoltre hanno evidenziato una significativa decrescita della dispersione di velocita` nelle regioni centrali (parzialmente confermata anche da misure di moti propri ottenute con HST), che potrebbe suggerire la presenza di anisotropia tangenziale nel centro del sistema. Un simile comportamento (sebbene di minore entita`) e’ stato evidenziato in altri ammassi, suggerendo che potrebbe trattarsi di una caratteristica comune in questi sistemi stellari.
Resumo:
Le regioni HII sono nubi di idrogeno ionizzato da stelle di recente formazione, massicce e calde. Tali stelle, spesso raggruppate in ammassi, emettono copiosamente fotoni di lunghezza d’onda λ ≤ 912 Å, capaci di ionizzare quasi totalmente il gas che le circonda, composto prevalentemente da idrogeno, ma in cui sono presenti anche elementi ionizzati più pesanti, come He, O, N, C e Ne. Le dimensioni tipiche di queste regioni vanno da 10 a 100 pc, con densità dell’ordine di 10 cm−3. Queste caratteristiche le collocano all’interno del WIM (Warm Ionized Medium), che, insieme con HIM (Hot Ionized Medium), WNM (Warm Neutral Medium) ed CNM (Cold Neutral Medium), costituisce la varietà di fasi in cui si presenta il mezzo interstellare (ISM, InterStellar Medium). Il tema che ci prestiamo ad affrontare è molto vasto e per comprendere a fondo i processi che determinano le caratteristiche delle regioni HII sarebbero necessarie molte altre pagine; lo scopo che questo testo si propone di raggiungere, senza alcuna pretesa di completezza, è dunque quello di presentare l’argomento, approfondendone ed evidenziandone alcuni particolari tratti. Prima di tutto descriveremo le regioni HII in generale, con brevi indicazioni in merito alla loro formazione e struttura. A seguire ci concentreremo sulla descrizione dei processi che determinano gli spettri osservati: inizialmente mostreremo quali siano i processi fisici che generano l’emissione nel continuo, concentrandoci poi su quello più importante, la Bremmstrahlung. Affronteremo poi una breve digressione riguardo al processo di ricombinazione ione-elettrone nei plasmi astrofisici ed alle regole di selezione nelle transizioni elettroniche, concetti necessari per comprendere ciò che segue, cioè la presenza di righe in emissione negli spettri delle regioni foto-ionizzate. Infine ci soffermeremo sulle regioni HII Ultra-Compatte (UC HII Region), oggetto di numerosi recenti studi.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
La Tesi presenta uno studio sulla distribuzione dei raggi di Einsten compiuta su campioni di ammassi simulati. Il codice utilizzato, MOKA, consente la costruzione di vasti campioni di ammassi in differenti cosmologie e con differenti parametri strutturali. I risultati ottenuti sono stati confrontati con quelli ottenuti dalla simulazione cosmologica N-body ad alta risoluzione MUSIC. Sono stati quindi prodotti campioni di ammassi per sette valori diversi della normalizzazione dello spettro di potenza e 7 valori diversi del parametro di densità della materia mantenendo la geometria piatta
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
Resumo:
In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.
Resumo:
Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.
Resumo:
Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondità di interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.
Resumo:
Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.
Resumo:
La produzione di sedili auto rappresenta una delle principali applicazioni delle schiume poliuretaniche flessibili a bassa densità. La forte necessità di riduzione del peso totale del veicolo si traduce in una richiesta di significative riduzioni di densità dei materiali utilizzati per l’interno vettura. Tale riduzione deve tuttavia essere associata a migliorate proprietà, nel senso del mantenimento delle performance nel tempo, della sicurezza e del comfort. Ricerche di mercato hanno evidenziato la necessità di sviluppare schiume poliuretaniche con elevate performance in termini di comfort, associate a significative riduzioni di densità e significative riduzioni di spessori applicati, nell’ottica di produrre sedili sempre più sottili consentendo la massima flessibilità di design dell’interno del veicolo. Scopo del presente progetto è lo sviluppo di una nuova chimica associata a quella del poliuretano che permetta di ottenere un elevato comfort. Il corpo umano e maggiormente sensibile a vibrazioni con frequenza tra i 4 e gli 8 Hz. In questo intervallo di frequenze le vibrazioni trasmesse sono correlate con l’isteresi del materiale stesso. Solitamente basse isteresi sono associate a bassa trasmissività delle vibrazioni. I produttori di auto hanno quindi cominciato a valutare il comfort di un sedile in termini di isteresi del materiale stesso. Nel caso specifico è considerato un sedile confortevole se possiede una isteresi inferiore al 18%. Le performance in termini di comfort devono essere associate anche ad una bassa emissione di composti organici volatili, con particolare attenzione ad ammine e aldeidi, ad un 15% di riduzione di densità (l’obiettivo è raggiungere una densità di 60 g/L a fronte di una densità attuale che si colloca nel range 75-80 g/L), con proprietà fisico meccaniche e resistenza all’invecchiamento in grado di soddisfare i capitolati delle case automobilistiche. Recentemente la produzione di SMPs (silane-modified polymers) ricopre un ruolo fondamentale nel mercato dei sigillanti e degli adesivi. L’idea di utilizzare questa famiglia di silani nella produzione di schiume poliuretaniche flessibili risiede nel fatto che, esattamente come in sigillanti e adesivi, ci possa essere una reazione successiva a quella di formazione del PU che possa dare ulteriore reticolazione della frazione morbida. La reazione di post-curing del silano ha incontrato diverse problematiche relative alla scarsa reattività del silano stesso. Per attivare la reazione di idrolisi e oligomerizzazione si è utilizzato un acido di Brønsted (DBSA) ma l’interazione con le ammine presenti nel poliolo formulato, necessarie alla reazione di formazione del legame uretanico, ne hanno inibito l’attività.
Resumo:
Questa tesi nasce dall’idea di sfruttare i recenti sviluppi della tecnica nell’ambito delle elaborazioni tridimensionali su immagini interne al corpo umano per creare nuovi strumenti di diagnosi e controllo utili ai fini medici. In particolare, si cercherà un nuovo strumento di diagnosi per una malattia, ampiamente diffusa tra la popolazione, che colpisce l’orecchio interno: la cupololitiasi, anche nota come vertigine parossistica posizionale benigna. Il presente studio, che fa parte di un più ampio progetto di ricerca, è volto a definire un protocollo sia di misure antropometriche che di densità di tessuti e alla verifica di parametri, su un numero limitato di campioni, la cui presenza consente di rilevare la malattia. Si cercano misure che diano valori differenti tra orecchi interni sani e malati, cioè segnali inequivocabili della presenza della cupololitiasi. Si utilizzano immagini provenienti da TAC effettuate a pazienti sofferenti di cupololitiasi per scopi diagnostici; si elaborano in 3D e si misurano con il programma di Materializze: MIMICS.
Resumo:
Dal 1999 presso il laboratorio del Centro Agricoltura Ambiente “G. Nicoli” a Crevalcore (BO) è in corso una sperimentazione finalizzata a verificare la possibilità di attuare la tecnica del maschio sterile (SIT) in Italia contro Aedes albopictus. Alcuni aspetti per migliorare l’efficienza di questa struttura pilota, oggetto della presente ricerca, sono stati: 1) studio degli effetti di determinati costituenti della dieta larvale a) sullo sviluppo larvale stesso, per individuare intervalli limite di densità larvale e di concentrazione di cibo in cui è possibile lo sviluppo di tale specie, e b) sulla qualità dei maschi adulti ottenuti; 2) la valutazione di attrezzatura per l’allevamento massale e 3) la possibilità di migliorare la dieta larvale mediante integrazione di carboidrati. Dalle prove di valutazione della dieta larvale si è potuto osservare che, per quanto riguarda i parametri larvali, le due diete denominate “IAEA” (1 e 2) sono risultate più efficaci rispetto alla dieta standard “CAA”. Tali diete sono perciò da preferirsi nel loro possibile impiego in biofabbriche per l’allevamento massale. Le prove condotte sugli adulti allevati con le diverse diete hanno suggerito la necessità di valutare una possibile integrazione di componenti per migliorarne la longevità. Risulta altresì opportuno continuare la ricerca per ottimizzare la dieta larvale così da ottenere maschi di elevata qualità. Grazie ai risultati ottenuti dalle prove per valutare l’impiego di attrezzatura massale (vassoi di grandi dimensioni e carrello) si è potuto definire un modello per l’allevamento di Ae. albopictus con parametri standardizzati di densità larvale, dose di dieta, temperatura dell’acqua di allevamento, percentuale di maschi passati al setacciamento e rendimento di allevamento. Prove future saranno necessarie per testare altri componenti della dieta ricchi in carboidrati, quali saccarosio, da aggiungere alla dieta larvale per migliorare le qualità degli adulti ottenuti senza provocare effetti negativi sui parametri dello sviluppo larvale.
Resumo:
Sebbene studiati a fondo, i processi che hanno portato alla formazione ed alla evoluzione delle galassie così come sono osservate nell'Universo attuale non sono ancora del tutto compresi. La visione attuale della storia di formazione delle strutture prevede che il collasso gravitazionale, a partire dalle fluttuazioni di densità primordiali, porti all'innesco della formazione stellare; quindi che un qualche processo intervenga e la interrompa. Diversi studi vedono il principale responsabile di questa brusca interruzione della formazione stellare nei fenomeni di attività nucleare al centro delle galassie (Active Galactic Nuclei, AGN), capaci di fornire l'energia necessaria a impedire il collasso gravitazionale del gas e la formazione di nuove stelle. Uno dei segni della presenza di un tale fenomeno all'interno di una galassia e l'emissione radio dovuta ai fenomeni di accrescimento di gas su buco nero. In questo lavoro di tesi si è studiato l'ambiente delle radio sorgenti nel campo della survey VLA-COSMOS. Partendo da un campione di 1806 radio sorgenti e 1482993 galassie che non presentassero emissione radio, con redshift fotometrici e fotometria provenienti dalla survey COSMOS e dalla sua parte radio (VLA-COSMOS), si è stimata la ricchezza dell'ambiente attorno a ciascuna radio sorgente, contando il numero di galassie senza emissione radio presenti all'interno di un cilindro di raggio di base 1 Mpc e di altezza proporzionale all'errore sul redshift fotometrico di ciascuna radio sorgente, centrato su di essa. Al fine di stimare la significatività dei risultati si è creato un campione di controllo costituito da 1806 galassie che non presentassero emissione radio e si è stimato l'ambiente attorno a ciascuna di esse con lo stesso metodo usato per le radio sorgenti. I risultati mostrano che gli ammassi di galassie aventi al proprio centro una radio sorgente sono significativamente più ricchi di quelli con al proprio centro una galassia senza emissione radio. Tale differenza in ricchezza permane indipendentemente da selezioni basate sul redshift, la massa stellare e il tasso di formazione stellare specifica delle galassie del campione e mostra che gli ammassi di galassie con al proprio centro una radio sorgente dovuta a fenomeni di AGN sono significativamente più ricchi di ammassi con al proprio centro una galassia senza emissione radio. Questo effetto e più marcato per AGN di tipo FR I rispetto ad oggetti di tipo FR II, indicando una correlazione fra potenza dell'AGN e formazione delle strutture. Tali risultati gettano nuova luce sui meccanismi di formazione ed evoluzione delle galassie che prevedono una stretta correlazione tra fenomeni di AGN, formazione stellare ed interruzione della stessa.