984 resultados para galassie,Hubble,brillanza,curva di rotazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato scritto tratta la classificazione e la modellizzazione della fisica delle galassie. La prima parte illustra la classificazione morfologica delle galassie. Descrivo la classificazione di Hubble perché è la prima in ordine cronologico, la più semplice e la più importante. In seguito espongo le modifiche introdotte da Sandage e De Vaucouleurs. In particolare cerco di giustificare l’importanza delle classificazioni morfologiche come punto di partenza per una comprensione e una modellizzazione della fisica delle galassie. Nella seconda parte mi concentro sulle caratteristiche fotometriche e cinematiche interne relative a due particolari tipi di galassie: le Ellittiche e le Spirali. Approfondisco due argomenti in particolare: i profili di brillanza delle Ellittiche per quanto riguarda le caratteristiche fotometriche delle Ellittiche e le curve di rotazione delle Spirali, per le caratteristiche cinematiche delle Spirali. Questi due argomenti sono stati scelti perché il primo fornisce un modello analitico per descrivere la luminosità delle Ellittiche e il secondo permette di rappresentare, sempre tramite una modellizzazione, la cinematica delle Spirali, in particolar modo del loro disco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il modello di Bondi rappresenta il modello di accrescimento più semplice, in quanto studia l'accrescimento su un BH isolato immerso in una distribuzione di gas infinita. In questa semplice trattazione puramente idrodinamica vengono trascurati molti aspetti importanti, come ad esempio il momento angolare, il campo magnetico, gli effetti relativistici, ecc. L'obiettivo di questa Tesi consiste nell'affinare tale modello aggiungendo alcune nuove componenti. In particolare, vogliamo studiare come queste nuove componenti possano influire sul tasso di accrescimento della materia. Dopo una Introduzione (Capitolo 1), nel Capitolo 2 viene presentato il modello di Bondi originale, con lo scopo di ricostruire il procedimento matematico che porta alla soluzione e di verificare il funzionamento del codice numerico scritto per la soluzione dell'equazione di Bondi finale. Tuttavia, il modello di accrescimento sferico stazionario tratta il potenziale gravitazionale di un oggetto puntiforme isolato, mentre in questo lavoro di Tesi si vogliono considerare i BH che si trovano al centro delle galassie. Pertanto, nel Capitolo 3 è stata rivisitata la trattazione matematica del problema di Bondi aggiungendo alle equazioni il potenziale gravitazionale prodotto da una galassia con profilo di densità descritto dal modello di Hernquist. D'altronde, ci si aspetta che l'energia potenziale gravitazionale liberata nell'accrescimento, almeno parzialmente, venga convertita in radiazione. In regime otticamente sottile, nell'interazione tra la radiazione e la materia, domina l'electron scattering, il che permette di estendere in maniera rigorosa la trattazione matematica del problema di Bondi prendendo in considerazione gli effetti dovuti alla pressione di radiazione. Infatti, in un sistema a simmetria sferica la forza esercitata dalla pressione di radiazione segue l'andamento "1/r^2", il che comporta una riduzione della forza gravitazionale della stessa quantità per tutti i raggi. Tale argomento rappresenta l'oggetto di studio del Capitolo 4. L'idea originale alla base di questo lavoro di Tesi, che consiste nell'unire i due modelli sopra descritti (ossia il modello di Bondi con la galassia e il modello di Bondi con feedback radiativo) in un unico modello, è stata sviluppata nel Capitolo 5. Utilizzando questo nuovo modello abbiamo cercato di determinare delle "ricette" per la stima del tasso di accrescimento, da utilizzare nell'analisi dei dati osservativi oppure da considerare nell'ambito delle simulazioni numeriche. Infine, nel Capitolo 6 abbiamo valutato alcune applicazioni del modello sviluppato: come una possibile soluzione al problema di sottoluminosità dei SMBH al centro di alcune galassie dell'universo locale; per la stima della massa del SMBH imponendo la condizione di equilibrio idrostatico; un possibile impiego dei risultati nell'ambito dei modelli semi-analitici di coevoluzione di galassie e SMBH al centro di esse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In astronomia, le galassie ellittiche sono oggetti privi in molti casi di momento angolare, non presentano bracci come le galassie a spirali, hanno assenza di stelle giovani, poca presenza di nubi e polveri, quindi si potrebbe pensare che sono oggetti poco interessanti. Invece, no! Risultano essere tra i corpi celesti più affascinanti soprattutto per il loro potere emissivo e quindi per le proprietà morfologiche e spettrali che le caratterizzano. La loro luminosità viene osservata in varie bande, dette appunto bande d'emissione; qui vengono trattate soprattutto tre componenti caratterizzanti le galassie ellittiche: le stelle di popolazione stellare II, osservate in banda ottica; il mezzo interstellare, costituito da gas molto caldo che emette in banda X; ed infine, non meno importante, viene messo in risalto il potere emissivo di ellittiche giganti, dette radiogalassie o blazar, caratterizzate dalla prezenza di nuclei galattici attivi (AGN) e quindi getti che emettono soprattutto in banda radio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Elaborato finale sulle caratteristiche principali dell'emissione di galassie ellittiche, con brevi descrizioni dei principali meccanismi emissivi e delle leggi fondamentali su questo tipo di galassie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato mi accingerò ad illustrare una concisa classificazione e descrizione della struttura delle galassie ellittiche. In seguito verranno trattati in modo più specifico i meccanismi alla base dell'emissione di questa classe di galassie, quali: corpo nero, breamsstrahlung, sincrotrone e Compton inverso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fin dalla loro scoperta, le galassie ellittiche hanno sempre suscitato grande curiosità da parte degli astronomi, in quanto strutture dotate di dinamiche alquanto complesse. Spesso considerate meno affascinanti delle galassie a disco, esse vantano molteplici caratteristiche di carattere morfologico e radiativo; noi le osserviamo sulla Terra e fuori dall’atmosfera con ogni tipo di strumento, dato che tutto lo spettro elettromagnetico ne testimonia la presenza e, in molti casi, la piena attività nucleare. Obiettivo della presente dissertazione è fornire una panoramica generale riguardo le forme di emissione delle galassie ellittiche, approfondendo particolarmente i meccanismi principali e le modalità fisiche. Inizialmente vedremo brevemente come queste galassie vengono classificate e le leggi empiriche che ne descrivono alcuni importanti parametri osservativi; successivamente analizzeremo separatamente le tre bande (Ottica, X e Radio) in cui l’emissione è prominente, soffermandoci sui relativi meccanismi dominanti (rispettivamente: emissione di Corpo Nero, Bremsstrahlung e Sincrotrone) e le peculiarità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le strutture caratterizzate da una non coincidenza tra il baricentro delle masse e quello delle rigidezze, chiamate strutture eccentriche, sviluppano degli effetti torsionali se soggette ad un’eccitazione dinamica. Un’accurata analisi delle equazioni del moto di sistemi lineari e non lineari di strutture ad un singolo piano ha portato allo sviluppo di un metodo, detto metodo ALPHA, che, attraverso un parametro, detto parametro “alpha”, permette di stimare gli spostamenti di rotazione in funzione dei soli spostamenti longitudinali. Il limite di questo metodo, tuttavia, è quello di essere riferito a strutture ad un singolo piano, non comuni nella pratica progettuale: si è reso quindi necessario uno studio per testarne la validità anche per strutture multi piano, partendo da strutture semplici a due e tre piani. Data la semplicità del metodo ALPHA, si è deciso di affrontare questo problema cercando di cogliere il comportamento dei diversi piani della struttura multipiano con delle strutture ad un singolo piano. Sono state svolte numerose analisi numeriche in cui sono stati fatti variare i parametri di rigidezza, massa, eccentricità e distribuzione delle rigidezze dei vari piani; come indice di validità della struttura mono piano scelta si è utilizzato il rapporto tra il parametro “psi” dell’i-esimo piano e quello della struttura mono piano scelta, dove “psi” rappresenta il rapporto tra “R” ed “alpha”; “R” è il rapporto tra la massima rotazione e il massimo spostamento longitudinale per una struttura eccentrica soggetta ad un’eccitazione dinamica. Dai risultati ottenuti si deduce che, nella maggioranza dei casi, la struttura mono piano che meglio rappresenta il comportamento di tutti i piani è caratterizzata da massa e rigidezza dell’intera struttura multipiano, da un’eccentricità pari alla minore tra quelle dei vari piani e presenta la peggiore distribuzione delle rigidezze tra quelle che si riscontrano nei vari piani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro sono stati illustrati i risultati preliminari di uno studio mirato alla modellazione del processo di vagliatura di RSU. Il modello, sviluppato sulla base di ipotesi sia cinematiche che probabilistiche, è stato implementato ed applicato per la verifica dell’influenza delle condizioni operative sull’efficienza del processo di separazione. La modellazione è stata sviluppata studiando la cinematica di una particella all’interno di un vaglio rotante, prima studiando il comportamento della singola particella e poi studiando il comportamento di più particelle. Lo sviluppo di tale modello, consente di determinare l’efficienza di rimozione per le diverse frazioni merceologiche di un rifiuto, ciascuna caratterizzata da una propria distribuzione dimensionale,. La validazione è stata svolta effettuando una campagna di misurazioni utilizzando un vaglio in scala (1:10) e un vaglio di dimensioni reali . Da queste misurazioni è emerso che il modello è ben rappresentativo della realtà, in alcuni casi, si sono evidenziate delle discrepanze dal comportamento reale del rifiuto, ciò è senz’altro da attribuite alla forte eterogeneità dei materiali costituenti il rifiuto solido urbano e dall’interferenza che le une causano sulle altre. Si è appurato che, variando i parametri quali: l’angolo di inclinazione longitudinale del vaglio, la velocità di rotazione si ha un diverso comportamento del rifiuto all’interno del vaglio e quindi una variazione dell’efficienza di separazione di quest’ultimo. In particolare è stata mostrata una possibile applicazione del modello legata alla valutazione delle caratteristiche del sopravaglio nel caso questo sia destinato alla produzione di CDR. Attraverso la formula di Dulong si è calcolato il potere calorifico superiore, (sia allo stato umido che allo stato secco), ottenuto effettuando delle variazioni dei parametri citati precedentemente, calcolato sulla massa uscente dal sopravaglio e quindi quella utilizzata come combustibile per gli impianti di termovalorizzazione.( C.D.R.) Si è osservato il legame esistente tra le condizioni operative inclinazione e velocità di rotazione del tamburo ed il potere calorifico del flusso selezionato con l’obiettivo di massimizzare quest’ultimo. Dalle è prove è emerso come il fattore umidità giochi un ruolo fondamentale per l’ottimizzazione del CDR, l’umidità infatti incide negativamente sul potere calorifico del rifiuto invertendo il rapporto normalmente direttamente proporzionale tra percentuale di sopravaglio e potere calorifico, dunque a causa dell’umidità all’aumentare del flusso di sopravaglio si ha una diminuzione del potere calorifico. Lo sviluppo e la validazione di un modello teorico, ci permette di affrontare il problema della selezione e separazione dei RSU,non più solo tramite un procedimento induttivo basato unicamente sulle osservazioni, ma tramite un procedimento deduttivo grazie al quale "conoscendo l’input si prevede quale sarà l’output". Allo stato attuale la scelta e il dimensionamento delle unità di separazione dimensionale nei processi di selezione è basata unicamente su conoscenze di natura empirica L’obiettivo principale è stato dunque quello di costruire uno strumento in grado di determinare le caratteristiche dei flussi uscenti dall’unità di vagliatura, note che siano le caratteristiche del flusso in ingresso ed i parametri operativi Questo approccio permette di eseguire valutazioni oggettive circa la reale rispondenza delle caratteristiche dei flussi in uscita a standard prefissati,peraltro consente di eseguire valutazioni sulle uscite di processo rispetto alla variabilità delle caratteristiche dei rifiuti in ingresso .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondidi interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.