656 resultados para Analisi sensoriale alimenti applicazione valutazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il continuo verificarsi di gravi incidenti nei grandi impianti industriali ha spinto gli Stati membri dell’Unione Europea a dotarsi di una politica comune in materia di prevenzione dei grandi rischi industriali. Anche a seguito della pressione esercitata dall’opinione pubblica sono state implementate, nel corso degli ultimi quarant’anni, misure legislative sempre più efficaci per la prevenzione e la mitigazione dei rischi legati ad attività industriali particolarmente pericolose. A partire dagli ultimi anni dello scorso secolo, l’Unione Europea ha emanato una serie di direttive che obbligano gli Stati membri ad essere garanti della sicurezza per l’uomo e per l’ambiente nelle zone circostanti a stabilimenti a rischio di incidente rilevante. In quest’ottica è stata pubblicata nel 1982 la Direttiva Seveso I [82/501/EEC], che è stata ampliata nel 1996 dalla Direttiva Seveso II [96/82/CE] ed infine emendata nel dicembre 2003 dalla Direttiva Seveso III [2003/105/CE]. Le Direttive Seveso prevedono la realizzazione negli Stati membri di una valutazione dei rischi per gli stabilimenti industriali che sono suscettibili a incendi, esplosioni o rilasci di gas tossici (quali, ad esempio, le industrie chimiche, le raffinerie, i depositi di sostanze pericolose). La Direttiva Seveso II è stata trasposta in legge belga attraverso “l’Accord de Coopération” del 21 giugno 1999. Una legge federale nel giugno del 2001 [M.B. 16/06/2001] mette in vigore “l’Accord de Coopération”, che è stato in seguito emendato e pubblicato il 26 aprile del 2007 [M.B. 26/04/2007]. A livello della Regione Vallona (in Belgio), la tematica del rischio di incidente rilevante è stata inclusa nelle disposizioni decretali del Codice Vallone della Pianificazione Territoriale, dell’Urbanismo e del Patrimonio [CWATUP]. In questo quadro la Regione Vallona ha elaborato in collaborazione con la FPMs (Faculté Polytechnique de Mons) una dettagliata metodologia di analisi del rischio per gli stabilimenti a rischio di incidente rilevante. In Italia la Direttiva Seveso II è stata recepita dal Decreto Legislativo n°334 emanato nell’agosto del 1999 [D. Lgs. 334/99], che ha introdotto per la prima volta nel quadro normativo italiano i concetti fondamentali di “controllo dell’urbanizzazione” e “requisiti minimi di sicurezza per la pianificazione territoriale”. Il Decreto Legislativo 334/99 è attualmente in vigore, modificato ed integrato dal Decreto Legislativo n°238 del 21 settembre 2005 [D. Lgs. 238/05], recepimento italiano della Direttiva Seveso III. Tra i decreti attuativi del Decreto Legislativo 334/99 occorre citare il Decreto Ministeriale n°151 del 2001 [D. M. 151/01] relativo alla pianificazione territoriale nell’intorno degli stabilimenti a rischio di incidente rilevante. L’obiettivo di questo lavoro di tesi, che è stato sviluppato presso la Faculté Polytechnique di Mons, è quello di analizzare la metodologia di quantificazione del rischio adottata nella Regione Vallona, con riferimento alla pianificazione territoriale intorno agli stabilimenti a rischio di incidente rilevante, e di confrontarla con quella applicata in Italia. La metodologia applicata in Vallonia è di tipo “probabilistico” ovvero basata sul rischio quale funzione delle frequenze di accadimento e delle conseguenze degli scenari incidentali. Il metodo utilizzato in Italia è “ibrido”, ovvero considera sia le frequenze che le conseguenze degli scenari incidentali, ma non la loro ricomposizione all’interno di un indice di rischio. In seguito al confronto teorico delle due metodologie, se ne è effettuato anche una comparazione pratica tramite la loro applicazione ad un deposito di GPL. Il confronto ha messo in luce come manchino, nella legislazione italiana relativa agli stabilimenti a rischio di incidente rilevante, indicazioni di dettaglio per la quantificazione del rischio, a differenza di quanto accade nella legislazione belga. Ciò lascia all’analista di rischio italiano una notevole arbitrarietà nell’effettuare ipotesi ed assunzioni che rendono poi difficile la comparazione del rischio di stabilimenti differenti. L’auspicio è che tale lacuna possa essere rapidamente superata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro sono stati illustrati i risultati preliminari di uno studio mirato alla modellazione del processo di vagliatura di RSU. Il modello, sviluppato sulla base di ipotesi sia cinematiche che probabilistiche, è stato implementato ed applicato per la verifica dell’influenza delle condizioni operative sull’efficienza del processo di separazione. La modellazione è stata sviluppata studiando la cinematica di una particella all’interno di un vaglio rotante, prima studiando il comportamento della singola particella e poi studiando il comportamento di più particelle. Lo sviluppo di tale modello, consente di determinare l’efficienza di rimozione per le diverse frazioni merceologiche di un rifiuto, ciascuna caratterizzata da una propria distribuzione dimensionale,. La validazione è stata svolta effettuando una campagna di misurazioni utilizzando un vaglio in scala (1:10) e un vaglio di dimensioni reali . Da queste misurazioni è emerso che il modello è ben rappresentativo della realtà, in alcuni casi, si sono evidenziate delle discrepanze dal comportamento reale del rifiuto, ciò è senz’altro da attribuite alla forte eterogeneità dei materiali costituenti il rifiuto solido urbano e dall’interferenza che le une causano sulle altre. Si è appurato che, variando i parametri quali: l’angolo di inclinazione longitudinale del vaglio, la velocità di rotazione si ha un diverso comportamento del rifiuto all’interno del vaglio e quindi una variazione dell’efficienza di separazione di quest’ultimo. In particolare è stata mostrata una possibile applicazione del modello legata alla valutazione delle caratteristiche del sopravaglio nel caso questo sia destinato alla produzione di CDR. Attraverso la formula di Dulong si è calcolato il potere calorifico superiore, (sia allo stato umido che allo stato secco), ottenuto effettuando delle variazioni dei parametri citati precedentemente, calcolato sulla massa uscente dal sopravaglio e quindi quella utilizzata come combustibile per gli impianti di termovalorizzazione.( C.D.R.) Si è osservato il legame esistente tra le condizioni operative inclinazione e velocità di rotazione del tamburo ed il potere calorifico del flusso selezionato con l’obiettivo di massimizzare quest’ultimo. Dalle è prove è emerso come il fattore umidità giochi un ruolo fondamentale per l’ottimizzazione del CDR, l’umidità infatti incide negativamente sul potere calorifico del rifiuto invertendo il rapporto normalmente direttamente proporzionale tra percentuale di sopravaglio e potere calorifico, dunque a causa dell’umidità all’aumentare del flusso di sopravaglio si ha una diminuzione del potere calorifico. Lo sviluppo e la validazione di un modello teorico, ci permette di affrontare il problema della selezione e separazione dei RSU,non più solo tramite un procedimento induttivo basato unicamente sulle osservazioni, ma tramite un procedimento deduttivo grazie al quale "conoscendo l’input si prevede quale sarà l’output". Allo stato attuale la scelta e il dimensionamento delle unità di separazione dimensionale nei processi di selezione è basata unicamente su conoscenze di natura empirica L’obiettivo principale è stato dunque quello di costruire uno strumento in grado di determinare le caratteristiche dei flussi uscenti dall’unità di vagliatura, note che siano le caratteristiche del flusso in ingresso ed i parametri operativi Questo approccio permette di eseguire valutazioni oggettive circa la reale rispondenza delle caratteristiche dei flussi in uscita a standard prefissati,peraltro consente di eseguire valutazioni sulle uscite di processo rispetto alla variabilità delle caratteristiche dei rifiuti in ingresso .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto, in collaborazione con “Ducati Motor Holding”, si propone l’analisi, mediante l’applicazione di un software FEM (HyperWorks 9.0), delle strutture rappresentate dall’assieme paracoppa-parasassi e dal silenziatore. Il primo obiettivo consiste nell’ottenimento di un modello agli elementi finiti della struttura. Le simulazioni di calcolo consistono in analisi di tipo dinamico per determinare i modi di vibrare delle strutture. Sulla base di ulteriori simulazioni sulla risposta al transitorio del sistema si è studiato il loro comportamento nelle condizioni di funzionamento. La finalità del lavoro risiede dunque nella determinazione delle criticità strutturali che i componenti hanno manifestato durante prove sperimentali verificandole attraverso calcolo numerico e applicazione delle potenzialità del software applicato, per l’analisi degli aspetti sopra esposti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è di fornire una analisi sistematica delle condizioni necessarie per l’esistenza delle formule di valutazione di opzioni che impiegano la trasformata di Fourier. Perchè la trasformata di Fourier? Se assumiamo che il processo del prezzo del sottostante sia un processo di Lévy noi non conosciamo solitamente la sua Legge di probabilità ma sempre la sua funzione caratteristica che è proprio la trasformata di Fourier della Legge.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro ha come oggetto l’analisi di impatto ambientale, svolta mediante la metodologia Life Cycle Assessment (LCA) di un gruppo elettrogeno prodotto da COGEM s.r.l., azienda italiana situata a Castel d’Argile, nel bolognese, con l’obiettivo di supportare eventuali scelte di riprogettazione del prodotto anche in termini di Design for Disassembly. Dopo una prima analisi del contesto attuale in cui si colloca, la metodologia LCA è stata studiata nel dettaglio per poterla poi applicare al prodotto in oggetto. Esso è stato individuato mediante un’analisi delle vendite di COGEM, in seguito si è svolta una fase di raccolta dati e si sviluppata l’analisi LCA usando il software SimaPro 7.1. I risultati ottenuti hanno consentito di individuare le possibili aree di miglioramento dell’impatto ambientale dell’intero ciclo di vita del gruppo elettrogeno. In particolare si sono valutate due soluzioni innovative: un gruppo elettrogeno alimentato a olio vegetale e uno progettato in ottica DFD per consentire un corretto smaltimento dei rifiuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo studio vengono riportati i risultati di prove di fatica oligociclica eseguiti su provini dello stesso materiale ottenuti con uguali processi tecnologici ma provenienti da differenti colate di metallo. Il materiale in questione è un acciaio di elevata qualità frequentemente utilizzato per la realizzazione di cappe per turboalternatori. Obiettivo dello studio è stato ricavare i coefficienti necessari per tracciare le curve di fatica del materiale, non ancora presenti in letteratura, ed infine indagare la bontà del risultato ottenuto con un’analisi statistica delle curve e dei risultati ottenuti. Nella prima parte è descritto l’attuale stato dell’arte e la situazione in cui si colloca il presente studio. Nella seconda parte viene fornita una descrizione dettagliata del materiale studiato, delle condizioni nelle quali sono state eseguite le prove e delle attrezzature utilizzate a tale scopo. Si conclude esponendo i risultati ottenuti, comprensivi dei confronti e delle considerazioni derivate dalle analisi statistiche eseguite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato di tesi sviluppato ha come obiettivo l'ottimizzazione della Supply Chian di contesti manufatturieri con particolare attenzione alle procedure di approvvigionamento dei materiali e al problema dei materiali "mancanti" in produzione.Viene esposto il risultato di un’attività di analisi di due casi reali per l’ottimizzazione dell'impatto logistico del problema dell'alimentazione di sistemi di fabbricazione e montaggio. Lo studio è stato affrontato definendo un approccio basato su una duplice analisi del processo, top-down e bottom-up. Le due analisi condotte hanno permesso di procedere alla mappatura dell’intero processo end to end (che inizia con le richieste del cliente e termina con la consegna dei prodotti allo stesso) e di individuare le criticità in esso presenti, sulla base delle quali sono state fornite una serie di linee guida per la risoluzione del problema dei mancanti. I risultati ottenuti hanno evidenziato che l’ottimizzazione dell’area di pianificazione permette di migliorare la qualità dei dati in ingresso all’intero processo con conseguente diminuzione del numero di materiali mancanti. Tuttavia, la trasversalità dell’argomento ai processi aziendali impedisce la definizione di un approccio al problema focalizzato su un’area specifica. Infine, è stata eseguita una bozza di valutazione economica per la stima dei tempi di recupero degli investimenti necessari.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La progettazione sismica negli ultimi anni ha subito una forte trasformazione, infatti con l’introduzione delle nuove normative tecniche si è passati dallo svolgere una verifica delle capacità locali dei singoli elementi ad una progettazione con un approccio di tipo probabilistico, il quale richiede il soddisfacimento di una serie di stati limite ai quali viene attribuita una certa probabilità di superamento. La valutazione dell’affidabilità sismica di una struttura viene condotta di solito attraverso metodologie che prendono il nome di Probabilistic Seismic Design Analysis (PSDA) in accordo con la procedura del Performance Based Earthquake Engineering (PBEE). In questa procedura di tipo probabilistico risulta di notevole importanza la definizione della misura d’intensità sismica, la quale può essere utilizzata sia come predittore della risposta strutturale a fronte di un evento sismico, sia come parametro per definire la pericolosità di un sito. Queste misure d’intensità possono essere definite direttamente dalla registrazione dell’evento sismico, come ad esempio l’accelerazione di picco del terreno, oppure sulla base della risposta, sia lineare che non, della struttura soggetta a tale evento, ovvero quelle che vengono chiamate misure d’intensità spettrali. Come vedremo è preferibile l’utilizzo di misure d’intensità che soddisfino certe proprietà, in modo da far risultare più efficace possibile le risoluzione del problema con l’approccio probabilistico PBEE. Obbiettivo principale di questa dissertazione è quello di valutare alcune di queste proprietà per un gran numero di misure d’intensità sismiche a partire dai risultati di risposta strutturale ottenuti mediante analisi dinamiche non lineari nel tempo, condotte per diverse tipologie di strutture con differenti proprietà meccaniche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondità di interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Per natura, i dispositivi di conversione di energia da onda (WECs) vengono collocati in aree caratterizzate da onde ad elevato potenziale e in queste condizioni i carichi che agiscono su tali dispositivi sono, sfortunatamente, molto alti e, allo stesso tempo, molto difficili da valutare a priori. Allo stato attuale, nessuna delle tecnologie proposte ha raggiunto uno stadio di sviluppo tale da consentire la produzione dei WECs a scala reale e, quindi, il lancio nel mercato principalmente perchè nessuna di esse può contare su un numero suciente di dati operativi da permettere un'analisi sistematica delle condizioni di lavoro. L'applicazione dei modelli disponibili sembra essere accurata per la maggior parte dei WECs in condizioni operative, ma non abbastanza per prevedere le forze agenti e il loro comportamento quando sono esposti all'azione di onde importanti. Sebbene vi è una generale necessità di indagine su diversi aspetti dei WECs, sembra che il punto critico sia lo sviluppo di un adeguato sistema di ormeggio il cui costo può incidere no al 200

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà  della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro tratta l’applicazione di due progetti di Reengineering, in un caso l’obiettivo era quello di ottimizzare il processo di fatturazione passiva di un’azienda operante nel settore della ceramica, nell’altro quello di supportare un Gruppo, operante nel settore logistico, nella valutare l’opportunità di accentramento dei servizi ICT, mitigando gli impatti derivati dai possibili cambiamenti. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso la società di consulenza Revision SRL. Nella prima parte della tesi, attraverso un’analisi della letteratura di riferimento, si sono indagati i principali fattori che interagiscono in un processo di Change management, si è anche effettuato un approfondimento delle tematiche di Business Process Reengineering, i cui principi hanno guidato l’intervento effettuato. La ricerca ha teso ad evidenziare da un lato le radici e gli elementi innovativi che contraddistinguono questo approccio metodologico e dall’altro a sottolineare le possibili cause di insuccesso di un progetto di BPR. La sezione si conclude con la formalizzazione delle metodologia e degli strumenti utilizzati nella conduzione dei progetti. Nella seconda parte del lavoro, insieme alla descrizione del primo caso vengono presentate le varie fasi della riprogettazione, dalla analisi della situazione iniziale, effettuata tramite un questionario e delle interviste dirette al personale addetto, alla identificazione delle criticità, fino alla presentazione e alla valutazione delle nuove configurazioni del processo. Il lavoro è arricchito dall’analisi e dall’applicazione delle tecnologie informatiche/informative di supporto alla nuova configurazione descritta. Nella terza parte, a completamento dell’elaborato, viene presentato il secondo progetto analizzato dove, dopo una fase di analisi della situazione iniziale ancora tramite questionario ed interviste dirette, si riportano le considerazioni fatte in merito alla possibilità di accentramento dei servizi ICT del gruppo analizzato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la validità di questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.