988 resultados para Analisi rischio, vaporizzatori, FMECA, FTA


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I metalli pesanti presenti nei sedimenti marini possono essere rilasciati alla colonna d’acqua, in seguito a variazioni delle condizioni ambientali, ed entrare nelle catene trofiche degli organismi marini. A partire da una serie di campioni di sedimenti superficiali provenienti dalla Pialassa dei Piomboni (sito SIC-ZPS, a nord della Provincia di Ravenna), prelevati tra novembre e dicembre del 2012, è stato valutato il rischio potenziale associato alla presenza di metalli pesanti (Cd, Cu, Ni, Pb e Zn) per il biota residente nei sedimenti. È stato valutato il comportamento del rapporto SEM/AVS (contenuto di metalli simultaneamente estratti (SEM) e solfuri acidi volatili (AVS)) per ciascuno dei metalli oggetto dello studio. La metodica analitica ha previsto il trattamento dei campioni con HCl 6M, sotto flusso di azoto, e successivamente la lettura del contenuto di solfuro (raccolto in soluzioni di NaOH) e dei metalli pesanti allo spettrometro. Dal valore dei parametri chimico-fisici ottenuti nel momento del campionamento, è evidente che la zona interna della laguna risulta meno influenzata dalle maree rispetto a quella lungo il canale di navigazione. Le concentrazioni di metalli potenzialmente biodisponibili hanno evidenziato una distribuzione eterogenea. Del set di campioni analizzati, soltanto tre presentano un contenuto totale di metalli potenzialmente biodisponibili superiore al contenuto di solfuri labili (∑SEM/AVS>1), per cui la presenza di metalli bivalenti potrebbe rappresentare un rischio per il biota. Come suggerito da diversi autori, si è proceduto con l’ulteriore normalizzazione del rapporto (∑SEM/AVS) con il contenuto di carbonio organico relativo ad ogni campione di sedimento, escludendo possibili rischi associati alla presenza di metalli pesanti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dal 2010 la Commissione Europea ha compilato una lista di 20 materie prime ritenute “critiche” per importanza economica e rischio di approvvigionamento, per le quali è fondamentale la ricerca di possibili fonti alternative nel territorio europeo, poiché i maggiori produttori sono tutti paesi extra-europei. Dati questi presupposti, 20 campioni di fango marino, dragati nelle adiacenze di seamounts del Tirreno sud-orientale, sono stati analizzati per mezzo di XRF, al fine di trovare arricchimenti in elementi critici quali cromo, cobalto, gallio, niobio e alcuni elementi delle Terre Rare (lantanio, cerio, neodimio, samario, ittrio). I fanghi, talvolta con frazione sabbiosa più abbondante, sono stati dapprima divisi in base al colore in fanghi marroni e grigi e fanghi di colore bianco, rosso o arancio; presentano anche inclusi di diverso tipo, quali frammenti di conchiglie, noduli neri o bruno-arancio, croste bruno-nere o bruno-arancio. Dalle analisi chimiche è risultato che campioni più ricchi in CaO hanno un contenuto minore negli elementi ricercati, al contrario dei campioni ricchi in ossidi di Si, Ti, Al, Fe. Confrontando inoltre i campioni con i valori medi di composizione della crosta terrestre superiore, essi risultano più ricchi in REY e meno in Co, Cr, Ga, Nb, mentre sono sempre più arricchiti della composizione media dei sedimenti marini. Dalle analisi mineralogiche risulta che i fanghi contengono generalmente quarzo, calcite, feldspati in piccole quantità e fillosilicati. Infine, analisi XRD e SEM-EDS sui noduli neri hanno dimostrato che si tratta di todorokite, un ossido idrato di Mn, con tenori variabili di Na, K, Ca, Mg, dalla forma globosa con microstruttura interna fibroso-raggiata. Si ritiene quindi che fanghi ricchi in CaCO3, probabilmente bioderivato, non siano l’obiettivo più adatto per la ricerca di elementi critici, mentre potrebbero esserlo fanghi più ricchi in Si, Al, Fe, K, che hanno maggiori concentrazioni di tali elementi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito dell’analisi del rischio di contaminazione ambientale dovuto ad incidenti rilevanti, facendo particolare riferimento a due metodologie per la stima di tale rischio. La prima è una metodologia ad indici proposta dal Gruppo di Lavoro misto APAT/ARPA/CNVVF, tramite la quale è possibile compiere un primo livello di analisi, detto anche IRA-Initial Risk Assessment: l’obiettivo principale del metodo ad indici sopra citato è quello di individuare situazioni critiche per il suolo e sottosuolo in riferimento alla possibilità di contaminazione da parte di liquidi idrocarburici. La seconda procedura riguarda, invece, una valutazione avanzata del rischio ambientale, detta anche ARA-Advanced Risk Assessment: quest’ultima, applicata solo nel caso in cui l’analisi di primo livello abbia evidenziato situazioni critiche, viene realizzata tipicamente tramite software specifici, in grado di simulare sia nello spazio che nel tempo i fenomeni di migrazione della contaminazione nel sottosuolo. Nell’ambito del lavoro di tesi è stata eseguita per un deposito costiero di liquidi idrocarburici una valutazione del rischio ambientale sia di primo livello (IRA, tramite l’applicazione del metodo ad indici), sia di livello avanzato (ARA, tramite il software HSSM). I risultati ottenuti nei due casi risultano in ottimo accordo. La tesi è organizzata in 7 capitoli. Il Capitolo 1, che ha carattere introduttivo, illustra il concetto di rischio di incidente rilevante e si concentra sull’impatto che gli incidenti rilevanti possono avere sull’ambiente, come emerge chiaramente dall’analisi delle banche dati incidentali. Il Capitolo 2 fornisce una mappatura degli stabilimenti a rischio di incidente rilevante in Italia. Il Capitolo 3 illustra il metodo ad indici ed il Capitolo 4 riporta le caratteristiche del software HSSM. Il Capitolo 5 contiene la descrizione del caso di studio analizzato, fornendo tutti gli elementi utili ai fini dell’applicazioni delle metodologie di analisi del rischio: pertanto esso contiene la descrizione sia delle principali proprietà impiantistiche del deposito e degli scenari incidentali che in esse possono verificarsi, sia delle proprietà idrogeologiche del terreno su cui sorge il sito. Il Capitolo 6 riporta in modo ampio e documentato i risultati ottenuti dall'applicazione delle metodologie di valutazione del rischio al caso di studio. Il Capitolo 7 infine contiene alcune considerazioni finali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro di tesi, partendo dall’Inventario del Dissesto della Regione Emilia – Romagna sono stati individuati i fenomeni di colata rapida di detrito che hanno interessato l’Appennino Bolognese negli ultimi anni. Si tratta di fenomeni rapidi, altamente pericolosi e ancora poco studiati. Ad ogni evento individuato è stata associata la precipitazione di innesco, caratterizzandola in termini di durata (D) e intensità (I) al fine di confrontarla con le soglie probabilistiche bayesiane proposte da Berti et al. (2012). Nella maggior parte dei casi è stato verificato che gli eventi considerati ricadono al di sopra delle soglie considerate come limite accettabile. Successivamente è stato applicato il metodo fisicamente basato SHALSTAB (SHALlow STABility model. Montgomery & Dietricht, 1994) al fine di valutarne la capacità previsionale al variare dei dati di input. Ne è emerso che tale metodo risulta fortemente influenzato dalla topografia. Dai dati esaminati, è stato dedotto che i fenomeni di colata rapida si sono innescati in seguito a eventi di pioggia fortemente transitori, pertanto l’applicazione del metodo SHALSTAB, che presuppone flusso allo stato stazionario mal si adatta a riprodurre questi casi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi esamina le caratteristiche geologico-tecniche della frana avvenuta il 3 dicembre 2013 in Montescaglioso (Matera) . Il fenomeno franoso ha determinato l’interruzione della strada a “scorrimento veloce” che collega l’abitato di Montescaglioso con la valle del Fiume Bradano, sede delle principali arterie di comunicazione del Comune. Inoltre sono stati del tutto compromessi i servizi della rete gas, della rete di smaltimento delle acque nere e, limitatamente all’area circoscritta, anche della rete elettrica. Numerosi sono i danni causati alle unità abitative e commerciali, alcune delle quali sono state completamente distrutte. L’eccezionalità dell’evento franoso, determinata sia dalla dimensione della massa coinvolta, che dai danni provocati alle infrastrutture, ha reso da subito indispensabile il coinvolgimento di strutture statali e regionali che insieme al comune di Montescaglioso hanno istituito un tavolo tecnico permanente per far fronte all’emergenza in essere. In particolare la tesi si occupa della ricostruzione geologica, geomorfologica e idrogeologica pre e post frana , utili per comprenderne le dinamiche morfo-evolutive del fenomeno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi si pone l’obiettivo di analizzare le principali metodologie per la stima delle conseguenze degli scenari incidentali propri degli stabilimenti che producono, operano o sono oggetto di stoccaggio di materiale esplosivo. Le sostanze esplosive sono utilizzate in innumerevoli attività civili, industriali e militari e considerando la loro intrinseca pericolosità, derivante dalla capacità di generare in uno spazio ridottissimo e in un tempo brevissimo una enorme quantità di energia, sono soggetti a tutta una serie di norme. Tali norme non solo classificano gli esplosivi ma ne regolamentano ogni utilizzo, dalla produzione, ai vari impieghi, allo stoccaggio fino allo smaltimento. Gli stabilimenti che detengono esplosivi possono essere classificati come a rischio di incidente rilevante e in quanto tali si trovano a dover sottostare alle varie direttive Seveso, da questo punto di vista si analizzano le caratteristiche a livello nazionale e regionale degli stabilimenti R.I.R. che operano con esplosivi. All’interno della tesi viene svolta un’analisi storica degli incidenti che hanno interessato gli stabilimenti che detengono esplosivi negli ultimi anni a livello mondiale, in modo tale da poter valutare quali eventi incidentali possano riguardare questa specifica classe di stabilimenti. Vengono poi presentati i principali approcci metodologici utilizzati per poter valutare le conseguenze degli scenari incidentali. Nello specifico vengono descritte le metodologie della normativa italiana T.U.L.P.S., del documento francese Sècuritè Pirotecnique, dell’Air Force Manual americano e alcuni metodi basati sull’equivalenza al TNT rintracciabili nella letteratura specifica. Le metodologie elencate precedentemente vengono poi applicate ad un caso di studio costituito da uno stabilimento fittizio caratterizzato da specifiche quantità di esplosivi suddivise in vari locali, localizzati in un ipotetico territorio. Dalla valutazione dei risultati ottenuti dall’applicazione dei vari approcci metodologici al caso studio è emerso un auspicabile proseguimento delle indagini relative alle metodologie relative alla quantificazione delle conseguenze degli scenari incidentali propri degli stabilimenti che detengono esplosivi con l’obiettivo di giungere ad una maggior standardizzazione dei metodi di calcolo che possa poi riflettersi anche in indicazioni uniformi a livello normativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il GPL, a causa della sua infiammabilità, può dare luogo a scenari d’incendio e di esplosione. Particolarmente pericoloso è lo scenario del BLEVE – Boiling Liquid Expanding Vapor Explosion, seguito da un incendio del tipo fireball. Una strategia per la riduzione del rischio imputabile a tale scenario è rappresentato dall’applicazione di protezioni passive antincendio. Le misure di protezione passive antincendio sono costituite dall’applicazione al recipiente di GPL di una coibentazione termica, che ritardi il tempo di cedimento dell’apparecchiatura nel caso di esposizione al fuoco e quindi riduce la frequenza del BLEVE e della conseguente fireball, fornendo un lasso di tempo sufficiente per consentire l'avvio di azioni di mitigazione. Nel presente lavoro di tesi si è effettuata l’analisi costi-benefici dell’applicazione di protezioni passive alle autobotti per il trasporto stradale di GPL. Si è applicato un metodo semplificato per l’analisi sopracitata, considerando l’influenza delle incertezze sul risultato finale In particolare sono state considerate le incertezze derivanti dal modello d‘irraggiamento, dal modello di danno e dalle assunzioni in merito alla descrizione della popolazione nell’area di impatto dell’incidente. Il lavoro di tesi è così strutturato. Nel capitolo 1, di carattere introduttivo, sono riportate informazioni sul GPL, sugli scenari incidentali a cui dà origine e sulle protezioni passive antincendio. Nel capitolo 2 vengono descritti i modelli matematici per la simulazione della fireball, considerando sia i modelli per la stima dell’irraggiamento che quelli per il calcolo della probabilità di morte. Il capitolo 3 contiene la descrizione del modello semplificato di analisi costi-benefici ed il calcolo dell’area di impatto equivalente della fireball. Il capitolo 4 contiene l’applicazione del modello di analisi costi-benefici ad alcuni casi di studio reali. Il capitolo 5, infine, contiene le considerazioni conclusive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

analisi sulle variazioni climati del bacino della diga di Ridracoli

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.