1000 resultados para rischio chimico valutazione del rischio Movarisc polivinilcloruro
Resumo:
Gli squali bianchi sono tra i più importanti predatori dei Pinnipedi (Klimley et al., 2001; Kock, 2002). La loro principale strategia di caccia consiste nel pattugliare le acque circostanti ad una colonia di otarie e nell’attaccarle quando queste sono in movimento, mentre si allontanano o avvicinano all’isola (Klimley et al., 2001; Kock, 2002). Tuttavia, la strategia e la dinamica della predazione osservate anche in relazione al ciclo riproduttivo della preda e le tattiche comportamentali messe in atto dalla preda per ridurre la probabilità di predazione, e quindi diminuire la sua mortalità, sono ancora poco conosciute. Con questo studio, effettuato nell’area di Seal Island all’interno della baia di Mossel Bay in Sud Africa, abbiamo cercato di definire proprio questi punti ancora poco conosciuti. Per studiare la strategia e le dinamica di predazione dello squalo bianco abbiamo utilizzato il sistema di monitoraggio acustico, in modo da poter approfondire le conoscenze sui loro movimenti e quindi sulle loro abitudini. Per dare un maggiore supporto ai dati ottenuti con la telemetria acustica abbiamo effettuato anche un monitoraggio visivo attraverso l’attrazione (chumming) e l’identificazione fotografica degli squali bianchi. Per comprendere invece i loro movimenti e le tattiche comportamentali messi in atto dalle otarie orsine del capo per ridurre la probabilità di predazione nella baia di Mossel Bay, abbiamo utilizzato il monitoraggio visivo di 24 ore, effettuato almeno una volta al mese, dalla barca nell’area di Seal Island. Anche se gli squali bianchi sono sempre presenti intorno all’isola i dati ottenuti suggeriscono che la maggior presenza di squali/h si verifica da Maggio a Settembre che coincide con l’ultima fase di svezzamento dei cuccioli delle otarie del capo, cioè quando questi iniziano a foraggiare lontano dall'isola per la prima volta; durante il sunrise (alba) durante il sunset (tramonto) quando il livello di luce ambientale è bassa e soprattutto quando la presenza delle prede in acqua è maggiore. Quindi possiamo affermare che gli squali bianchi a Seal Island prendono delle decisioni che vanno ad ottimizzare la loro probabilità di catturare una preda. I risultati preliminari del nostro studio indicano anche che il numero di gruppi di otarie in partenza dall'isola di notte sono di gran lunga maggiori di quelle che partono durante il giorno, forse questo potrebbe riflettere una diminuzione del rischio di predazione; per beneficiare di una vigilanza condivisa, le otarie tendono in media a formare gruppi di 3-5 o 6-9 individui quando si allontanano dall’isola e questo probabilmente le rende meno vulnerabili e più attente dall’essere predate. Successivamente ritornano all’isola da sole o in piccoli gruppi di 2 o 3 individui. I gruppi più piccoli probabilmente riflettono la difficoltà delle singole otarie a riunirsi in gruppi coordinati all'interno della baia.
Resumo:
Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.
Resumo:
Una tracciato anormale della rotula può provocare dolore anteriore al ginocchio dopo un’artroplastica e può condurre al fallimento dell’intervento stesso. È importante quindi valutare questo tracciato sia intra che post-operatoriamente, anche per validare disegni protesici innovativi e supportare il chirurgo per le più critiche decisioni chirurgiche al momento dell’impianto. Ad oggi però le valutazioni in-vivo della cinematica femoro-rotulea sono poche e poco attendibili; è per questi motivi che abbiamo deciso di analizzare l’articolazione con la tecnica video-fluoroscopica, appositamente adattata allo scopo di tale studio, a sei mesi di follow-up dall’intervento. Per lo studio abbiamo esaminato, tramite video-fluoroscopia 3D, sette pazienti che hanno subito l’impianto di una protesi totale al ginocchio con ricopertura della rotula. Successivamente le immagini sono state elaborate con un apposito software per ricostruire la cinematica 3D, e sono stati ottenuti i grafici per ogni grado di libertà dell’articolazione. Dall’analisi dei risultati, la tecnica utilizzata è risultata fattibile ed affidabile, infatti dai grafici si nota come la normale cinematica delle articolazioni studiate sia stata ripristinata. Questo studio, oltre a validare l’applicazione della tecnica video-fluoroscopica all’articolazione femoro-rotulea oltre che a quella tibio-femorale, dopo un confronto con i dati derivanti dalla navigazione chirurgica, ha consentito di validare anche questa tecnica intra-operatoria. Questo risultato potrà condurre ad una maggiore precisione nell’allineamento delle componenti protesiche da parte del chirurgo, con conseguente riduzione del rischio di fallimento dell’impianto.
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
Nel corso del tempo, nell’ambito dell’idrogeologia sono state sviluppate diverse tecniche per la determinazione conducibilità idraulica (K). Negli ultimi decenni sempre maggiori sforzi sono stati compiuti per integrare le tecniche geofisiche a questo specifico settore di ricerca; in particolare le metodologie geoelettriche sono state fonte di molteplici studi per la determinazione indiretta di K. Su questa idea è stato impostato il lavoro presentato in questo elaborato di tesi. Ciò che questo propone è infatti l’esecuzione di test in campo che prevedono il monitoraggio time lapse con tecnologia ERT (Electrical Resistivity Tomography) di un tracciante salino iniettato nel terreno. Il fine ultimo è quello di poter sviluppare una tecnica indiretta per la stima della conducibilità idraulica verticale dei terreni sciolti. Le immagini tomografiche, realizzate in sequenza nel tempo, premettono la visualizzazione l’avanzamento del plume basso resistivo in movimento nel terreno (causato dalla salamoia iniettata). Un successivo confronto grafico fra queste permette di quantificare lo spostamento nel tempo, in modo da calcolare in seguito la velocità di infiltrazione del tracciante, e in ultimo stimare la K del terreno in analisi. I risultati ottenuti con tale metodologia sperimentale, opportunamente elaborati tramite specifici software, sono stati confrontati, dove possibile, con i valori forniti dall’impiego di altre tecniche più tradizionali, in modo da poter valutare la bontà del dato ottenuto. Le aree studio individuate per condurre tali sperimentazioni ricadono all’interno del territorio regionale del Friuli Venezia Giulia, in particolare nell’area di Alta e Bassa pianura friulana. La strumentazione (resistivimetro multicanale VHR X612-EM della MAE-Molisana Apparecchiature Elettroniche) e il software (Res2dinv) per la raccolta e l’elaborazione delle immagini tomografiche sono stati gentilmente messi a disposizione dalla società Geomok s.r.l. del Dott. Geol. Mocchiutti (Udine) con la cui collaborazione è stato realizzato questo elaborato di tesi.
Resumo:
Lo scopo di questo elaborato è stato determinare una modalità per ridurre il rischio di Listeria monocytogenes in semi di ravanello utilizzati per produrre germogli ad uso alimentare. Per fare ciò è stato utilizzato il timolo, un composto fenolico la cui attività antimicrobica è nota. In primo luogo sono state eseguite prove preliminari in vitro per verificare gli effetti di diverse concentrazioni di questo terpene su L. monocytogenes mediante l’uso di un citofluorimetro. I risultati hanno mostrato che 30 minuti di esposizione a 500 ppm di timolo in acqua peptonata determinano un danneggiamento della membrana cellulare in metà della popolazione microbica. Quando l’esposizione avviene in tampone fosfato, l’effetto è evidente già a 250 ppm (82% di cellule danneggiate). Successivamente, è stato valutato l’effetto di diverse concentrazioni di timolo su cellule di L. monocytogenes preventivamente inoculate su semi di ravanello. La prova è stata condotta in due modalità: la prima in contenitori sterili, la seconda in germogliatori per riprodurre fedelmente le tecniche utilizzate nel processo industriale o casalingo. Sono stati effettuati sia campionamenti microbiologici (su semi, germogli e acqua degli ammolli) sia prove di germinabilità per individuare un’eventuale riduzione della capacità germinativa dei semi a seguito del contatto con timolo. Dai dati ottenuti è emerso che il timolo riesce a contenere entro certi limiti la crescita di L. monocytogenes nell’acqua usata per l’ammollo, ma non ha un effetto significativo sul suo destino nei semi durante la germinazione. La presenza di timolo non compromette la capacità germinativa ma rallenta il processo di germinazione. In conclusione, il processo produttivo di germogli lascia spazio a molti rischi microbiologici nel caso siano già presenti nella matrice delle specie patogene. Ciò nonostante l’impiego di trattamenti preliminari sui semi prima del germogliamento, può essere una strada importante per ridurne i rischi.
Resumo:
L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
Valutazione dei rischi per una linea di assemblaggio di CHRA (Center Housing Rotating Assembly). Studio, analisi e descrizione sul funzionamento della linea di assemblaggio e del prodotto che andrà ad assemblare. Trattazione preliminare del contesto normativo europeo, introduzione alle direttive applicabili alla linea e studio delle norme armonizzate per il soddisfacimento dei requisiti essenziali. Studio delle norme di riferimento e trattazione delle metodologie per eseguire la valutazione dei rischi di una linea di assemblaggio. Analisi dei rischi effettuata sulla linea secondo le norme di riferimento. Trattazione sulle soluzioni da prendere per la riduzione del rischio.
Resumo:
Il presente lavoro di tesi nasce dall’esigenza di comprendere e studiare come viene affrontata, e gestita, l’emergenza in mare derivante dallo sversamento accidentale, o volontario, di idrocarburi; il sistema di risposta nazionale a questo genere di emergenze si sviluppa su più livelli e per ogni livello sono individuati gli organi responsabili e i relativi compiti. Le azioni da intraprendere sono specificate negli elaborati di pianificazione redatti dall’Agenzia Nazionale di Protezione Civile, dal Ministero dell’Ambiente e della Tutela del territorio e del Mare, dalle Capitanerie di Porto Locali, dalle Province e dai Comuni; i primi 3 si occupano dell’emergenza in mare, mentre le Province e i Comuni si occupano degli interventi da attuare sulla costa in seguito allo spiaggiamento degli idrocarburi. La regione Emilia-Romagna, in particolare, non possiede elaborati di pianificazione per la gestione del rischio di inquinamento costiero; per questo motivo, sulla base delle indicazioni riportate negli elaborati di pianificazione nazionale e consultando elaborati già esistenti di altre regioni adriatiche, è stata redatta una proposta di linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il rischio di inquinamento costiero. Per poter prevedere quale tecnica di bonifica sarà possibile applicare ad uno sversamento di idrocarburi, esistono software che modellano i processi chimico-fisici che la sostanza subisce con il passare del tempo. Ogni tecnica ha dei limiti sia di efficienza che di applicabilità; essi sono principalmente dovuti alle condizioni meteomarine e ai processi che la sostanza subisce nel tempo una volta sversata; la conoscenza di questi limiti permette di effettuare, nella maggior parte delle situazioni, la scelta della tecnica di intervento più appropriata ed efficiente a seconda della situazione. La tesi è strutturata come segue. Nel Capitolo 1 sono descritte le problematiche e le cause relative agli incidenti in mare che comportano il rilascio di idrocarburi in esso e gli effetti che questi hanno sull’ambiente e i cambiamenti che la sostanza subisce una volta sversata in mare. Nel Capitolo 2 sono descritte le strategie di intervento per il recupero degli idrocarburi sversati in mare e le tecniche di bonifica attuabili sulla costa impattata dallo sversamento. Nel Capitolo 3 è illustrato il sistema di risposta nazionale all’emergenza derivante dallo sversamento in mare di idrocarburi; ad ogni livello è dedicato un paragrafo del Capitolo 3. Inoltre sono presentate delle linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il Rischio di Inquinamento Costiero da idrocarburi e altre sostanza nocive. Nel Capitolo 4 è illustrato il software ADIOS 2 che permette di modellare i processi chimico-fisici che la sostanza subisce quando viene sversata in mare e di simulare l’utilizzo di alcune strategie di intervento. Nel Capitolo 5 sono riportate le considerazioni conclusive e i risultati ottenuti.
Resumo:
Lo scopo del mio elaborato è stato quello di valutare se il denaro potesse essere un veicolo di trasmissione di microrganismi. Esistono infatti reperti storici che indicano che il denaro veniva visto come probabile portatore di infezioni fatali come la “morte nera”, la peste bubbonica e le pandemie di polmoniti descritte in Europa. Vi sono anche altri studi che hanno indicato come patogeni isolati con maggiore frequenza dalle banconote microrganismi quali enterobatteri e stafilococchi. In questa sperimentazione mi sono occupato del campionamento microbiologico di banconote di vario taglio, raccolte prevalentemente in piccoli esercizi alimentari, sulle quali è stato fatto un tampone al fine di determinare la presenza di: coliformi totali, E. coli, S. aureus, altri stafilococchi, muffe, lieviti, carica batterica totale. Le analisi condotte hanno mostrato che nelle banconote non sono mai stati isolati ceppi di S. aureus, a differenza di quanto riportato nella letteratura. Simili considerazioni si possono fare anche per E. coli. Per quel che riguarda la carica batterica totale, le banconote più contaminate sono risultate essere quelle da 20 euro (valore medio 474 UFC/cm2). I tamponi microbiologici effettuati sui tagli da 50 euro sono stati gli unici ad essere caratterizzati da una elevata presenza di coliformi totali. In conclusione possiamo affermare che le banconote posso effettivamente costituire un importante veicolo di contaminazione microbica, che può poi trasferirsi anche su altri matrici, come prodotti alimentari. Considerando la pressione che viene esercitata dalle Autorità di controllo su tutte le fasi della catena alimentare, dalla produzione alla vendita al dettaglio, la variabile posta dalle possibili contaminazioni attraverso il maneggiamento e la circolazione delle banconote potrebbe quindi costituire un rischio reale, sia pure non ancora quantificato e forse non quantificabile.
Resumo:
La legge n.354 del 1975 ha apportato importanti cambiamenti nella vita detentiva. Viene messa in luce un nuovo senso della sanzione: una pena più umana in cui il detenuto non può più essere considerato un soggetto da diagnosticare, ma da conoscere e reinserire nel contesto sociale. Tuttavia il carcere resta una realtà complessa piena di problematiche e contraddizioni. Il seguente lavoro ha cercato di comprendere l’opinione dei detenuti su tematiche che quotidianamente ruotano intorno al carcere: recidiva, finalità rieducativa e sorveglianza dinamica. A tal proposito è stato somministrato un questionario appositamente strutturato su tali tematiche ad un campione di 161 detenuti. Il carcere aperto e la sorveglianza dinamica risultano una nuova conquista trattamentale. Solo un carcere più vivibile, pieno di opportunità può realmente rieducare il soggetto ed insegnargli ad essere libero nel rispetto della legge.
Resumo:
Il presente lavoro di tesi riguarda lo studio di un modello di stima delle emissioni per la previsione della contaminazione ambientale in aria. Il lavoro è stato svolto all’interno del DICAM dell’Università di Bologna attraverso il supporto del relatore Giacomo Antonioni e dei correlatori Ada Saracino e Gigliola Spadoni. L’applicazione modellistica, attraverso l’uso del software CALPUFF, ha trattato le emissioni del camino E312 della sezione Agglomerazione dello stabilimento siderurgico ILVA di Taranto nell’anno 2015. Gli inquinanti simulati sono quelli per i quali lo SME fornisce il flusso di massa: SO2, NOx, PM. Le polveri sono state considerate completamente costituite da polveri PM10 e per esse si è calcolata la concentrazione al suolo e la deposizione. A partire dai risultati per le polveri, ipotizzando che siano in parte veicolati da esse, sono state valutate anche le concentrazioni e le deposizioni di Diossine. Della configurazione modellistica “ottimale” sono stati presentati: ▪ Per i macroinquinanti le medie annue di concentrazione al suolo, e quindi, la dispersione degli inquinanti. ▪ Per i microinquinanti i valori massimi di concentrazione annua e di deposizione ottenuti nell’area di studio. Nel caso in esame, lo studio è stato riferito alla rete deposimetrica di gestione ILVA (per mancanza di dati deposimetrici della rete di gestione ARPA). In particolare è stato preso in considerazione il deposimetro del quartiere Tamburi a fronte delle criticità rilevate nei mesi di Novembre 2014 e Febbraio 2015, tale per cui, visti gli elevatissimi valori di deposizione, vista la notevole importanza che i dati deposimetrici hanno rispetto al rischio sanitario per ingestione, è stata aperta un’indagine della procura che ha affidato l’analisi a ARPA PUGLIA congiunta con l’ISPRA (che ne ha mandato ministeriale) e la Regione Puglia. A fronte di tali episodi, il seguente studio ha voluto fornire un resoconto deposimetrico per l’anno 2015.
Resumo:
Il presente lavoro di tesi vuole focalizzare l’attenzione sull’impiego del GNL per la propulsione navale, analizzando aspetti legati alla sicurezza delle infrastrutture necessarie a tale scopo. Si sono considerati due diversi casi di studio: il primo riguarda un deposito costiero attrezzato per poter svolgere attività di rifornimento per imbarcazioni, mentre il secondo caso interessa una nave da trasporto passeggeri alimentata a GNL. È stata condotta un’analisi del rischio: l’identificazione dei pericoli ha seguito le linee guida proposte dalla metodologia MIMAH, oltre a sfruttare risultati di analisi HAZOP e HAZID. La stima delle frequenze di rilascio è stata effettuata con la tecnica della parts count, sulla base di valori ottenuti da database affidabilistici. La valutazione delle conseguenze è stata realizzata con il supporto del software DNV PHAST, utilizzando come riferimento i valori soglia proposti dal D.M. 9/5/2001. È stata infine impostata una modellazione fluidodinamica con lo scopo di valutare la possibilità di rottura catastrofica dei serbatoi di stoccaggio dovuta ad un’eccessiva pressurizzazione causata da una situazione di incendio esterno. Le simulazioni sono state condotte con il supporto del software CFD ANSYS® FLUENT® 17.2. Si è modellata una situazione di completo avvolgimento dalle fiamme considerando due geometrie di serbatoio diverse, nel caso di materiale isolante integro o danneggiato. I risultati ottenuti dall’analisi del rischio mostrano come i danni derivanti da un ipotetico scenario incidentale possano avere conseguenze anche significative, ma con valori di frequenze di accadimento tipici di situazioni rare. Lo studio fluidodinamico del comportamento di serbatoi di stoccaggio avvolti dalle fiamme ha evidenziato come questi siano capaci di resistere a condizioni gravose di incendio per tempi prolungati senza che si abbia una pressurizzazione tale da destare preoccupazione per l’integrità strutturale delle apparecchiature.