508 resultados para sensibilité
Resumo:
Interessante esempio di contaminazione tra il nuovo e l’antico, Villa Muggia costituisce una testimonianza emblematica di come l’architettura razionalista si sia accostata al tema dell’intervento sull’esistente per opera di Piero Bottoni tra il 1936 ed il 1938. La villa si inserisce in una vicenda costruttiva plurisecolare e durante la Seconda Guerra Mondiale è oggetto di un’incursione aerea. Un ordigno raggiunge l’edificio ed esplode al centro del salone devastando irrimediabilmente il nucleo antico. L’abbandono degli anni successivi è il motore del decadimento del podere Belpoggio, che negli Anni Settanta viene frazionato e venduti a più privati. Con questa operazione viene persa quella unità architettonica e paesaggistica, che era stata alla base del progetto di Piero Bottoni. Oggi, a chi si appresta a visitare villa Muggia, si presenta uno scenario unico, é infatti assolutamente atipica la relazione instauratasi tra il rudere dell’edificio settecentesco e l’addizione moderna. La presente tesi propone un progetto di restauro che risponda alle esigenze più impellenti date dal preoccupante stato di conservazione dell’edificio ma con una sensibilità spiccata al tema della rovina e della sua percezione. Ogni scelta tecnica è stata preceduta da una riflessione attenta sulla restituzione dell’immagine e della storia dell’edificio, dalla riorganizzazione del parco ai dettagli architettonici. Lo scopo è rendere nuovamente vissuto dalla città questo prezioso luogo, inserendolo in un sistema già consolidato di luoghi di cultura e tempo libero. Potendo usufruirne, la cittadinanza acquisirebbe consapevolezza della levatura di questa singolare traccia del moderno, innescando un processo di appropriazione del luogo, presupposto imprescindibile alla conservazione del bene.
Resumo:
L’accoppiamento articolare in ceramica è sempre più utilizzato in chirurgia protesica dell’anca per le sue eccellenti proprietà tribologiche. Tuttavia la fragilità della ceramica è causa di fallimenti meccanici. Abbiamo quindi condotto una serie di studi al fine di individuare un metodo efficace di diagnosi precoce del fallimento della ceramica. Abbiamo analizzato delle componenti ceramiche espiantate e abbiamo trovato un pattern di usura pre-frattura che faceva supporre una dispersione di particelle di ceramica nello spazio articolare. Per la diagnosi precoce abbiamo validato una metodica basata sulla microanalisi del liquido sinoviale. Per validare la metodica abbiamo eseguito un agoaspirato in 12 protesi ben funzionanti (bianchi) e confrontato i risultati di 39 protesi con segni di rottura con quelli di 7 senza segni di rottura. Per individuare i pazienti a rischio rottura i dati demografici di 26 pazienti con ceramica rotta sono stati confrontati con 49 controlli comparabili in termini demografici, tipo di ceramica e tipo di protesi. Infine è stata condotta una revisione sistematica della letteratura sulla diagnosi della rottura della ceramica. Nell’aspirato la presenza di almeno 11 particelle ceramiche di dimensioni inferiori a 3 micron o di una maggiore di 3 micron per ogni campo di osservazione sono segno di rottura della ceramica. La metodica con agoaspirato ha 100% di sensibilità e 88 % di specificità nel predire rotture della ceramica. Nel gruppo delle ceramiche rotte è stato trovato un maggior numero di malposizionamenti della protesi rispetto ai controlli (p=0,001). Il rumore in protesi con ceramica dovrebbe sollevare il sospetto di fallimento ed indurre ad eseguire una TC e un agoaspirato. Dal confronto con la letteratura la nostra metodica risulta essere la più efficace.
Resumo:
In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.
Resumo:
Il presente lavoro di ricerca si propone di discutere il contributo che l’analisi dell’evoluzione storica del pensiero politico occidentale e non occidentale riveste nel percorso intellettuale compiuto dai fondatori della teoria contemporanea dell’approccio delle capacità, fondata e sistematizzata nei suoi contorni speculativi a partire dagli anni Ottanta dal lavoro congiunto dell’economista indiano Amartya Sen e della filosofa dell’Università di Chicago Martha Nussbaum. Ci si ripropone di dare conto del radicamento filosofico-politico del lavoro intellettuale di Amartya Sen, le cui concezioni economico-politiche non hanno mai rinunciato ad una profonda sensibilità di carattere etico, così come dei principali filoni intorno ai quali si è imbastita la versione nussbaumiana dell’approccio delle capacità a partire dalla sua ascendenza filosofica classica in cui assume una particolare primazia il sistema etico-politico di Aristotele. Il pensiero politico moderno, osservato sotto il prisma della riflessione sulla filosofia della formazione che per Sen e Nussbaum rappresenta la “chiave di volta” per la fioritura delle altre capacità individuali, si organizzerà intorno a tre principali indirizzi teorici: l’emergenza dei diritti positivi e sociali, il dibattito sulla natura della consociazione nell’ambito della dottrina contrattualista e la stessa discussione sui caratteri delle politiche formative. La sensibilità che Sen e Nussbaum mostrano nei confronti dell’evoluzione del pensiero razionalista nel subcontinente che passa attraverso teorici antichi (Kautylia e Ashoka) e moderni (Gandhi e Tagore) segna il tentativo operato dai teorici dell’approccio delle capacità di contrastare concezioni politiche contemporanee fondate sul culturalismo e l’essenzialismo nell’interpretare lo sviluppo delle tradizioni culturali umane (tra esse il multiculturalismo, il comunitarismo, il neorealismo politico e la teoria dei c.d. “valori asiatici”) attraverso la presa di coscienza di un corredo valoriale incentrato intorno al ragionamento rintracciabile (ancorché in maniera sporadica e “parallela”) altresì nelle tradizioni culturali e politiche non occidentali.
Resumo:
I sarcomi dei tessuti molli sono un gruppo eterogeneo di tumori maligni di origine mesenchimale che si sviluppa nel tessuto connettivo. Il controllo locale mediante escissione chirurgica con margini ampi associato alla radioterapia e chemioterapia è il trattamento di scelta. Negli ultimi anni le nuove scoperte in campo biologico e clinico hanno sottolineato che i diversi istotipi posso essere considerati come entità distinte con differente sensibilità alla chemioterapia pertanto questa deve essere somministrata come trattamento specifico basato sull’istologia. Tra Ottobre 2011 e Settembre 2014 sono stati inclusi nel protocollo di studio 49 pazienti con sarcomi dei tessuti molli di età media alla diagnosi 48 anni (range: 20 - 68 anni). I tumori primitivi più frequenti sono: liposarcoma mixoide, sarcoma pleomorfo indifferenziato, sarcoma sinoviale. Le sedi di insorgenza del tumore erano più frequentemente la coscia, il braccio e la gamba. 35 pazienti sono stati arruolati nel Braccio A e trattati con chemioterapia standard con epirubicina+ifosfamide, 14 sono stati arruolati nel Braccio B e trattati con chemioterapia basata sull’istotipo. I dati emersi da questo studio suggeriscono che le recidive locali sembrano essere correlate favorevolmente alla radioterapia ed ai margini chirurgici adeguati mentre la chemioterapia non sembra avere un ruolo sul controllo locale della malattia. Anche se l'uso di terapie mirate, che hanno profili di tossicità più favorevoli e sono quindi meglio tollerate rispetto ai farmaci citotossici è promettente, tali farmaci hanno prodotto finora risultati limitati. Apparentemente l’insieme delle terapie mirate non sembra funzionare meglio delle terapie standard, tuttavia esse devono essere esaminate per singolo istotipo e confrontate con il braccio di controllo. Sono necessari studi randomizzati controllati su ampie casistiche per valutare l’efficacia delle terapie mirate sui differenti istotipi di sarcomi dei tessuti molli. Inoltre, nuovi farmaci, nuove combinazioni e nuovi schemi posologici dovranno essere esaminati per ottimizzare la terapia.
Resumo:
Lo scopo di questo lavoro di tesi è indagare le capacità di ALMA di osservare il continuo e le righe molecolari di emissione di HCN, HCO+ e HNC, in galassie lensate ad alto z, nelle prime fasi della loro formazione. Per farlo vengono utilizzate osservazioni ALMA di righe di emissione molecolare, relative a dati pubblici di Ciclo 0. Queste osservazioni vengono utilizzate per simulare in modo realistico l’emissione da parte di galassie ad alto z e la risposta osservativa del telescopio, assumendo diverse possibili geometrie di lensing. Inoltre le recenti osservazioni ALMA sono state utilizzate per aggiornare le relazioni già esistenti tra la luminosità FIR e la luminosità delle righe molecolari. Queste recenti osservazioni con maggiore sensibilità e risoluzione angolare, sembrano essere in buon accordo con le precedenti osservazioni. Per realizzare questo progetto di tesi, sono stati scaricati dall’archivio ALMA i dati non calibrati relativi a due sorgenti ben studiate: NGC1614, rappresentativa delle galassie di tipo starburst ed IRAS 20551-4250, un AGN oscurato. Il processo di calibrazione è stato ripetuto per esaminare le proprietà dei cubi di dati utilizzando il pacchetto Common Astronomy Software Applications (CASA). Le righe spettrali osservate e l’emissione del continuo sono state successivamente estrapolate ad alto z riscalando adeguatamente le distanze, le dimensioni delle sorgenti e le frequenze di emissione. In seguito è stato applicato un modello di lensing gravitazionale basato su quello di Lapi et al. (2012). Sono state considerate diverse configurazioni tra lente e sorgente per ottenere diverse geometrie delle immagini e diversi fattori di amplificazione. Infine stato utilizzato il software CASA per simulare le osservazioni ALMA in modo da verificare le capacità osservative del telescopio al variare della geometria del sistema. Per ogni riga molecolare e per l’emissione del continuo sono state determinate la sensibilit e la risoluzione che possono essere raggiunte con le osservazioni ALMA e sono state analizzate alcune strategie osservative per effettuare survey di righe spettrali in oggetti lensati. Inoltre stata analizzata la possibilit di caratterizzare oggetti starburst ed AGN dai rapporti tra le righe di emissione delle molecole traccianti di alta densit. Le prestazioni di ALMA consentiranno di distinguere e stimare i contributi relativi di SB ed AGN in galassie lensate a z > 2.5, quindi vicine alla loro presunta epoca di formazione (Lapi et al. 2010), in meno di 5 minuti di osservazione per qualsiasi fattore di magnificazione. Nel presente lavoro sono state inoltre discusse alcune strategie osservative per condurre survey o followup per osservare le righe di HCN(4-3), HCO+(4-3) e HNC(4-3) in galassie lensate a redshift 2.5 < z < 3, dimostrando che sono possibili per campioni statisticamente significativi in tempi relativamente brevi.
Resumo:
Questa tesi ha per argomento l'analisi linguistica della traduzione italiana del Treatise of electricity di Tiberio Cavallo (1777) ad opera di Ferdinando Fossi – Trattato completo d'elettricità – (1779). Con questo studio, che prende in esame un particolare episodio letterario, si è inteso esaminare un momento della storia del lessico scientifico italiano al fine di individuarne le peculiarità e sottolinearne le differenze rispetto ai corrispettivi di altre lingue, con speciale attenzione alla lingua inglese. I capitoli introduttivi riportano notizie biografiche e sulla formazione di T. Cavallo e F. Fossi. Nel terzo capitolo viene delineato un quadro della formazione e costituzione del lessico elettrologico italiano, seguendone l'evoluzione nel cinquantennio '40/'90 del XVIII secolo. Una parte della tesi è poi dedicata al fenomeno culturale rappresentato dalle scienze elettriche in cui si inscrive la traduzione del Treatise. Sono qui riportate notizie relative alla fortuna mondana dell'elettricità, per le quali si è attinto a carteggi, documenti d'archivio, testi antichi e studi moderni. L'analisi linguistica vera e propria si è basata sul confronto tra il testo originale di Tiberio Cavallo e la traduzione di Ferdinando Fossi. Partendo dal Treatise abbiamo isolato particolari gruppi di parole: 1) voci corrispondenti a termini propri dei fenomeni elettrici; 2) verbi; 3) strumenti scientifici. Per ognuna della voci abbiamo controllato la ricorsività; poi abbiamo cercato i traducenti corrispondenti, suddividendoli in “corrispondenze assolute” – il traducente è corrispettivo del termine originale –, “corrispondenze mancate” – variazioni nella traduzione di termini ripetuti costantemente –, “tendenza omologatrice” – traduzione univoca di termini semanticamente simili –. Un capitolo sulla lettura critica della traduzione spiega come da parte del Fossi si sia rilevata una sostanziale e sistematica assenza di sensibilità per la precisione terminologica che caratterizza il testo di Cavallo; ove si dimostra che il testo inglese insiste sulla ripetizione dei termini – già stabilizzati e facenti parte di un corpus omogeneo e condiviso –, mentre il testo italiano predilige il ricorso alla "variatio", ricercando una migliore resa stilistica d'insieme piuttosto che la precisione scientifica. Il momento storico-linguistico preso in esame attraverso il particolare caso della traduzione del Treatise vede la lingua italiana sprovvista di una lessico elettrico univoco e condiviso. Complici di questa mancata corrispondenza alle esigenze del linguaggio scientifico moderno sono certamente pregiudizi di ordine retorico, che esaltano l'importanza dello stile e alimentano il disprezzo per i tecnicismi, ma anche e soprattutto la diffusione di traduzioni eterogenee, che danno atto ad una moltiplicazione semantica dei termini realmente in grado di ritardare la formazione di un corpus lessicale condiviso dalla comunità scientifica italiana.
Resumo:
Obiettivo del lavoro è stato lo sviluppo e la validazione di nuovi bioassay e biomarker quali strumenti da utilizzare in un approccio ecotossicologico integrato per il biomonitoraggio di ambienti marino-costieri interessati da impatto antropico negli organismi che vivono in tali ambienti. L’ambiente reale impiegato per l’applicazione in campo è la Rada di Augusta (Siracusa, Italia). Una batteria di bioassay in vivo e in vitro è stata indagata quale strumento di screening per la misura della tossicità dei sedimenti. La batteria selezionata ha dimostrato di possedere i requisiti necessari ad un applicazione di routine nel monitoraggio di ambienti marino costieri. L’approccio multimarker basato sull’impiego dell’organismo bioindicatore Mytilus galloprovincialis in esperimenti di traslocazione ha consentito di valutare il potenziale applicativo di nuovi biomarker citologici e molecolari di stress chimico parallelamente a biomarker standardizzati di danno genotossico ed esposizione a metalli pesanti. I mitili sono stati traslocati per 45 giorni nei siti di Brucoli (SR) e Rada di Augusta, rispettivamente sito di controllo e sito impattato. I risultati ottenuti supportano l’applicabilità delle alterazioni morfometriche dei granulociti quale biomarker di effetto, direttamente correlato allo stato di salute degli organismi che vivono in un dato ambiente. Il significativo incremento dell’area dei lisosomi osservato contestualmente potrebbe riflettere un incremento dei processi degradativi e dei processi autofagici. I dati sulla sensibilità in campo suggeriscono una valida applicazione della misura dell’attività di anidrasi carbonica in ghiandola digestiva come biomarker di stress in ambiente marino costiero. L’utilizzo delle due metodologie d’indagine (bioassay e biomarker) in un approccio ecotossicologico integrato al biomonitoraggio di ambienti marino-costieri offre uno strumento sensibile e specifico per la valutazione dell’esposizione ad inquinanti e del danno potenziale esercitato dagli inquinanti sugli organismi che vivono in un dato ambiente, permettendo interventi a breve termine e la messa a punto di adeguati programmi di gestione sostenibile dell’ambiente.
Resumo:
Le nanoparticelle polimeriche offrono grandi vantaggi nella nanomedicina in quanto fungono da carrier per il Drug Delivery e possono essere molto utili per le malattie ancor oggi difficili da trattare quali le neurodegenerative come l’Alzheimer. In questo progetto di tesi sono stati creati nanocarrier polimerici utilizzando come polimero un copolimero a blocchi anfifilico noto come PLGA-b-PEG: con varie tecniche si sono ottenute micelle polimeriche nelle quali sono stati intrappolati come principi attivi sia un farmaco, il liraglutide, sia nanoparticelle di magnesio; il primo può ridurre le placche β-amiloidee, tipiche cause dell’Alzheimer, mentre le seconde possono aumentare la plasticità sinaptica anch’essa legata all’Alzheimer. Inoltre è stato sintetizzato e intrappolato anche un promettente agente diagnostico, ovvero nanoparticelle di ferro, utile per aumentare la sensibilità di tecniche di imaging quali MRI e per la rivelazione precoce di malattie. Tutti i sistemi sono stati caratterizzati con tecniche specifiche per valutare i parametri chiave quali dimensione, polidispersità, carica superficiale e concentrazione dei componenti e successivamente sono state utilizzate per studi biologici effettuati da collaboratori esterni. Tutto questo ha come obiettivo futuro la creazione di un carrier teranostico che racchiuderà al suo interno l’agente terapeutico e l’agente diagnostico per combinare i due effetti principali in un unico carrier.
Resumo:
In questa tesi consideriamo il problema della percezione di immagini, e in particolare la sensibilità al contrasto del nostro sistema visivo. Viene studiato il modello classico di Retinex, che descrive l'immagine percepita come soluzione di un'equazione di Poisson. Questo modello viene reinterpretato utilizzando strumenti di geometria differenziale e derivate covarianti. La controparte neurofisiologica del modello è la descrizione della funzionalità del LGN, e della connettività che le lega. Questa viene modellata come un nucleo soluzione fondamentale dell'equazione di Laplace, con strumenti di teoria delle distribuzioni. L'attività dello strato di cellule è quindi soluzione dell'equazione di Laplace, ovvero la stessa equazione che descrive il Retinex. Questo prova che le cellule sono responsabili della percezione a meno di illuminazione.
Resumo:
[Abstract]. Questo lavoro è finalizzato al confronto delle rivelazioni di canditati eventi di neutrino cosmico da parte di due esperimenti ANTARES ed ICECUBE. I due apparati, entrambi basati sulla rivelazione di radiazione Cherenkov generata da prodotti di interazione CC dei neutrini, si differenziano per la geometria del detector e per il mezzo in cui viene prodotta la radiazione, e hanno quindi sensibilità e risoluzione diverse. L'analisi dei dati è basata sulla rappresentazione delle direzioni di arrivo degli eventi su mappa celeste nei due sistemi di coordinate galattico ed equatoriale. La sovrapposizione della distribuzioni degli eventi ha permesso di evidenziare le zone di visibilità sulla mappa celeste caratteristiche di ciascun esperimento. Una successiva analisi statistica ha analizzato la frequenza delle occorenze di eventi del dataset di ANTARES in intorni di raggio crescente di eventi di ICECUBE, per valutare eventuali eventi identificabili nei due dataset. Questa analisi ha evidenziato la necessità di una selezione preventiva degli eventi del dataset di ANTARES, in base a criteri non solo topologici, in modo da permettere una eventuale identificazione di eventi coincidenti.
Resumo:
Valutazione dell’opportunità di fare trading elettrico nell’area CEE. Progetto di analisi di mercato, per l’azienda “C.U.Ra”, operatore del mercato elettrico, sull’opportunità di fare business energetico in Polonia e paesi CEE. Attività sviluppate: •Benchmarking dei mercati evoluti dell’energia •Analisi del mercato elettrico italiano •Analisi dell’attività di trading elettrico: Profit & Loss, Risk Management. •Analisi di Fattibilità •Analisi di sensibilità (What-if): variazione parametrica dell’opportunità • Avviamento del business e partnership con società di consulting polacca
Resumo:
Nel presente lavoro verrà analizzata la sensibilità di cristalli organici semiconduttori alle sostenze chimiche presenti nell'ambiente. Verranno studiati gli effetti prodotti dall'umidità dell'aria su campioni che si differenziano per caratteristiche chimiche e morfologia di contatto, analizzando la differenza nei valori di conducibilità in tre diverse condizioni ambientali: in aria, in azoto e in vapore acqueo. Saranno presentate le misure I-V effettuate e discusse le differenze tra i risultati ottenuti in relazione alle diverse caratteristiche dei campioni. Verrà infine proposta una possibile interpretazione degli effetti osservati.
Resumo:
L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.
Resumo:
Con questo lavoro di tesi si affrontano i primi accorgimenti sperimentali necessari alla realizzazione di un esperimento di ottica quantistica. L'attività svolta consiste nell'ottimizzazione dei parametri di un PLL (Phase-Locked Loop) che mantiene due laser agganciati in frequenza, e nella misura del rumore di fase presente nell'aggancio. Questa stabilizzazione costituisce il primo passo per la generazione di luce squeezed, associata a particolari stati del campo elettromagnetico. Grazie a quest'ultima, è possibile migliorare la sensibilità raggiungibile in esperimenti di interferometria di precisione, quali ad esempio quelli per la ricerca di onde gravitazionali. L'iniezione di luce squeezed costituirà infatti parte del prossimo upgrade dell'interferometro di Virgo.