242 resultados para topologia complessi simpliciali casuali omologia topologia algebrica applicata probabilità grafi casuali gruppo fondamentale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013)⁠. Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al.⁠, era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si inserisce in un progetto di ricerca fra il gruppo di Matematica della Visione del Prof. Ferri e CA-MI S.r.l. volto a progettare un sistema di recupero di immagini mediante il quale un dermatologo potrà acquisire l’immagine di una lesione e recuperare da un database classificato le immagini più somiglianti. Il concetto stesso di “somiglianza” è formalmente realizzato da una parte dell’omologia persistente (funzioni di taglia). Questa tesi utilizza tali metodi al fine di ottenere una combinazione ottimale dei diversi classificatori che si ottengono utilizzando la modularità intrinseca nella teoria. A questo scopo vengono impiegati due modelli e diversi metodi numerici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avvento di Internet e delle innovazioni tecnologiche hanno determinato una rivoluzione nel panorama della comunicazione e dell’informazione soprattutto in quello pubblicitario. La pubblicità online (in inglese Advertising Online o Internet Advertising) è un fenomeno in continua crescita. Rispetto ai media tradizionali come la stampa e la televisione dove i contenuti sono trasmessi in modo generico e di massa, l’Advertising Online sfrutta la capacità del World Wide Web al fine di raggiungere una quantità notevole di persone permettendo di attuare campagne pubblicitarie verso un target mirato. In questo settore la facilità di misurare l'effetto nei confronti del pubblico permette alle aziende di investire in questo tipo di mercato rispetto a quello tradizionale poiché, in quest'ultimo l’assenza di strumenti di misurazione è basata su rilevanze teoriche. In riferimento a quanto citato, un’oggetto di studio e di analisi presentato in questa tesi riguarda la start-up TAGGALO un sistema ideato e sviluppato da un gruppo di ricercatori del CNR Puglia. Questa soluzione tecnologia è applicata nel campo pubblicitario del Digital out of Home e del Digital Signage dove la comunicazione del messaggio viene percepita dal potenziale cliente mentre è fuori casa mediante l’uso di schermi elettronici disposti nella maggior parte dei luoghi pubblici. Attraverso questa tecnologia è possibile rilevare il reale impatto della pubblicità online, rappresentando una soluzione efficace per misurare il reale ritorno per chi investe ovvero il ROI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dispositivi indossabili che permettono di monitorare parametri vitali con facilità, di peso e dimensioni ridotti. Con l’avanzare della tecnologia siamo in grado ora anche di analizzare i complessi segnali del nostro cervello e di andare incontro a molteplici benefici: come il miglioramento della nostra salute, riducendo lo stress e aumentando la capacità di concentrazione. Il mondo dei dispositivi indossabili è in via di sviluppo e permette un semplice utilizzo a qualsiasi utente, con tali dispositivi saremo in grado di capire le funzionalità del nostro cervello e come il mondo che ci circonda ne influenza notevolmente l’attività e di conseguenza il funzionamento efficiente. Tali dispositivi di semplice utilizzo e non ingombranti interagiscono direttamente con i nostri smartphone , aiutandoci a conoscere il nostro cervello e di utilizzarlo sempre al meglio sfruttando le sue potenzialità. Siamo comunque in un mondo complesso “il cervello” e non è compito facile creare dei dispositivi che possano controllare azioni come il pensiero, il linguaggio o le emozioni ,anche perché è un organo che differisce da persona a persona e inoltre per le sue numerose pieghe è come se mettessimo a confronto le impronta digitali di ogni singola persona. Infatti la maggior parte di tali dispositivi si interfacciano con il nostro cervello attraverso dei sensori che registrano i segnali soprattutto nella fronte o dietro le orecchie in modo da poter essere utilizzato da tutti gli utenti. Segue la trattazione della tesi dove saranno affrontati gli argomenti nel seguente modo : capitolo 1 : struttura e fenomeni connessi all’ attività cerebrale capitolo 2 : modalità di acquisizione dell’attività elettrica cerebrale capitolo 3 : dispositivo indossabile Muse capitolo 4: il sistema Biopac gli ultimi due capitoli mostrano come i due dispositivi indossabili presentati per il monitoraggio EEG, differiscono sia per quanto riguarda la modalità di acquisizione dei segnali elettrici , sia dalle informazioni ottenute e lo scopo dell’utilizzo di tali dispositivi, anche se lo scopo finale di entrambi è quello di migliorare le capacità del nostro cervello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Quantitative Risk Analysis costituisce un valido strumento per la determinazione del rischio associato ad un’installazione industriale e per la successiva attuazione di piani di emergenza. Tuttavia, la sua applicazione nella progettazione di un lay-out richiede la scelta di un criterio in grado di valutare quale sia la disposizione ottimale al fine di minimizzare il rischio. In tal senso, le numerose procedure esistenti, sebbene efficaci, risultano piuttosto faticose e time-consuming. Nel presente lavoro viene dunque proposto un criterio semplice ed oggettivo per comparare i risultati di QRA applicate a differenti designs. Valutando l’area racchiusa nelle curve iso-rischio, vengono confrontate dapprima le metodologie esistenti per lo studio dell’effetto domino, e successivamente, viene applicata al caso di serbatoi in pressione una procedura integrata di Quantitative Risk Domino Assessment. I risultati ottenuti dimostrano chiaramente come sia possibile ridurre notevolmente il rischio di un’attività industriale agendo sulla disposizione delle apparecchiature, con l’obiettivo di limitare gli effetti di possibili scenari accidentali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito dell’analisi del rischio di contaminazione ambientale dovuto ad incidenti rilevanti, facendo particolare riferimento a due metodologie per la stima di tale rischio. La prima è una metodologia ad indici proposta dal Gruppo di Lavoro misto APAT/ARPA/CNVVF, tramite la quale è possibile compiere un primo livello di analisi, detto anche IRA-Initial Risk Assessment: l’obiettivo principale del metodo ad indici sopra citato è quello di individuare situazioni critiche per il suolo e sottosuolo in riferimento alla possibilità di contaminazione da parte di liquidi idrocarburici. La seconda procedura riguarda, invece, una valutazione avanzata del rischio ambientale, detta anche ARA-Advanced Risk Assessment: quest’ultima, applicata solo nel caso in cui l’analisi di primo livello abbia evidenziato situazioni critiche, viene realizzata tipicamente tramite software specifici, in grado di simulare sia nello spazio che nel tempo i fenomeni di migrazione della contaminazione nel sottosuolo. Nell’ambito del lavoro di tesi è stata eseguita per un deposito costiero di liquidi idrocarburici una valutazione del rischio ambientale sia di primo livello (IRA, tramite l’applicazione del metodo ad indici), sia di livello avanzato (ARA, tramite il software HSSM). I risultati ottenuti nei due casi risultano in ottimo accordo. La tesi è organizzata in 7 capitoli. Il Capitolo 1, che ha carattere introduttivo, illustra il concetto di rischio di incidente rilevante e si concentra sull’impatto che gli incidenti rilevanti possono avere sull’ambiente, come emerge chiaramente dall’analisi delle banche dati incidentali. Il Capitolo 2 fornisce una mappatura degli stabilimenti a rischio di incidente rilevante in Italia. Il Capitolo 3 illustra il metodo ad indici ed il Capitolo 4 riporta le caratteristiche del software HSSM. Il Capitolo 5 contiene la descrizione del caso di studio analizzato, fornendo tutti gli elementi utili ai fini dell’applicazioni delle metodologie di analisi del rischio: pertanto esso contiene la descrizione sia delle principali proprietà impiantistiche del deposito e degli scenari incidentali che in esse possono verificarsi, sia delle proprietà idrogeologiche del terreno su cui sorge il sito. Il Capitolo 6 riporta in modo ampio e documentato i risultati ottenuti dall'applicazione delle metodologie di valutazione del rischio al caso di studio. Il Capitolo 7 infine contiene alcune considerazioni finali.