21 resultados para Metodo de Monte Carlo - Simulação por computador
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Il presente lavoro di tesi, sviluppato nell’arco di sei mesi presso l’Institut Supérieur Industriel de Bruxelles (ISIB) in collaborazione con Ion Beam Application Group (IBA, Louvain la Neuve), ha come principale soggetto lo studio della risposta del rem meter WENDI-2 commercializzato da Thermo Scientific. Lo studio si è basato principalmente sull’uso del codice Monte Carlo MCNPX 2.5.0, simulando la risposta del detector sia in caso di campi di radiazione neutronica monoenergetici sia in corrispondenza di spettri neutronici continui. La prima fase è stata dedicata alla modellizzazione MCNPX del rem counter, consentendo così la valutazione della sua funzione risposta. Questa è stata ricostruita interpolando 93 punti, ciascuno calcolato in corrispondenza di un singolo valore di energia di una sorgente puntiforme, compreso tra 1 meV e 5 GeV. In tal caso è stata rilevata un’ottima corrispondenza tra i risultati ottenuti e quelli riportati nella letteratura scientifica esistente. In una seconda fase, al fine di ottenere informazioni sulla risposta di WENDI II in corrispondenza di campi complessi di radiazione, simulazioni MCNPX sono state realizzate riproducendo un ambiente di lavoro esistente presso la sede IBA di Louvain la Neuve: la risposta del detector è stata valutata in corrispondenza di 9 diverse posizioni all’interno di un bunker contenente un ciclotrone PET (18 MeV H-), implicando la rilevazione di campi di radiazione neutronica continui ed estesi dalle energie termiche fino a 18 MeV. I risultati ottenuti sono stati infine comparati con i valori di dose ambiente equivalente calcolata nelle stesse condizioni di irraggiamento.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.
Resumo:
Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.
Resumo:
Conoscere con dettaglio il campo di radiazione che si genera nell'utilizzo di un acceleratore lineare di elettroni durante una seduta di radioterapia è essenziale sia per i pazienti sia per gli operatori. L'utilizzo del codice Monte Carlo MCNPX 2.7.0 permette di stimare dati dosimetrici dettagliati in zone dove può essere complicato effettuare misurazioni.Lo scopo di questo lavoro è indagare il comportamento del fascio fotonico prodotto nel bunker di radioterapia dell'ASMN-IRCCS di Reggio Emilia, valutando con precisione in particolare la produzione di fotoneutroni secondari. L'obiettivo è la verifica dell'efficacia delle barriere offerte dalla struttura tenendo in considerazione anche il canale di penetrazione degli impianti di servizio che costituisce un punto di fuga per le radiazioni.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
Il presente elaborato analizza il problema dell'intrusione salina e valuta l'influenza dei parametri idrologici e idrogeologici sulle dinamiche del processo mediate simulazioni Monte Carlo. A scopo esemplificativo, l’intrusione salina viene studiata in condizioni stazionarie e nell’ipotesi di interfaccia netta. La tecnica di simulazione viene descritta a partire dai concetti statistici di base che includono la definizione delle distribuzioni di probabilità scelte per descrviere il comportamento dei parametri del modello concettuale e la procedura di campionamento di tali distribuzioni. Un codice in Matlab è stato realizzato per l’applicazione ad un semplice caso studio.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
I neutroni possono essere classificati in base all'energia e per anni lo studio sui neutroni si è focalizzato verso le basse energie, ottenendo informazioni fondamentali sulle reazioni nucleari. Lo studio per i neutroni ad alta energia (E >20 MeV) ha ultimamente suscitato un vivo interesse, poiché i neutroni hanno un ruolo fondamentale in una vasta gamma di applicazioni: in campo medico, industriale e di radioprotezione. Tuttavia le informazioni sperimentali (sezioni d'urto) in nostro possesso, in funzione dell'energia dei neutroni, sono limitate, considerando che richiedono la produzione di fasci con un ampio spettro energetico e delle tecniche di rivelazione conforme ad essi. La rivelazione dei neutroni avviene spesso attraverso il processo di scintillazione che consiste nell'eccitazione e diseccitazione delle molecole che costituiscono il rivelatore. Successivamente, attraverso i fotomoltiplicatori, la luce prodotta viene raccolta e convertita in impulsi energetici che vengono registrati ed analizzati. Lo scopo di questa tesi è quello di testare quale sia la migliore configurazione sperimentale di un rivelatore costituito da scintillatori e fotomoltiplicatori per quanto riguarda la raccolta di luce, utilizzando una simulazione Monte Carlo per riprodurre le proprietà ottiche di un rivelatore per misure di flusso di un rivelatore ad alta energia.
Resumo:
Nel campo dell’industria chimica la ricerca si è mossa in direzione di rendere i processi più sostenibili. Ciò viene effettuato considerando le linee guida della green chemistry. In questo contesto si colloca la metodologia LCA che valuta l’impatto ambientale associato ad un processo o un prodotto, comprendendo tutto il suo ciclo di vita. Nel presente lavoro di tesi si studia l’applicazione della LCA alla sintesi industriale di anidride maleica (AM), che viene ottenuta tramite reazione di ossidazione del benzene o dell’n-butano. Nello studio si sono modellate tre diverse vie di sintesi dell’AM considerando il processo di produzione che parte da benzene e il processo di produzione da butano con due diversi tipi di reattore: il letto fisso e il letto fluido (processo ALMA). Negli scenari si considerano le fasi di produzione dei reagenti e si è modellata la fase della reazione di ossidazione e l’incenerimento dei sottoprodotti e del reagente non convertito. Confrontando i tre processi, emerge che al processo che parte da benzene sono associati gli impatti globali maggiori mentre il processo ALMA ha un minore carico ambientale. Il processo da benzene risulta avere maggiori impatti per le categorie Cambiamento climatico, Formazione di particolato e Consumo dei metalli. Il processo da butano a tecnologia a letto fisso presenta invece maggiori impatti per le categorie Tossicità umana e Consumo di combustibili fossili, dovuti alla maggiore richiesta energetica effettuata dal processo di ossidazione del butano con tecnologia a letto fisso e alla richiesta di combustibile ausiliario per la fase di incenerimento. Tale risultato emerge anche dall’analisi effettuata con il Cumulative Energy Demand. Al processo ALMA sono associati gli impatti inferiori in assoluto, nonostante abbia una resa inferiore al processo che utilizza il letto fisso. I risultati dell’analisi LCA sono stati confermati dall’analisi delle incertezze, realizzata con il metodo statistico Monte Carlo.
Resumo:
Le biomasse hanno sempre rappresentato per l’umanità una fonte estremamente versatile e rinnovabile di risorse e tutt’oggi il loro impiego risulta vantaggioso in particolare per produrre energia termica ed elettrica attraverso processi di combustione, sistemi che tuttavia emettono sostanze dannose verso la salute umana e l’ecosistema. Queste pressioni ambientali hanno indotto alcune amministrazioni regionali (fra cui la Lombardia) a bandire temporaneamente l’installazione di nuovi impianti a biomasse, per prevenire e contenere le emissioni in atmosfera a tutela della salute e dell’ambiente. Il presente studio intende approfondire l’effetto ambientale di tali sistemi di riscaldamento domestico attraverso la tecnologia di analisi LCA (Life Cycle Assessment). Lo scopo dell’elaborato di Tesi consiste nell’eseguire un’analisi dell’intero ciclo di vita di due processi di riscaldamento domestico che utilizzino biomassa legnosa: una stufa innovativa a legna e una stufa a pellet. L’analisi ha quindi posto a confronto i due scenari con mezzi di riscaldamento domestico alternativi quali il boiler a gas, il pannello solare termico integrato con caldaia a gas e la pompa di calore elettrica. È emerso che tra i due scenari a biomassa quello a legna risulti decisamente più impattante verso le categorie salute umana e qualità dell’ecosistema , mentre per il pellet si è riscontrato un impatto maggiore del precedente nella categoria consumo di risorse. Dall’analisi di contributo è emerso che l’impatto percentuale maggiore per entrambi gli scenari sia legato allo smaltimento delle ceneri, pertanto si è ipotizzata una soluzione alternativa in cui esse vengano smaltite nell’inceneritore, riducendo così gli impatti. I risultati del punteggio singolo mostrano come lo scenario di riscaldamento a legna produca un quantitativo di particolato superiore rispetto al processo di riscaldamento a pellet, chiaramente dovuto alle caratteristiche chimico-fisiche dei combustibili ed alla efficienza di combustione. Dal confronto con gli scenari di riscaldamento alternativi è emerso che il sistema più impattante per le categorie salute umana e qualità dell’ecosistema rimane quello a legna, seguito dal pellet. I processi alternativi presentano impatti maggiori alla voce consumo di risorse. Per avvalorare i risultati ottenuti per i due metodi a biomassa è stata eseguita un’analisi di incertezza attraverso il metodo Monte Carlo, ad un livello di confidenza del 95%. In conclusione si può affermare che i sistemi di riscaldamento domestico che impiegano processi di combustione della biomassa legnosa sono certamente assai vantaggiosi, poiché pareggiano il quantitativo di CO2 emessa con quella assorbita durante il ciclo di vita, ma al tempo stesso possono causare maggiori danni alla salute umana e all’ecosistema rispetto a quelli tradizionali.
Resumo:
La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.