854 resultados para indirizzo :: 790 :: Curriculum D: Fisica della terra


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio degli aspetti procedurali e dosimetrici in angiografie periferiche che utilizzano la CO2 come mezzo di contrasto. La tecnica angiografica consiste nell’imaging radiologico di vasi sanguigni tramite l’iniezione di un mezzo di contrasto, e il suo uso è in costante incremento a causa dell’aumento di pazienti con malattie vascolari. I mezzi di contrasto iodati sono i più comunemente utilizzati e permettono di ottenere immagini di ottima qualità, ma presentano il limite di una elevata nefrotossicità. La CO2 è considerata un’interessante alternativa al mezzo iodato, per la sua acclarata biocompatibilità, soprattutto per pazienti con elevati fattori di rischio (diabete e/o insufficienza renale). Il suo utilizzo presenta comunque alcuni aspetti problematici, dovuti allo stato gassoso e al basso contrasto intrinseco rispetto alla soluzione iodata. Per quest’ultimo motivo si ritiene generalmente che l’utilizzo della CO2 comporti un aumento di dose rispetto ai mezzi di contrasto tradizionali. Il nostro studio, effettuato su diversi apparati radiologici, ha dimostrato che i parametri di emissione radiologica sono gli stessi per i protocolli di angiografia tradizionale, con iodio, e quelli che utilizzano CO2. Questa evidenza suggerisce che i protocolli CO2 operino solo sul trattamento delle immagini ottenute e non sulla modalità di acquisizione, e dal punto di vista dosimetrico l’angiografia con CO2 è riconducibile all’angiografia tradizionale. L’unico fattore che potrebbe portare a un effettivo incremento di dose al paziente è un allungamento dei tempi di scopia e di procedura, che andrebbe verificato con una campagna di misure in ambito clinico. Sulla base della stessa evidenza, si ritiene che la visualizzazione della CO2 possa essere ulteriormente migliorata attraverso l’ottimizzazione dei parametri di emissione radiologica (kVp, frame rate e durata degli impulsi) attualmente predisposti per l’uso di mezzi di contrasto iodati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Capire come modellare l'attività del cervello a riposo, resting state, è il primo passo necessario per avvicinarsi a una reale comprensione della dinamica cerebrale. Sperimentalmente si osserva che, quando il cervello non è soggetto a stimoli esterni, particolari reti di regioni cerebrali presentano un'attività neuronale superiore alla media. Nonostante gli sforzi dei ricercatori, non è ancora chiara la relazione che sussiste tra le connessioni strutturali e le connessioni funzionali del sistema cerebrale a riposo, organizzate nella matrice di connettività funzionale. Recenti studi sperimentali mostrano la natura non stazionaria della connettività funzionale in disaccordo con i modelli in letteratura. Il modello implementato nella presente tesi per simulare l'evoluzione temporale del network permette di riprodurre il comportamento dinamico della connettività funzionale. Per la prima volta in questa tesi, secondo i lavori a noi noti, un modello di resting state è implementato nel cervello di un topo. Poco è noto, infatti, riguardo all'architettura funzionale su larga scala del cervello dei topi, nonostante il largo utilizzo di tale sistema nella modellizzazione dei disturbi neurologici. Le connessioni strutturali utilizzate per definire la topologia della rete neurale sono quelle ottenute dall'Allen Institute for Brain Science. Tale strumento fornisce una straordinaria opportunità per riprodurre simulazioni realistiche, poiché, come affermato nell'articolo che presenta tale lavoro, questo connettoma è il più esauriente disponibile, ad oggi, in ogni specie vertebrata. I parametri liberi del modello sono stati scelti in modo da inizializzare il sistema nel range dinamico ottimale per riprodurre il comportamento dinamico della connettività funzionale. Diverse considerazioni e misure sono state effettuate sul segnale BOLD simulato per meglio comprenderne la natura. L'accordo soddisfacente fra i centri funzionali calcolati nel network cerebrale simulato e quelli ottenuti tramite l'indagine sperimentale di Mechling et al., 2014 comprovano la bontà del modello e dei metodi utilizzati per analizzare il segnale simulato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro che ho sviluppato presso l'unità di RM funzionale del Policlinico S.Orsola-Malpighi, DIBINEM, è incentrato sull'analisi dati di resting state - functional Magnetic Resonance Imaging (rs-fMRI) mediante l'utilizzo della graph theory, con lo scopo di valutare eventuali differenze in termini di connettività cerebrale funzionale tra un campione di pazienti affetti da Nocturnal Frontal Lobe Epilepsy (NFLE) ed uno di controlli sani. L'epilessia frontale notturna è una peculiare forma di epilessia caratterizzata da crisi che si verificano quasi esclusivamente durante il sonno notturno. Queste sono contraddistinte da comportamenti motori, prevalentemente distonici, spesso complessi, e talora a semiologia bizzarra. L'fMRI è una metodica di neuroimaging avanzata che permette di misurare indirettamente l'attività neuronale. Tutti i soggetti sono stati studiati in condizioni di resting-state, ossia di veglia rilassata. In particolare mi sono occupato di analizzare i dati fMRI con un approccio innovativo in campo clinico-neurologico, rappresentato dalla graph theory. I grafi sono definiti come strutture matematiche costituite da nodi e links, che trovano applicazione in molti campi di studio per la modellizzazione di strutture di diverso tipo. La costruzione di un grafo cerebrale per ogni partecipante allo studio ha rappresentato la parte centrale di questo lavoro. L'obiettivo è stato quello di definire le connessioni funzionali tra le diverse aree del cervello mediante l'utilizzo di un network. Il processo di modellizzazione ha permesso di valutare i grafi neurali mediante il calcolo di parametri topologici che ne caratterizzano struttura ed organizzazione. Le misure calcolate in questa analisi preliminare non hanno evidenziato differenze nelle proprietà globali tra i grafi dei pazienti e quelli dei controlli. Alterazioni locali sono state invece riscontrate nei pazienti, rispetto ai controlli, in aree della sostanza grigia profonda, del sistema limbico e delle regioni frontali, le quali rientrano tra quelle ipotizzate essere coinvolte nella fisiopatologia di questa peculiare forma di epilessia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ipertensione arteriosa polmonare è una malattia ad esito infausto, con un piccolo tasso di incidenza sulla popolazione (in Italia circa 700 nuovi casi all’anno), ma senza una cura medica o farmacologica che ne risolva adeguatamente le problematiche. Tutti gli individui che contraggono tale patologia vengono sottoposti a forti terapie farmacologiche che aumentano le aspettative di vita di alcuni mesi o, in casi più fortunati, di qualche anno, ma non garantiscono una vita regolare e duratura (attesa di sopravvivenza circa cinque anni). In questa situazione di evidente inadeguatezza, una analisi biomeccanica dell’evoluzione della malattia sembra individuare nel progressivo disadattamento meccanico tra pompa e carico una delle cause di deterioramento, e tra i diversi modi di arrestare o compensare questa evoluzione si possono individuare soluzioni per aumentare la sopravvivenza dell’individuo, con una qualità della vita addirittura migliore rispetto a quella che l’approccio farmacologico oggi consente. Scopo di questo studio è la progettazione e la costruzione di un simulatore meccanico in grado di riprodurre l’accoppiamento e il trasferimento energetico tra il ventricolo destro e l’arteria polmonare, in condizioni fisiologiche normali e in caso di ipertensione arteriosa. La realizzazione di un simulatore che riproducesse dinamicamente valori fisiologici dei parametri di interesse (pressioni, volumi, resistenze, etc.) entro limiti accettabili non è stato facile; ciononostante, è stato ottenuto un risultato significativo, verificando la fattibilità di un intervento biomeccanico che modifichi l’evoluzione della malattia attraverso il recupero di un migliore adattamento tra pompa cardiaca e carico vascolare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo principale di questa tesi è l’implementare una nuova tecnica di verifica dosimetrica dei trattamenti radioterapici ad intensità modulata. Sono stati effettuati diversi esperimenti sul sistema dosimetrico, volti a rendere operativa la tecnica e a caratterizzare il dispositivo rivelatore. Dopo i primi capitoli introduttivi, dove viene descritto lo stato attuale della lotta ai tumori con radioterapia, si passa a descrivere le tecniche radioterapiche coinvolte nello sviluppo di questa tesi per poi dettagliare gli strumenti e i metodi con cui verranno condotti gli esperimenti e infine gli esperimenti stessi. Gli esperimenti e in generale lo sviluppo di questa tesi, sono stati effettuati presso la Azienda Ospedaliera Ospedali Riuniti Marche Nord, Pesaro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una delle scoperte più importanti del novecento, nel ambito della fisica nucleare e della nucleosintesi degli elementi all'interno delle stelle, è sicuramente rappresentata dallo stato di Hoyle, scoperto dall'astrofisico inglese Fred Hoyle nel 1954. Lo stato di Hoyle è un livello eccitato del nucleo dell'atomo di carbonio-12 a 7,65 MeV, la cui importanza risiede nel fatto che grazie alla sua presenza la produzione di carbonio-12 nei nuclei delle giganti rosse (uno stadio dell'evoluzione stellare) aumenta di circa un fattore 10^7, permettendo così l'esistenza di forme di vita intelligenti basate sul carbonio, ovvero noi. Proprio a causa di questa mia ultima affermazione esso viene, in letteratura, spesso affiancato a un principio, chiamato principio antropico, formulato nel 1973 dallo scienziato australiano Brandon Carter e secondo il quale noi ci dobbiamo aspettare di osservare soltanto quelle condizioni che sono necessarie per la nostra presenza e osservazione. Visto lo stretto legame che sembra esistere tra la scoperta di Hoyle e il principio formulato da Carter, l'obbiettivo di questa tesi sarà quindi quello di trattare lo stato di Hoyle con un particolare occhio di riguardo al suo legame con il principio antropico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.