897 resultados para topologia complessi simpliciali casuali omologia topologia algebrica applicata probabilità grafi casuali gruppo fondamentale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si inserisce in un progetto di ricerca fra il gruppo di Matematica della Visione del Prof. Ferri e CA-MI S.r.l. volto a progettare un sistema di recupero di immagini mediante il quale un dermatologo potrà acquisire l’immagine di una lesione e recuperare da un database classificato le immagini più somiglianti. Il concetto stesso di “somiglianza” è formalmente realizzato da una parte dell’omologia persistente (funzioni di taglia). Questa tesi utilizza tali metodi al fine di ottenere una combinazione ottimale dei diversi classificatori che si ottengono utilizzando la modularità intrinseca nella teoria. A questo scopo vengono impiegati due modelli e diversi metodi numerici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avvento di Internet e delle innovazioni tecnologiche hanno determinato una rivoluzione nel panorama della comunicazione e dell’informazione soprattutto in quello pubblicitario. La pubblicità online (in inglese Advertising Online o Internet Advertising) è un fenomeno in continua crescita. Rispetto ai media tradizionali come la stampa e la televisione dove i contenuti sono trasmessi in modo generico e di massa, l’Advertising Online sfrutta la capacità del World Wide Web al fine di raggiungere una quantità notevole di persone permettendo di attuare campagne pubblicitarie verso un target mirato. In questo settore la facilità di misurare l'effetto nei confronti del pubblico permette alle aziende di investire in questo tipo di mercato rispetto a quello tradizionale poiché, in quest'ultimo l’assenza di strumenti di misurazione è basata su rilevanze teoriche. In riferimento a quanto citato, un’oggetto di studio e di analisi presentato in questa tesi riguarda la start-up TAGGALO un sistema ideato e sviluppato da un gruppo di ricercatori del CNR Puglia. Questa soluzione tecnologia è applicata nel campo pubblicitario del Digital out of Home e del Digital Signage dove la comunicazione del messaggio viene percepita dal potenziale cliente mentre è fuori casa mediante l’uso di schermi elettronici disposti nella maggior parte dei luoghi pubblici. Attraverso questa tecnologia è possibile rilevare il reale impatto della pubblicità online, rappresentando una soluzione efficace per misurare il reale ritorno per chi investe ovvero il ROI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dispositivi indossabili che permettono di monitorare parametri vitali con facilità, di peso e dimensioni ridotti. Con l’avanzare della tecnologia siamo in grado ora anche di analizzare i complessi segnali del nostro cervello e di andare incontro a molteplici benefici: come il miglioramento della nostra salute, riducendo lo stress e aumentando la capacità di concentrazione. Il mondo dei dispositivi indossabili è in via di sviluppo e permette un semplice utilizzo a qualsiasi utente, con tali dispositivi saremo in grado di capire le funzionalità del nostro cervello e come il mondo che ci circonda ne influenza notevolmente l’attività e di conseguenza il funzionamento efficiente. Tali dispositivi di semplice utilizzo e non ingombranti interagiscono direttamente con i nostri smartphone , aiutandoci a conoscere il nostro cervello e di utilizzarlo sempre al meglio sfruttando le sue potenzialità. Siamo comunque in un mondo complesso “il cervello” e non è compito facile creare dei dispositivi che possano controllare azioni come il pensiero, il linguaggio o le emozioni ,anche perché è un organo che differisce da persona a persona e inoltre per le sue numerose pieghe è come se mettessimo a confronto le impronta digitali di ogni singola persona. Infatti la maggior parte di tali dispositivi si interfacciano con il nostro cervello attraverso dei sensori che registrano i segnali soprattutto nella fronte o dietro le orecchie in modo da poter essere utilizzato da tutti gli utenti. Segue la trattazione della tesi dove saranno affrontati gli argomenti nel seguente modo : capitolo 1 : struttura e fenomeni connessi all’ attività cerebrale capitolo 2 : modalità di acquisizione dell’attività elettrica cerebrale capitolo 3 : dispositivo indossabile Muse capitolo 4: il sistema Biopac gli ultimi due capitoli mostrano come i due dispositivi indossabili presentati per il monitoraggio EEG, differiscono sia per quanto riguarda la modalità di acquisizione dei segnali elettrici , sia dalle informazioni ottenute e lo scopo dell’utilizzo di tali dispositivi, anche se lo scopo finale di entrambi è quello di migliorare le capacità del nostro cervello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Quantitative Risk Analysis costituisce un valido strumento per la determinazione del rischio associato ad un’installazione industriale e per la successiva attuazione di piani di emergenza. Tuttavia, la sua applicazione nella progettazione di un lay-out richiede la scelta di un criterio in grado di valutare quale sia la disposizione ottimale al fine di minimizzare il rischio. In tal senso, le numerose procedure esistenti, sebbene efficaci, risultano piuttosto faticose e time-consuming. Nel presente lavoro viene dunque proposto un criterio semplice ed oggettivo per comparare i risultati di QRA applicate a differenti designs. Valutando l’area racchiusa nelle curve iso-rischio, vengono confrontate dapprima le metodologie esistenti per lo studio dell’effetto domino, e successivamente, viene applicata al caso di serbatoi in pressione una procedura integrata di Quantitative Risk Domino Assessment. I risultati ottenuti dimostrano chiaramente come sia possibile ridurre notevolmente il rischio di un’attività industriale agendo sulla disposizione delle apparecchiature, con l’obiettivo di limitare gli effetti di possibili scenari accidentali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito dell’analisi del rischio di contaminazione ambientale dovuto ad incidenti rilevanti, facendo particolare riferimento a due metodologie per la stima di tale rischio. La prima è una metodologia ad indici proposta dal Gruppo di Lavoro misto APAT/ARPA/CNVVF, tramite la quale è possibile compiere un primo livello di analisi, detto anche IRA-Initial Risk Assessment: l’obiettivo principale del metodo ad indici sopra citato è quello di individuare situazioni critiche per il suolo e sottosuolo in riferimento alla possibilità di contaminazione da parte di liquidi idrocarburici. La seconda procedura riguarda, invece, una valutazione avanzata del rischio ambientale, detta anche ARA-Advanced Risk Assessment: quest’ultima, applicata solo nel caso in cui l’analisi di primo livello abbia evidenziato situazioni critiche, viene realizzata tipicamente tramite software specifici, in grado di simulare sia nello spazio che nel tempo i fenomeni di migrazione della contaminazione nel sottosuolo. Nell’ambito del lavoro di tesi è stata eseguita per un deposito costiero di liquidi idrocarburici una valutazione del rischio ambientale sia di primo livello (IRA, tramite l’applicazione del metodo ad indici), sia di livello avanzato (ARA, tramite il software HSSM). I risultati ottenuti nei due casi risultano in ottimo accordo. La tesi è organizzata in 7 capitoli. Il Capitolo 1, che ha carattere introduttivo, illustra il concetto di rischio di incidente rilevante e si concentra sull’impatto che gli incidenti rilevanti possono avere sull’ambiente, come emerge chiaramente dall’analisi delle banche dati incidentali. Il Capitolo 2 fornisce una mappatura degli stabilimenti a rischio di incidente rilevante in Italia. Il Capitolo 3 illustra il metodo ad indici ed il Capitolo 4 riporta le caratteristiche del software HSSM. Il Capitolo 5 contiene la descrizione del caso di studio analizzato, fornendo tutti gli elementi utili ai fini dell’applicazioni delle metodologie di analisi del rischio: pertanto esso contiene la descrizione sia delle principali proprietà impiantistiche del deposito e degli scenari incidentali che in esse possono verificarsi, sia delle proprietà idrogeologiche del terreno su cui sorge il sito. Il Capitolo 6 riporta in modo ampio e documentato i risultati ottenuti dall'applicazione delle metodologie di valutazione del rischio al caso di studio. Il Capitolo 7 infine contiene alcune considerazioni finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La curva di durata di lungo periodo (POR) è uno strumento grafico molto efficace che mette in evidenza la relazione fra intensità e frequenza delle portate osservate in un determinato intervallo temporale. Essa è ricavata dall'idrogramma dei deflussi, ma presenta il problema della perdita di informazioni relative alla variabilità annuale e stagionali delle portate. Per tal motivo si è reso necessario l'utilizzo di due nuove interpretazioni delle curve di durate: le curve di durata annuali (alle quali può essere associato il concetto di percentile e quindi di probabilità di superamento di un particolare valore di portata) e le curve a base stagionale. La costruzione di tali curve, come nel caso delle POR complessive, è ostacolata dall'insufficienza di dati di portata, per cui sono utilizzate, a tale scopo, procedure di stima basate sulla regionalizzazione dei deflussi. Tra di esse è stato analizzata la tecnica geostatistica del Top-kriging applicata all'indice TND che sintetizza l'intera curva (Pugliese et al., 2014) nella ricostruzione, in cross-validazione, delle curve di durata annuali e stagionali di 182 bacini della regione sud-orientale degli Stati Uniti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I complessi intrusivi alcalini, e i loro prodotti di alterazione, costituiscono una delle principali risorse di materie prime ad alto valore economico. Il magmatismo alcalino è di solito associato a fenomeni di rifting continentale che può essere legato o ad un’incipiente divergenza di placche litosferiche (Rift dell’Africa Orientale) o ad eventi distensivi post-collisionali. La caratterizzazione petrografica, geochimica e geocronologia di questi complessi sono prerequisiti essenziali per ogni progetto di prospezione mineraria. In Italia uno dei complessi alcalini più conosciuti è il Plutone Oligocenico della Valle del Cervo (Biella). La petrografia e la composizione degli elementi maggiori e in traccia dei diversi litotipi che lo compongono sono conosciuti nella letteratura geologica. Le datazioni radiometriche disponibili, tuttavia, sono limitate a dati Rb-Sr su separati di biotite e a più recenti dati U-Pb su zircone separato dal piccolo nucleo granitico del Plutone Oligocenico della Valle del Cervo. In entrambi i casi sono state ottenute età radiometriche di circa 30 Ma. Questo lavoro di tesi si basa sull’analisi degli isotopi U-Pb di zirconi separati dalla sienite e dal monzogranito a megacristalli di ortoclasio che costituiscono gran parte del Plutone Oligocenico della Valle del Cervo. Dopo una caratterizzazione petrografica e geochimica dei campioni scelti si è proceduto alla separazione degli zirconi tramite i metodi di routine che includono separazione gravimetrica, magnetica e liquidi pesanti. I rapporti isotopici U-Pb degli zirconi sono stati determinati presso l’Istituto di Geoscienze e Georisorse, Unità di Pavia, usando la tecnica di spettrometria di massa accoppiata ad una microsonda ad ablazione laser (LA ICP-MS). Le età U-Pb medie determinate per la sienite (33 Ma) e per il monzogranito a megacristalli di ortoclasio (29 Ma) sono da considerarsi età magmatiche relative alla cristallizzazione dei fusi che diedero origine a queste rocce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).