227 resultados para Ricostruzione di immagine, imaging a microonde.

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi presenta la progettazione, realizzazione e applicazione di un setup sperimentale miniaturizzato per la ricostruzione di immagine, con tecnica di Tomografia ad Impedenza Elettrica (EIT). Il lavoro descritto nel presente elaborato costituisce uno studio di fattibilità preliminare per ricostruire la posizione di piccole porzioni di tessuto (ordine di qualche millimetro) o aggregati cellulari dentro uno scaffold in colture tissutali o cellulari 3D. Il setup disegnato incorpora 8 elettrodi verticali disposti alla periferia di una camera di misura circolare del diametro di 10 mm. Il metodo di analisi EIT è stato svolto utilizzando i) elettrodi conduttivi per tutta l’altezza della camera (usati nel modello EIT bidimensionale e quasi-bidimensionale) e ii) elettrodi per deep brain stimulation (conduttivi esclusivamente su un ridotto volume in punta e posti a tre diverse altezze: alto, centro e basso) usati nel modello EIT tridimensionale. Il metodo ad elementi finiti (FEM) è stato utilizzato per la soluzione sia del problema diretto che del problema inverso, con la ricostruzione della mappa di distribuzione della conduttività entro la camera di misura. Gli esperimenti svolti hanno permesso di ricostruire la mappa di distribuzione di conduttività relativa a campioni dell’ordine del millimetro di diametro. Tali dimensioni sono compatibili con quelle dei campioni oggetto di studio in ingegneria tissutale e, anche, con quelle tipiche dei sistemi organ-on-a-chip. Il metodo EIT sviluppato, il prototipo del setup realizzato e la trattazione statistica dei dati sono attualmente in fase di implementazione in collaborazione con il gruppo del Professor David Holder, Dept. Medical Physics and Bioengineering, University College London (UCL), United Kingdom.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondidi fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondidi campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondidi fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondidi campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo che l’elaborato si prefigge consiste nel dar forma ad un progetto palladiano rimasto sulla carta attraverso l’utilizzo delle tecnologie informatiche. Nello specifico si è ricostruita Villa Mocenigo in forma tridimensionale attraverso uno schizzo del progetto fatto su carta dallo stesso Palladio nel 1550. Lo schizzo della pianta, conservato al RIBA di Londra, anticiperebbe il successivo progetto finale pubblicato ne “I Quattro Libri dell’Architettura” ma rimasto comunque incompiuta. Il linguaggio di base utilizzato per la definizione dell’ipotesi progettuale del modello 3D è stato attinto dalle regole generali di proporzionamento “alla maniera degli antichi” che lo stesso Architetto illustra nel suo trattato. Al fine di rendere l’ipotesi ricostruttiva il più possibile in linea con il metodo di proporzionamento palladiano, come esercitazione, si è partiti dallo studio preparatorio di un altro progetto: Villa Sarego, edificata solo in parte. A partire quindi dalla ricostruzione 3D basata sui disegni dei rilievi eseguiti dal CISAAP è stata avanzata l’ipotesi di ricostruzione totale della villa, completa della parte incompiuta. Lo studio sintetizzato in questo elaborato ha anche riguardato: la composizione architettonica e lo studio delle regole proporzionali evolutesi nel tempo; il processo di digitalizzazione e archiviazione delle opere palladiane e i progetti attualmente in corso; escursus storico sulle ville romane; le opera di Palladio, costruite e progettate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.