968 resultados para Trasformate wavelet analisi immagini jpeg2000 multirisoluzione
Resumo:
Miglioramento delle prestazioni del modello mono-compartimentale del maximum slope dovuto all'introduzione di sistemi per l'eliminazione degli outliers.
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.
Resumo:
Questo elaborato si concentra sullo studio della trasformata di Fourier e della trasformata Wavelet. Nella prima parte della tesi si analizzano gli aspetti fondamentali della trasformata di Fourier. Si definisce poi la trasformata di Fourier su gruppi abeliani finiti, richiamando opportunamente la struttura di tali gruppi. Si mostra che calcolare la trasformata di Fourier nel quoziente richiede un minor numero di operazioni rispetto a calcolarla direttamente nel gruppo di partenza. L'ultima parte dell'elaborato si occupa dello studio delle Wavelet, dette ondine. Viene presentato quindi il sistema di Haar che permette di definire una funzione come serie di funzioni di Haar in alternativa alla serie di Fourier. Si propone poi un vero e proprio metodo per la costruzione delle ondine e si osserva che tale costruzione è strettamente legata all'analisi multirisoluzione. Un ruolo cruciale viene svolto dall'identità di scala, un'identità algebrica che permette di definire certi coefficienti che determinano completamente le ondine. Interviene poi la trasformata di Fourier che riduce la ricerca dei coefficienti sopra citati, alla ricerca di certe funzioni opportune che determinano esplicitamente le Wavelet. Non tutte le scelte di queste funzioni sono accettabili. Ci sono vari approcci, qui viene presentato l'approccio di Ingrid Daubechies. Le Wavelet costituiscono basi per lo spazio di funzioni a quadrato sommabile e sono particolarmente interessanti per la decomposizione dei segnali. Sono quindi in relazione con l'analisi armonica e sono adottate in un gran numero di applicazioni. Spesso sostituiscono la trasformata di Fourier convenzionale.
Resumo:
Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.
Resumo:
Tra le più importanti risorse alieutiche di molte regioni del Mar Mediterraneo vi sonole acciughe (Engraulisencrasicolus, Linnaeus, 1758), piccoli pesci pelagici appartenenti alle famiglie degli Engraulidae. Dati IREPA del 2009, hanno di fatto reso noto che in Italia, la pesca di E. encrasicolusha rappresentano in media il 26% circa del pescato totale. Questa specie viene continuamente monitorata e grazie a tali programmi è stato evidenziato che vi sono delle fluttuazioni inter-annuali molto pronunciate (Cergoleet al., 2002; Cingolani, 2004), le cui cause possono essere molteplici, da fattori antropicicome l’elevato sforzo di pesca a fattori naturali (Borjia et al., 1996). Va però posta molta attenzione sulle dinamiche biologiche ed ambientali che influiscono sulla sopravvivenza dei primi stadi di vita di questa specie, che ricadendo sul successivo reclutamento, possono essere una delle cause fondamentali delle contrazioni e degli incrementi annuali dello stock adulto (Thikonova et al., 2000; James et al., 2003; Cuttitta et al., 2003, 2006).Lo studio delle fasi ittioplanctoniche e delle sue relazioni con l’ambiente e gli altri organismi, risulta quindi di primaria importanza nell’ambito delle conoscenze necessarie per il corretto sfruttamento delle risorse alieutiche.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.