754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è la descrizione di un metodo per il calcolo di minimi di funzionali, basato sulla steepest descent. L'idea principale è quella di considerare un flusso nella direzione opposta al gradiente come soluzione di un problema di Cauchy in spazi di Banach, che sotto l'ipotesi di Palais-Smale permette di determinare minimi. Il metodo viene applicato al problema di denoising e segmentazione in elaborazione di immagini: vengono presentati metodi classici basati sull'equazione del calore, il total variation ed il Perona Malik. Nell'ultimo capitolo il grafico di un'immagine viene considerato come varietà, che induce una metrica sul suo dominio, e viene nuovamente utilizzato il metodo di steepest descent per costruire algoritmi che tengano conto delle caratteristiche geometriche dell'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondidi fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondidi campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondidi fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondidi campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo dell'opera è implementare in maniera efficiente ed affidabile un metodo di tipo Newton per la ricostruzione di immagini con termine regolativo in norma L1. In particolare due metodi, battezzati "OWL-QN per inversione" e "OWL-QN precondizionato", sono presentati e provati con numerose sperimentazioni. I metodi sono generati considerando le peculiarità del problema e le proprietà della trasformata discreta di Fourier. I risultati degli esperimenti numerici effettuati mostrano la bontà del contributo proposto, dimostrando la loro superiorità rispetto al metodo OWL-QN presente in letteratura, seppure adattato alle immagini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi intende presentare una tecnica per la sintesi di immagini realistiche al calcolatore basata sul concetto di particle tracing. Il metodo proposto opera una stima sulla densità locale dei fotoni estendendo il concetto del photon differentials anche alla gestione delle riflessioni diffusive. Si è scelto di implementare il nuovo algoritmo di illuminazione globale all’interno di XCModel come estensione del photon mapping.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la tecnica di misura della correlazione digitale di immagini (“Digital Image Correlation” = DIC) sta trovando numerose applicazioni nell’ambito della meccanica sperimentale come valida alternativa per misure di campi di deformazione su componenti strutturali soggetti a carichi statici e dinamici. Misurare deformazioni in provini troppo piccoli, troppo grandi, teneri o caldi, è un tipico scenario in cui diventano necessarie le tecniche senza contatto in quanto l’applicazione di estensimetri risulta inefficiente. L’obiettivo di questo lavoro consta nel valutare l’applicabilità e l’accuratezza di programmi di elaborazione gratuiti per la correlazione digitale di immagini evidenziandone il metodo di utilizzo e l’autenticità dei risultati verificati attraverso prove in laboratorio. Tali programmi, per praticità e gratuità, nel campo bidimensionale, possono considerarsi una valida alternativa a programmi commerciali di elevato costo. Nonostante ciò, presentano alcune criticità e limitazioni che emergeranno dalle attente sperimentazioni effettuate. Verrà così definita la corretta e necessaria preparazione del set up sperimentale antecedente la prova e il campo di applicabilità a cui si prestano tali programmi per un preciso ed autentico rilevamento delle deformazioni subite da un corpo sottoposto a sollecitazioni, al pari di un comune estensimetro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è stato trattato il problema della ricostruzione di immagini di tomografia computerizzata considerando un modello che utilizza la variazione totale come termine di regolarizzazione e la norma 1 come fidelity term (modello TV/L1). Il problema è stato risolto modificando un metodo di minimo alternato utilizzato per il deblurring e denoising di immagini affette da rumore puntuale. Il metodo è stato testato nel caso di rumore gaussiano e geometria fan beam e parallel beam. Infine vengono riportati i risultati ottenuti dalle sperimentazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Segmentare un’immagine significa riconoscere al suo interno elementi con caratteristiche comuni e raggrupparli, distinguendoli dagli elementi che posseggono caratteristiche diverse; si parla di segmentazione automatica quando questo processo è eseguito completamente da un software senza l’intervento umano. Segmentare le immagini TC, molto diffuse in ambito diagnostico, permette di estrarre una grande quantità di dati dall’alto valore prognostico e predittivo della composizione corporea del paziente. Tuttavia, a causa della scarsa diffusione di software per la segmentazione automatica, tutti questi dati non vengono utilizzati. Il presente lavoro di tesi si propone di riportare lo stato dell’arte sulla segmentazione, sia manuale sia automatica, dei tessuti corporei in immagini TC. Vengono spiegati i vantaggi dell’utilizzo di grandezze CT-derived rispetto a molti dei protocolli odierni e vengono esposti gli attuali livelli di accuratezza delle segmentazioni effettuate con metodi automatici. Inoltre, ci si sofferma, cercando di quantificarli, sugli effetti del mezzo di contrasto sulle grandezze CT-derived, poiché questi possono generare errori nella segmentazione automatica dei tessuti. Infine, viene esposto l’approccio 3D alla segmentazione in contrapposizione al metodo single slice, con il primo caratterizzato da un’accuratezza maggiore del secondo. Per accedere alla versione aggiornata e corretta, contattare l'autore ai seguenti indirizzi: simone.chiarella@studio.unibo.it; simonechiarella99@gmail.com

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.