143 resultados para GPS, BLE, Riconoscimento, Immagini, AR
Resumo:
In questa tesi è stato trattato il problema della ricostruzione di immagini di tomografia computerizzata considerando un modello che utilizza la variazione totale come termine di regolarizzazione e la norma 1 come fidelity term (modello TV/L1). Il problema è stato risolto modificando un metodo di minimo alternato utilizzato per il deblurring e denoising di immagini affette da rumore puntuale. Il metodo è stato testato nel caso di rumore gaussiano e geometria fan beam e parallel beam. Infine vengono riportati i risultati ottenuti dalle sperimentazioni.
Resumo:
Descrive il filtraggio delle bioimmagini mediante filtri, spiegazione caratteristiche di alcuni di essi ed esempi pratici.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.
Resumo:
In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.
Resumo:
L'elaborato affronta la definizione di differenti strategie per il campionamento e la ricostruzione di segnali wavefield per applicazioni di monitoraggio strutturale. In accordo con quanto indicato dalla teoria del Compressive Sensing, obiettivo della tesi è la minimizzazione del numero di punti di acquisizione al fine di ridurre lo sforzo energetico del campionamento. I risultati sono validati in ambiente Matlab utilizzando come riferimento segnali acquisiti su setup sperimentali in alluminio o materiale composito in presenza di diverse tipologie di difetto.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.
Resumo:
Analisi e stima dell'errore ionosferico per gli utenti che dispongono sia di un ricevitore a singola che a doppia frequenza e confronto conclusivo fra i due tipi di dati ricavati. Le stime sono state implementate in ambiente Matlab.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.
Resumo:
Progettare e realizzare un sistema di catalogazione delle varie tipologie di eterogeneità tissutale di lesioni neoplastiche polmonari, a partire dall’analisi di immagini TCp, in quanto non risulta presente in letteratura una classificazione dell’eterogeneità basata sull’analisi visuale del radiologo.
Resumo:
Il seguente elaborato presenta la proposta di traduzione verso l’italiano del libro di poesia per l’infanzia “El lenguaje de las cosas” (2011), dell’autrice cilena María José Ferrada, illustrato da Pep Carrió ed edito dalla casa editrice spagnola El Jinete Azul. “El lenguaje de las cosas” è composto da 24 brevi poesie in versi liberi, ognuna di esse dedicata a un diverso oggetto della casa: attraverso un linguaggio semplice e immediato e originali intrecci di metafore, l’autrice invita i lettori a guardare ciò che li circonda con occhi diversi, regalando loro qualche attimo di dolcezza e strappando sempre un sorriso. Tutti i componimenti sono accompagnati dalle raffinate illustrazioni di Pep Carrió e, pertanto, durante il processo di traduzione è stato necessario prestare particolare attenzione sia al livello del suono e del linguaggio poetico che alla stretta interazione tra parole e immagini. Il lavoro è suddiviso in diverse sezioni: una prima parte di presentazione del libro originale e della sua autrice; la proposta di traduzione con relativo commento alle problematiche traduttive e alle diverse strategie impiegate; le interviste realizzate all’editore Antonio Ventura e alla scrittrice María José Ferrada; e infine una breve analisi del ruolo della poesia nella letteratura per l’infanzia e delle prospettive editoriali della versione italiana del libro, accompagnata dalla rispettiva scheda di presentazione editoriale.
Resumo:
Obiettivo di questa tesi è quello di sviluppare, coordinato da Gaiag, un sistema per identificare una o più classi semantiche da associare ai pixel di un'immagine satellitare preclassificata. Più precisamente, il mio scopo è stato quello di selezionare e analizzare solo quei pixel caratterizzati da specifici attributi semantici come la vegetazione, il suolo urbano o l'acqua, da un immagine satellitare cui sono state associate le classi semantiche grazie ad un programma utilizzato all'interno dell'azienda e grazie a delle query ho ridefinito i cromatismi dei pixel differenti dalla nostra classe e successivamente ho sviluppato un'applicazione Java che permette di visualizzare le immagini caricate all'interno dei database spaziali dopo la colorazione.
Resumo:
L’obiettivo del presente elaborato è quello di analizzare diversi aspetti legati alla protezione internazionale e all’iter per il riconoscimento dello status di rifugiato in Italia e in Argentina. In primo luogo, viene effettuato un breve excursus della normativa vigente che viene analizzata su cinque livelli, ossia internazionale, europeo, italiano, latino-americano e argentino. In secondo luogo, vengono presentate le diverse fasi della procedura da seguire per richiedere asilo nei due Stati: la richiesta di protezione internazionale, la convocazione e l’audizione da parte degli organi competenti alla valutazione dell’istanza e, infine, la decisione. In seguito, viene approfondito nello specifico il ruolo dell’interprete nei colloqui con i richiedenti asilo e i rifugiati. In particolare, viene analizzata l’audizione per il riconoscimento della protezione internazionale, ossia la fase dell’iter in cui si decide la concessione o meno dello status di rifugiato, con il fine di scoprire se esistono delle peculiarità proprie di questo setting specifico rispetto ad altri ambiti giuridici. A tal proposito, vengono analizzati i fattori che la costituiscono, l’influenza che tali aspetti esercitano sull’interazione, nonché sull’interpretazione e le difficoltà di tipo linguistico-culturale e psicologico che l’interprete si può trovare ad affrontare. Infine, vengono presentate quattro interviste che raccontano l’esperienza concreta di interpreti e mediatori e che mostrano fino a che punto la teoria analizzata trova un riscontro nella pratica professionale quotidiana.
Resumo:
Il Global Positioning System (GPS) e l’Interferometric Synthetic Aperture Radar (InSAR) sono due tecniche osservative di grande importanza che utilizzano segnali nel campo delle microonde. Questa tesi intende contribuire a sviluppare una base di confronto tra i risultati derivati da queste due tecniche osservative. Una parte del lavoro riguarda uno studio delle deformazioni del suolo, in particolare, la stima dei movimenti verticali e di quelli che riguardano la componente Est della posizione delle stazioni. Un secondo ambito di ricerca è invece focalizzato alla determinazione del ritardo introdotto, nella propagazione dei segnali GPS e SAR, dal loro passaggio in atmosfera. In particolare, si è studiato l’effetto della componente umida della troposfera.