373 resultados para PostGis PostgreSQL PgAdminIII immagini satellitari
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.
Resumo:
Il seguente lavoro di tesi si inserisce all'interno di un progetto accademico volto alla realizzazione di un sistema capace elaborare immagini utilizzando una rete FPGA, acquisite da un sensore. Ogni scrittura di un nuovo frame in memoria RAM genera un interrupt. L'obiettivo della tesi è creare un sistema client/server che permetta il trasferimento del flusso di frame dalla ZedBoard a un PC e la visualizzazione a video. Il progetto eseguito sulla ZedBoard è proposto in due versioni: la prima in assenza di sistema operativo (Standalone) e una seconda implementata su Linux. Il progetto eseguito sul PC è compatibile con Linux e Windows. La visualizzazione delle immagini è implementata utilizzando la libreria OpenCV.
Resumo:
Tramite l'ausilio della development board prodotta dalla Xilinx e denominata ZedBoard, è stato utilizzato il protocollo I2C per effetuare una configurazione dei registri interni del sensore OV7670 al fine di migliorare la qualità delle immagini acquisite.
Resumo:
Analisi delle fasi per la realizzazione di uno strumento di supporto gli agricoltori, dalla creazione di un dataset, all'addestramento e test di una rete neurale artificiale, con obiettivo la localizzazione del prodotto agricolo all'interno delle immagini.
Resumo:
Nell'ambito della Diagnostica per Immagini, l'imaging ibrido sta assumendo un ruolo fondamentale in molte applicazioni cliniche, tra cui oncologia, neurologia e cardiologia. La possibilità di integrare informazioni complementari, funzionali e morfologiche, in un'unica immagine, permette di valutare con estrema accuratezza varie tipologie di malattie, diminuendo i tempi di acquisizione e i disagi per i pazienti. La risonanza magnetica, in sostituzione alla TAC nel sistema integrato PET/TC, introduce notevoli vantaggi quali l'acquisizione simultanea dei dati, l'ottimo contrasto dei tessuti molli, l'assenza di radiazioni ionizzanti e la correzione degli artefatti da movimento; ciò migliora l'accuratezza delle immagini e, di conseguenza, il processo diagnostico. Nonostante sia un interessante strumento di diagnostica e l'apice dello sviluppo tecnologico in imaging nucleare, vi sono alcune problematiche che ne impediscono la diffusa adozione, tra cui le interferenze reciproche tra le due modalità, i costi elevati e ancora una ridotta pubblicazione di articoli al riguardo.
Resumo:
Segmentare un’immagine significa riconoscere al suo interno elementi con caratteristiche comuni e raggrupparli, distinguendoli dagli elementi che posseggono caratteristiche diverse; si parla di segmentazione automatica quando questo processo è eseguito completamente da un software senza l’intervento umano. Segmentare le immagini TC, molto diffuse in ambito diagnostico, permette di estrarre una grande quantità di dati dall’alto valore prognostico e predittivo della composizione corporea del paziente. Tuttavia, a causa della scarsa diffusione di software per la segmentazione automatica, tutti questi dati non vengono utilizzati. Il presente lavoro di tesi si propone di riportare lo stato dell’arte sulla segmentazione, sia manuale sia automatica, dei tessuti corporei in immagini TC. Vengono spiegati i vantaggi dell’utilizzo di grandezze CT-derived rispetto a molti dei protocolli odierni e vengono esposti gli attuali livelli di accuratezza delle segmentazioni effettuate con metodi automatici. Inoltre, ci si sofferma, cercando di quantificarli, sugli effetti del mezzo di contrasto sulle grandezze CT-derived, poiché questi possono generare errori nella segmentazione automatica dei tessuti. Infine, viene esposto l’approccio 3D alla segmentazione in contrapposizione al metodo single slice, con il primo caratterizzato da un’accuratezza maggiore del secondo. Per accedere alla versione aggiornata e corretta, contattare l'autore ai seguenti indirizzi: simone.chiarella@studio.unibo.it; simonechiarella99@gmail.com
Resumo:
L'argomento del lavoro di tesi svolto ha lo scopo di testare le prestazioni di dispositivi riceventi per Global Navigation Satellite System (GNSS) che utilizzano la tecnologia di posizionamento Real-Time Kinematics (RTK) e valutarne le prestazioni rispetto alle tradizionali riceventi GNSS, nello sviluppo di missioni autonome per veicoli di terra di piccole dimensioni. Per questi esperimenti è stato usato un rover di piccole dimensioni alimentato a batteria, su cui è stato installato un autopilota Pixhawk Cube Orange con firmware Ardupilot, nello specifico Ardurover. Attraverso il software Mission Planner è stato richiesto al rover di effettuare completamente in autonomia delle missioni per testare sia le prestazioni dei sistemi GNSS tradizionali sia dei sistemi RTK. Attraverso i dati raccolti durante le sperimentazioni è stato fatto un confronto tra GNSS e RTK. I dati raccolti sono stati utilizzati per valutare le prestazioni in termini di precisione dei sistemi e non sono state rilevate significative differenze durante l'utilizzo del dispositivo RTK per lo svolgimento della missione richiesta al rover, con l'architettura hardware proposta.
Resumo:
Il presente elaborato di tesi è parte di un ampio progetto finalizzato alla realizzazione di uno scarpone da sci ottenuto per il 90% di materiale da riciclo di scarponi da sci a fine vita. L’obiettivo è di realizzare la progettazione del nuovo scarpone, e caratterizzarne le proprietà flessionali avvalendosi ti tecniche di simulazione numerica FEM validata attraverso Correlazione di Immagini Digitale. La caratterizzazione flessionale è realizzata con la prova del Flex Test, che consiste nell’imporre una flessione dorsale ad una protesi di gamba. Le prime simulazioni FEM di questo complesso modello hanno evidenziato delle criticità. La presente ricerca, si pone l’obiettivo di risolvere singolarmente questi problemi. Inizialmente, si è realizzata la blend polimerica dei materiali dello scafo e del gambetto dello scarpone. Si è effettuata la caratterizzazione meccanica del materiale, confrontandolo con il materiale vergine. Si è poi ricercato il modello costitutivo più adeguato di materiale iperelastico per il FEM. Successivamente, si è ottenuto il modello CAD della scarpetta attraverso l’approccio reverse engineering, con la tecnica della scansione 3D, la quale ha consentito di ottenere il file. STEP da aggiungere al modello FEM. La conoscenza della geometria effettiva ha consentito di realizzare il design della nuova scarpetta ottenuta da materiale riciclato. Infine, si è utilizzata la Correlazione di Immagini Digitali per studiare la cinematica della chiusura dei ganci dello scafo, e per studiare lo stato di deformazione residua a chiusura effettuata. Si è valutata l’influenza del piede della protesi, e della scarpetta, durante la chiusura dei ganci. In seguito, si è confrontato quanto ottenuto dalle evidenze sperimentali della DIC, con la simulazione agli elementi finiti. Si tratta di un approccio innovativo, che vede per la prima volta implementata la Correlazione di Immagini Digitali per realizzare la caratterizzazione meccanica di uno scarpone da sci.
Resumo:
La tesi studia un algoritmo presentato per la prima volta da Elias Kellner et al. nell'articolo "Gibbs‐ringing artifact removal based on local subvoxel‐shifts" pubblicato nel 2016 nella rivista Magnetic resonance in medicine. Nella tesi viene dato un background teorico sia dell'acquisizione di immagini tramite risonanza magnetica, soffermandosi in particolare su come si forma l'effetto Gibbs, sia sul funzionamento dell'algoritmo. Vengono poi mostrati numerosi esempi di immagini, sia sintetiche sia acquisite da risonanza magnetica, per dimostrare l'efficacia dell'algoritmo.
Resumo:
Nella tomografia computerizzata subentrano due fonti principali di rumore nel processo di generazione dell'immagine. Il l rumore legato al disturbo generato dall'elettronica si può modellare con un rumore di Gauss, mentre il rumore dovuto all'interazione dei fotoni con il corpo in scansione può essere modellato con un rumore di Poisson. Partendo da un modello per la rimozione del rumore misto di Poisson-Gauss (modello Infimal), viene applicato l'algoritmo del gradiente proiettato scalato (SGP) con Infimal su vari rumori misti per analizzarne l'efficacia.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
L’utilizzo di reti neurali, applicate a immagini iperspettrali, direttamente a bordo di un satellite, permetterebbe una stima tempestiva ed aggiornata di alcuni parametri del suolo, necessari per ottimizzare il processo di fertilizzazione in agricoltura. Questo elaborato confronta due modelli derivati dalle reti EfficientNet-Lite0 ed EdgeNeXt per la stima del valore di pH del terreno e delle concentrazioni di Potassio (K), Pentossido di Fosforo (P2O5) e Magnesio (Mg) da immagini iperspettrali raffiguranti campi agricoli. Sono stati inoltre testati due metodi di riduzione delle bande: l’Analisi delle Componenti Principali (PCA) e un algoritmo di selezione basato sull’Orthogonal Subspace Projection (OSP). Lo scopo è ridurre le dimensioni delle immagini al fine di limitare le risorse necessarie all’inferenza delle reti, pur preservandone l’accuratezza. L’esecuzione in tempo reale (23.6 fps) della migliore soluzione ottenuta sul sistema embedded Dev Board Mini ne dimostra l’applicabilità a bordo di nanosatelliti.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.