373 resultados para PostGis PostgreSQL PgAdminIII immagini satellitari
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.
Resumo:
Attraverso lo studio di serie temporali di coordinate è possibile studiare l'entità degli spostamenti, nel tempo, di punti materializzati sulla Terra. In particolare, si incentra l'attenzione sull'analisi della stazione permanente GNSS DCRU collocata presso la base italo-francese Concordia, così da valutare il campo di velocità di deflusso superficiale del ghiaccio in una porzione di plateau dell’Antartide orientale sede della perforazione profonda in ghiaccio del progetto European Project for Ice Coring in Antarctica (EPICA) . Tale stazione è stata inserita in una rete di inquadramento dell'IGS e ha acquisito dati satellitari dal 2005 a oggi, raccolti giornalmente in file RINEX. Tramite l'utilizzo del software Bernese versione 5.2 è stato possibile ottenere dai file RINEX i file SINEX contenenti le soluzioni giornaliere, che costituiscono la serie temporale, e le relative varianze e covarianze. Avvalendosi del programma Tsview implementato per GGMatlab si sono poi valutate le componenti principali che caratterizzano una serie temporale, quali il trend, le componenti stagionali ed i rumori che giocano, talvolta, un ruolo importante nella valutazione dell'incertezza legata alle misure. Infine si è cercato di dare un'interpretazione fisica ai risultati che sono tutt'ora oggetto di studio. In questa tesi, quindi, si delinea un quadro generale delle procedure e delle problematiche da affrontare, sia per ottenere dall'acquisizione satellitare le soluzioni giornaliere costituenti la serie temporale, sia per analizzare la serie stessa.
Resumo:
La diffusione dei social network ha permesso ad un elevato numero di persone di condividere i propri contenuti multimediali (testo, foto, video) con una larga platea di contatti. Potenzialmente questi contenuti possono essere condivisi anche con persone non direttamente collegate al proprietario. Uno dei comportamenti più diffuso degli utenti dei social network è la condivisione di foto. In questo contesto diventa importante riconoscere e preservare la proprietà di un'immagine. Lo studio effettuato in questo documento quindi, si prefigge lo scopo di controllare se i social network inseriscano un qualche watermark all'interno dell'immagine caricata. L'elaborato inoltre cerca di capire, analizzando e testando vari algoritmi di watermarking su immagini condivise, come le firme digitali vengano inserite all'interno di una foto e come queste rispondano alle alterazioni da parte dei social network.
Resumo:
Questa tesi si inserisce nel campo della Bioelettronica Organica con lo scopo di utilizzare dei transistor elettrochimici (OECT) organici basati sul polimero conduttivo PEDOT:PSS per rilevare l’integrità di un tessuto cellulare e come biosensori di analiti in soluzione. Nella prima parte dell’elaborato, si spiegano le proprietà ed il trasporto di carica dei polimeri coniugati concentrandosi sulle caratteristiche fisico chimiche del PEDOT:PSS, seguito da una trattazione analitica del principio di funzionamento di un OECT. La seconda parte, si concentra sul lavoro sperimentale partendo da una descrizione dei processi di fabbricazione degli OECT, dei metodi di caratterizzazione utilizzati e della progettazione del set-up sperimentale per permettere le misure elettriche nell’incubatore cellulare. In seguito, viene dimostrato l’uso di un OECT completamente a base di PEDOT:PSS come sensore di un neurotrasmettitore (dopamina). In parallelo, il lavoro si è concentrato sull’ottimizzazione dei transistor in termini di formulazione di PEDOT:PSS e di geometria del dispositivo per ottenere tempi di spegnimento veloci compatibili con le risposte cellulari (<300ms). In fase di preparazione alle misure con le cellule si è valutato la funzionalità dell’OECT nelle condizioni di coltura cellulare dimostrando una buona stabilità dei dispositivi. Inoltre, sono stati progettati degli studi di simulazione tramite una membrana porosa per prevedere le risposte dei transistor in presenza di un tessuto cellulare. Partendo dall’esito positivo dei test preliminari, il lavoro si è concluso con il primo esperimento con le cellule tumorali HeLa, in cui si è monitorata la crescita cellulare con immagini ottiche correlate alle misure elettriche. I primi risultati confermano la biocompatibilità dei dispositivi e una risposta elettrica degli OECTs alla presenza delle cellule, aprendo la possibilità di utilizzare questi dispositivi per futuri esperimenti anche con diversi tipi di cellule.
Resumo:
La tesi tratta della tecnica per il riconoscimento facciale delle autofacce, seguendo come traccia l'articolo "Eigenface for Recognition" di Turk e Pentland, pubblicato nel 1991. In particolare ho verificato la semplicità dell'algoritmo che caratterizza questa tecnica testandola sulle immagini di alcuni soggetti dell'MR2 Face Database grazie al codice che ho implementato a partire da quello di Michael Scheinfeild.Il primo capitolo tratta brevemente della storia delle tecniche di riconoscimento facciale studiate fino agli anni '90. Nel secondo capitolo vengono riportati alcuni richiami di autovalori, autovettori, varianza e covarianza.Nel terzo capitolo viene trattata la tecnica autofacce passaggio per passaggio, facendo riferimento alla verifica che ho fatto in laboratorio. In particolare si trattano la generazione dello spazio delle autofacce e quella della procedura di riconoscimento facciale, seguite da un breve accenno al tipo di problema a cui si approccia questa tecnica.
Resumo:
In questo lavoro di tesi è stato analizzato il sistema convettivo a mesoscala (Mesoscale Convective System (MCS)) del 05/09/2015, abbattutosi sui golfi di Gaeta e di Napoli, sulla stessa città di Napoli e sull'entroterra irpino, scaricando una notevole quantità di fulmini e chicchi di grandine di dimensioni molto al di sopra di quelle usuali nella regione mediterranea, con un diametro compreso tra i 5 ed i 10 cm. Nel primo capitolo vengono presentati gli strumenti utilizzati per l'acquisizione dei dati da satellite, dei fulmini e delle mappe di previsione. Nel secondo capitolo viene effettuata un'analisi meteorologica, in cui vengono descritte le condizioni meteorologiche precedenti e contemporanee all'evento, col supporto di dati provenienti dai modelli numerici di previsione, dalle immagini da satellite e dai radiosondaggi; viene inoltre giudicata la performance di previsione dei modelli. Nel terzo capitolo viene descritto il lavoro di elaborazione dei dati da satellite e vengono esposti i risultati e i grafici ottenuti sull'evoluzione della nube. Si descrive l'elaborazione dei dati sui fulmini e, tramite mappe e grafici, si ricercano correlazioni e risultati. Nel quarto capitolo vengono mostrati alcuni fotogrammi estratti da video presenti su Internet che dimostrano l'eccezionalità dell'evento.
Resumo:
L'obiettivo di questa tesi è quello di valutare se vi sono delle corrispondenze tra dati dendrocronologici e indici climatici su scala locale. Per procedere a questa analisi vengono introdotti i metodi utilizzati per il monitoraggio del sistema climatico e proposta una breve presentazione della dendrocronologia e degli strumenti di cui ci si avvale in questo campo. La corrispondenza dendroclimatologica su piccola scala è stata fatta tramite l'utilizzo dei dati convezionali (termometri, pluviometri) e dati dendrocronologici tramite un'analisi diretta su alberi nella provincia di Bologna. I dati da pluviometro e termometro sono stati rielaborati in riferimento a indici di teleconnessione forniti dal NOAA sulle differenze di pressioni atmosferiche su precisi punti geografici. In secondo luogo sono stati effettuati dei test non parametrici sulle tendenze e sull'esistenza di punti di cambio e un'elaborazione della probabilità di comparsa di eventi di siccità. I risultati ottenuti sono stati confrontati con ricerche analoghe trovate in letterauratura. L'analisi di dati dendrocronologici è stata fatta sia su immagini relative ad anelli di quercia che a dati di resistenza alla perforazione di un stronco di pioppo vivente. Il confronto finale fra dati convenzionali e alberi, pur soffrendo di notevoli incertezze e imprecisioni ha mostrato alcuni risultati circa l'effetto delle condizioni climatiche sulle piante. Mostrando l'applicabilità di tecniche dendroclimatologiche su piccola scala.
Resumo:
La salvaguardia della risorsa suolo, bene comune da preservare per le future generazioni, sollecita l’adozione di principi dell’agroecologia nella gestione dei vigneti. In questo contesto, il lavoro di Tesi condotto in un vigneto della cv Sangiovese (Castel Bolognese, RA) si è focalizzato sugli effetti delle strategie agroecologiche di gestione del suolo e, in particolare, sul fenomeno delle crepacciature attraverso lo sviluppo di un approccio metodologico basato sull’elaborazione ed analisi di immagini. Il suolo gestito attraverso l’utilizzo di un inerbimento “modulato a strisce”, caratterizzato dalla presenza di un miscuglio a base di leguminose autoriseminanti lungo il filare, ha migliorato lo stato idrico delle viti. La Tesi ha dimostrato che le strategie agronomiche implementate nel campo sperimentale, riducendo le lavorazioni meccaniche del suolo e limitandole alle sole operazioni di semina dei miscugli, possono contribuire significativamente alla conservazione della risorsa suolo. La metodologia per lo studio delle crepacciature, ideata e resa replicabile nel lavoro di Tesi, potrà essere adottata e sviluppata per confermare i benefici delle strategie agroecologiche.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
Il 3D printing è presente da tempo in molti settori economici e da sempre ha nella sanità uno dei principali ambiti di applicazione. Durante il corso del presente lavoro sono state esaminate le principali applicazioni in campo sanitario con particolare focus sulla fase di planning in caso di chirurgia complessa. La pianificazione risulta essere la fase maggiormente impattante nel contesto più globale di gestione del paziente in quanto una maggior accuratezza nella visualizzazione del caso clinico consente di ottimizzare l’identificazione di un adeguato approccio chirurgico con ovvie conseguenti ripercussioni positive sulla totalità della degenza del paziente all’interno della struttura clinica ospitante. Nel dettaglio è stato valutato l’utilizzo di un innovativo protocollo di pre-planning e follow-up operatorio tramite la realizzazione di modelli stampati 3D a partire da immagini di diagnostica classica (TAC, MRI, 3Dscan) che hanno consentito di poter fornire allo specialista clinico di riferimento un prodotto che riproducendo perfettamente l’anatomia del soggetto (morfologia-proprietà fisiche del tessuto) ha consentito allo stesso un miglioramento delle usuali pratiche chirurgiche e terapeutiche in casi di elevata complessità in un arco temporale ristretto. I parametri utilizzati per la valutazione dei reali benefici dell’approccio esposto sono stati: tempi di pianificazione chirurgica e tempi di intervento all’interno di una più globale analisi dei costi associati. A fronte di un’indagine interna preventiva presso l’azienda ospedaliera ospitante sono stati designati i seguenti reparti come settori pilota: maxillofacciale, neurochirurgia e radiologia interventistica. Lo studio è stato svolto in collaborazione con l’ospedale M.Bufalini di Cesena in qualità di referente clinico e l’azienda Aid4Med Srl in qualità di azienda leader in pianificazione operatoria tramite ausili realizzati tramite tecniche di additive manufacturing.
Resumo:
La presente tesi si pone come obiettivo lo studio di meccanismi in grado di generare figure luminose nello spazio. Il metodo proposto è quello di riuscire a illuminare un piccolo punto nello spazio e di muoverlo ad una velocità tale da dare l'illusione di osservare un immagine fissa. Tale punto si assume che possa essere replicato più volte, in modo tale da costruire immagini più complesse grazie alla combinazione degli effetti. Il principio fisico a supporto dell'idea è stato trovato nei fenomeni di emissione spontanea, quindi in quei processi che vedono un atomo passare spontaneamente da uno stato elettronico eccitato a uno ad energia minore, liberando fotoni. Si sceglie di utilizzare uno schema di transizioni a quattro livelli energetici e di studiare la dinamica delle popolazioni di ciascun livello in funzione del tempo; la scelta di uno schema a quattro livelli è suggerita dalla possibilità di ottenere un emissione di fotoni "visibili", quindi con frequenza appartenente allo spettro visibile, a seguito di un eccitazione da parte di due laser "non visibili", in particolare infrarossi. Questa configurazione è particolarmente efficace se si considerano atomi con un unico elettrone di valenza. Inoltre, si vuole ricercare un elemento chimico che rispetti esattamente le condizioni richieste per eseguire le transizioni specificate; tra i vari elementi possibili è stato scelto il rubidio in stato gassoso, con i relativi livelli energetici da utilizzare.
Resumo:
In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.
Resumo:
Negli ultimi due anni, per via della pandemia generata dal virus Covid19, la vita in ogni angolo del nostro pianeta è drasticamente cambiata. Ad oggi, nel mondo, sono oltre duecentoventi milioni le persone che hanno contratto questo virus e sono quasi cinque milioni le persone decedute. In alcuni periodi si è arrivati ad avere anche un milione di nuovi contagiati al giorno e mediamente, negli ultimi sei mesi, questo dato è stato di più di mezzo milione al giorno. Gli ospedali, soprattutto nei paesi meno sviluppati, hanno subito un grande stress e molte volte hanno avuto una carenza di risorse per fronteggiare questa grave pandemia. Per questo motivo ogni ricerca in questo campo diventa estremamente importante, soprattutto quelle che, con l'ausilio dell'intelligenza artificiale, riescono a dare supporto ai medici. Queste tecnologie una volta sviluppate e approvate possono essere diffuse a costi molto bassi e accessibili a tutti. In questo elaborato sono stati sperimentati e valutati due diversi approcci alla diagnosi del Covid-19 a partire dalle radiografie toraciche dei pazienti: il primo metodo si basa sul transfer learning di una rete convoluzionale inizialmente pensata per la classificazione di immagini. Il secondo approccio utilizza i Vision Transformer (ViT), un'architettura ampiamente diffusa nel campo del Natural Language Processing adattata ai task di Visione Artificiale. La prima soluzione ha ottenuto un’accuratezza di 0.85 mentre la seconda di 0.92, questi risultati, soprattutto il secondo, sono molto incoraggianti soprattutto vista la minima quantità di dati di training necessaria.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.