129 resultados para Visualizzazione Shapefile
Resumo:
An object based image analysis approach (OBIA) was used to create a habitat map of the Lizard Reef. Briefly, georeferenced dive and snorkel photo-transect surveys were conducted at different locations surrounding Lizard Island, Australia. For the surveys, a snorkeler or diver swam over the bottom at a depth of 1-2m in the lagoon, One Tree Beach and Research Station areas, and 7m depth in Watson's Bay, while taking photos of the benthos at a set height using a standard digital camera and towing a surface float GPS which was logging its track every five seconds. The camera lens provided a 1.0 m x 1.0 m footprint, at 0.5 m height above the benthos. Horizontal distance between photos was estimated by fin kicks, and corresponded to a surface distance of approximately 2.0 - 4.0 m. Approximation of coordinates of each benthic photo was done based on the photo timestamp and GPS coordinate time stamp, using GPS Photo Link Software (www.geospatialexperts.com). Coordinates of each photo were interpolated by finding the gps coordinates that were logged at a set time before and after the photo was captured. Dominant benthic or substrate cover type was assigned to each photo by placing 24 points random over each image using the Coral Point Count excel program (Kohler and Gill, 2006). Each point was then assigned a dominant cover type using a benthic cover type classification scheme containing nine first-level categories - seagrass high (>=70%), seagrass moderate (40-70%), seagrass low (<= 30%), coral, reef matrix, algae, rubble, rock and sand. Benthic cover composition summaries of each photo were generated automatically in CPCe. The resulting benthic cover data for each photo was linked to GPS coordinates, saved as an ArcMap point shapefile, and projected to Universal Transverse Mercator WGS84 Zone 56 South. The OBIA class assignment followed a hierarchical assignment based on membership rules with levels for "reef", "geomorphic zone" and "benthic community" (above).
Resumo:
Twelve permafrost cores and active layer pits were drilled/dug on Herschel Island in order to estimate the soil organic carbon and total nitrogen contents in the first 30, 100 and 200 cm of ground. The data are shapefile points with attribute table, which contains different core information.
Resumo:
Durante l’esecuzione di prove al banco su motori a combustione interna vengono acquisiti dati contenenti le caratteristiche del motore testato al regime di funzionamento scelto, sotto l’azione di alcuni o numerosi parametri variabili in base ai risultati che si vogliono ottenere dalla prova stessa ed in determinate condizioni ambientali. Per questo motivo è di fondamentale importanza disporre di uno strumento che consenta una rapida, ma allo stesso tempo precisa e quanto più possibile completa visualizzazione ed elaborazione di tali dati. A tale scopo con questo elaborato si vogliono valutare diverse soluzioni, in termini di software, per l’analisi di dati sperimentali, con particolare attenzione rivolta agli ambienti NI LabVIEW, The MathWorks MATLAB e NI DIAdem, e ad alcuni strumenti attualmente in uso, cercando sempre il giusto compromesso tra necessità riscontrate in ambito visualizzazione ed analisi dati ed il contenimento dei costi. Vengono, in seguito, esposte le motivazioni che hanno portato alla scelta di DIAdem per implementare le procedure di post-elaborazione dei dati.
Resumo:
In questo elaborato è stato trattato il concetto di ultrasuoni, le sue proprietà, le leggi fisiche che lo caratterizzano e la loro scoperta. Successivamente sono stati trattati la storia e il funzionamento della ecografia bidimensionale, le differenti tipologia di trasduttore, modalità di visualizzazione e l'analisi ecocolordoppler. In seguito è stato approfondito il concetto di ecografia volumetrica e sequenza di dati ecografici volumetrici con rispettive modalità di acquisizione dei dati, modalità di elaborazione, e modalità di visualizzazione dell'immagini. Infine, sono stati trattati brevemente gli impieghi di questa tecnologia e le possibili implementazioni future.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
Il 3D printing è presente da tempo in molti settori economici e da sempre ha nella sanità uno dei principali ambiti di applicazione. Durante il corso del presente lavoro sono state esaminate le principali applicazioni in campo sanitario con particolare focus sulla fase di planning in caso di chirurgia complessa. La pianificazione risulta essere la fase maggiormente impattante nel contesto più globale di gestione del paziente in quanto una maggior accuratezza nella visualizzazione del caso clinico consente di ottimizzare l’identificazione di un adeguato approccio chirurgico con ovvie conseguenti ripercussioni positive sulla totalità della degenza del paziente all’interno della struttura clinica ospitante. Nel dettaglio è stato valutato l’utilizzo di un innovativo protocollo di pre-planning e follow-up operatorio tramite la realizzazione di modelli stampati 3D a partire da immagini di diagnostica classica (TAC, MRI, 3Dscan) che hanno consentito di poter fornire allo specialista clinico di riferimento un prodotto che riproducendo perfettamente l’anatomia del soggetto (morfologia-proprietà fisiche del tessuto) ha consentito allo stesso un miglioramento delle usuali pratiche chirurgiche e terapeutiche in casi di elevata complessità in un arco temporale ristretto. I parametri utilizzati per la valutazione dei reali benefici dell’approccio esposto sono stati: tempi di pianificazione chirurgica e tempi di intervento all’interno di una più globale analisi dei costi associati. A fronte di un’indagine interna preventiva presso l’azienda ospedaliera ospitante sono stati designati i seguenti reparti come settori pilota: maxillofacciale, neurochirurgia e radiologia interventistica. Lo studio è stato svolto in collaborazione con l’ospedale M.Bufalini di Cesena in qualità di referente clinico e l’azienda Aid4Med Srl in qualità di azienda leader in pianificazione operatoria tramite ausili realizzati tramite tecniche di additive manufacturing.
Resumo:
In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.
Resumo:
La tesi si pone l’obiettivo di indagare quelli che sono gli avvenimenti successivi all’unità d’Italia in uno dei simboli più importanti per la città di bologna, la Basilica di San Petronio. Lo studio si colloca come proseguimento e completamento di due tesi precedentemente compilate, andando ad approfondire sia il cambiamento dal punto di vista legislativo ma anche le azioni restaurative compiute nel periodo di riferimento preso in analisi. La prima fase di lavoro è stata caratterizzata dalla ricerca dei cambiamenti legislativi e normativi avvenuti dal 1860 che accompagnano la creazione della legge di tutela dei monumenti, varata agli inizi del ’900. La seconda fase è iniziata con una significativa ricerca archivistica e con una successiva analisi dei documenti che ha portato ad evidenziare i lavori di restauro sia all’esterno della basilica e che all’interno. Successivamente è stato svolto un approfondimento sui dibattiti relativi al completamento della facciata caratteristici di fine ‘800 e inizi ‘900, andando ad analizzare nei rispettivi concorsi, i principi e modalità di analisi e scelta della soluzione più adeguata. La terza fase ha riguardato il progetto per l’allestimento di una sala museale, che va a creare un proseguimento con quelle che sono le due sale museali già esistenti, ma non adeguate a creare un percorso tale da raccontare gli avvenimenti più recenti della fabbrica. Quindi con il progetto in esame si propone di aumentare lo spazio di allestimento, dedicando l’area interessata alla storia della basilica, ai restauri ottocenteschi, ai progetti per il completamento della facciata e ai recenti restauri eseguiti, lasciando il museo attuale alla conservazione degli oggetti sacri ed ecclesiastici. Inoltre, si è posto l’obiettivo di illuminare efficacemente l’intero ambiente, di conseguenza è stato progettato un impianto d’illuminazione tale da aumentare il confort visivo e permettere una semplice lettura e visualizzazione dei materiali esposti.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
La diagnosi clinica, definita come un giudizio clinico espresso da un esperto sulla salute di un individuo, dopo aver effettuato degli esami obiettivi attraverso la strumentazione adeguata allo specifico caso clinico, rappresenta un elemento fondamentale nel paradigma Prevenzione – Diagnosi – Cura – Riabilitazione, che ha come fine ultimo la salute del paziente. In questo elaborato viene presentata una tecnica di imaging che permette di fare diagnosi in uno degli organi più importanti e delicati del corpo umano, cioè il cuore, sia degli adulti, sia dei feti: l’ecocardiografia 3D Real-Time. L’elaborato si sviluppa in tre capitoli, come di seguito presentato. - Capitolo 1: si descrive la tecnologia su cui si fonda l’ecocardiografia volumetrica Real-Time attraverso le varie fasi di realizzazione dello scanner, il quale consente sia l’acquisizione sia la visualizzazione dei volumi in tempo reale; - Capitolo 2: il sistema di imaging presentato nel capitolo precedente, viene contestualizzato in un organo specifico, ovvero il cuore, illustrandone le caratteristiche, le differenze rispetto a tecniche ritenute meno performanti nella valutazione di patologie cardiache, oltre che alcune particolari evoluzioni, quali Strain Rate Imaging e Tissue Doppler Imaging; - Capitolo 3: si descrive in cosa consiste l’ecocardiografia 3D Real-Time fetale, qual è la sua finalità e quali potrebbero essere alcune applicazioni cliniche tramite cui fare una diagnosi prenatale; inoltre, si evidenzia l’importanza dell’ecocardiografia per studiare le modifiche a cui è soggetto l’apparato cardiovascolare di una donna durante i mesi di gestazione e, quindi, sottoporla alle cure opportune.
Resumo:
Negli ultimi anni l’evoluzione tecnologica ha avuto un incremento esponenziale; ogni anno, numerose innovazioni, hanno portato notevoli cambiamenti sulla vita dei consumatori e sul modo in cui essi interagiscono. Al giorno d’oggi, la tecnologia ha raggiunto livelli tali da renderne necessario l’utilizzo per poter soddisfare vari tipi di bisogni. In questa situazione, lo sviluppo di Internet ha consentito di poter entrare in una nuova era, quella dell’Internet of Things (IoT). Questo nuovo modello sarebbe in grado di portare grossi benefici nella vita di tutte le persone, partendo dalle grandi aziende, fino ad arrivare ai singoli consumatori. L’idea di questo progetto di tesi è di posizionare un dispositivo, in grado di poter rilevare temperatura ed umidità dell’ambiente, nei locali universitari nei quali sono immagazzinati i libri, in modo tale da poter monitorare l’andamento termico degli spazi ed eventualmente effettuare delle operazioni di ripristino della temperatura e dell’umidità per evitare il danneggiamento e il deterioramento dei materiali. In questo documento di tesi andremo ad approfondire l’implementazione del dispositivo IoT in grado di rilevare i dati dell’ambiente. Nello specifico analizzeremo l’ambito applicativo di questo dispositivo, l’implementazione del sistema su una scheda Raspberry Pi 4, sfruttando anche un componente aggiuntivo contenente in sensori necessari al funzionamento del sistema, e vedremo nello specifico anche l’implementazione della pagina Web creata per la visualizzazione dei dati. Negli ultimi anni abbiamo vissuto una grande crisi a livello sanitario e oggi stiamo passando un periodo di difficoltà economica dovuta all’aumento del costo di alcune materie prime quali elettricità e gas. I futuri sviluppi su questo progetto potrebbero portare a risolvere in piccolo alcuni di questi problemi.