450 resultados para FastLApp Android Telemetria Acquisizione-dati GPS Accelerometro Sensori Cronometro App Mobile


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi consiste nell'implementare un'applicazione Android per lo streaming video, conforme allo standard MPEG-DASH. L'obiettivo è quello di fornire un valido strumento al fine di eseguire delle analisi sperimentali su algoritmi particolari, detti di rate adaptation. MPEG-Dynamic Adaptive Streaming over Http è uno standard emergente ed è considerato da molti il futuro dello streaming multimediale. Questa tecnologia consente di auto-regolare la qualità del video in base alle condizioni della rete, la capacità del dispositivo o le preferenze dell'utente. Inoltre, essendo uno standard, permette di rendere interoperabili i server e i device dei vari fornitori di contenuti multimediali. Nei primi capitoli introduttivi verrà presentato lo standard e i lavori correlati, successivamente verrà descritta la mia proposta applicativa: DashPlayer. In conclusione, verrà compiuta una valutazione sperimentali sugli algoritmi sopracitati che costituiscono la parte logico-funzionale dell'applicazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le immagini termiche all’ infrarosso sono utilizzate da molte decadi per monitorare la distribuzione di temperatura della pelle umana. Anormalità come infiammazioni ed infezioni causano un aumento locale della temperatura, visibile sulle immagini sotto forma di hot spot. In tal senso la termografia ad infrarossi può essere utilizzata nel campo ortopedico per rilevare le zone sovra-caricate dalla protesi. Per effettuare una valutazione precisa dell’interfaccia moncone-invasatura può essere utile combinare i dati termografici e i dati antropometrici (superficie tridimensionale del moncone), relativi ai singoli pazienti. Di ciò si occupa tale studio, che dopo aver fornito una panoramica sulla termografia e sulla reverse engineering, sperimenta delle tecniche semplici e low-cost per combinare i dati termici e i dati antropometrici. Buoni risultati si riescono ad ottenere utilizzando un Kinect come scanner e un software open-source per il texture mapping. I termogrammi 3D ricreati costituiscono un ottimo strumento di valutazione, per medici e tecnici ortopedici, circa il design dell’invasatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo dello studio era quello di analizzare la corsa con stampelle in soggetti amputati, attraverso sensori inerziali indossabili. Nello specifico sono stati individuati in letteratura i metodi classici per il calcolo dei parametri temporali nella corsa di normodotati e applicati alla corsa di un soggetto amputato. Dato il numero ristretto di prove e la mancanza di un gold standard, in questa prima analisi sono stati studiati i vari metodi utilizzabili per il calcolo dei parametri temporali, e confrontati tra loro in maniera qualitativa. Utilizzando come riferimento un’analisi video dei primi 4 cicli della corsa del soggetto amputato sono stati identificati come più affidabili i metodi che sfruttano gli angoli articolari della caviglia e la derivata seconda della velocità angolare della pelvi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

analisi sulle variazioni climati del bacino della diga di Ridracoli

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coniato negli anni‘90 il termine indica lo scavare tra i dati con chiara metafora del gold mining, ossia la ricerca dell’oro. Oggi è sinonimo di ricerca di informazione in vasti database, ed enfatizza il processo di analisi all’interno dei dati in alternativa all’uso di specifici metodi di analisi. Il data mining è una serie di metodi e tecniche usate per esplorare e analizzare grandi set di dati, in modo da trovare alcune regole sconosciute o nascoste, associazioni o tendenze.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi viene proposta una revisione della cartografia geologica del Bacino di Tataouine, nella Tunisia meridionale, mediante la combinazione di sezioni stratigrafiche rilevate in campagna, acquisizione di cartografie a diversa risoluzione presenti in letteratura e applicazione di tecnologie GIS. In particolare, si è cercato di migliorare la risoluzione del materiale cartografico esaminato in specifici settori dell’area di studio fornendo informazioni dettagliate per le singole unità stratigrafiche affioranti. I dati esaminati si riferiscono principalmente alle successioni esposte lungo la scarpata del Dahar, un elemento morfologico sub-verticale che si estende nell’intera area di studio e che rende particolarmente difficile la rappresentazione in pianta delle diverse unità affioranti. A supporto dei dati di campagna (che si riferiscono a 23 sezioni stratigrafiche e 43 punti di controllo) sono stati integrati i dati ottenuti da immagini satellitari ad alta risoluzione. L’utilizzo di ArcMap ha permesso di unire i diversi dataset e ottenere quindi carte geologiche a maggiore risoluzione stratigrafica rispetto a quelle disponibili. L’applicazione della metodologia illustrata in questo progetto, se trasferita ad altri casi studio, potrebbe divenire una modalità operativa utile per ottenere una maggiore risoluzione nella rappresentazione in carta della geologia di un territorio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Applicazione android per la geolocalizzazione di strumenti di illuminazione

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'indipendenza dai combustibili fossili è uno degli argomenti maggiormente trattati negli ultimi anni e lo sviluppo di tecnologie atte a produrre energia attraverso fonti rinnovabili è uno dei punti cruciali della ricerca moderna. L'utilizzo dei veicoli elettrici nel quotidiano rappresenta una delle vie principali per l'abbandono delle fonti non rinnovabili, tuttavia siamo ancora in presenza di qualche limite. Una delle principali ragioni per cui gli automobilisti sono restii ad utilizzare le auto elettriche è quella che in inglese viene definita Range Anxiety, ossia la preoccupazione di non riuscire a raggiungere la propria meta con l'autonomia residua del veicolo. Altri fattori che contribuiscono a scoraggiare gli automobilisti sono i lunghi tempi di ricarica e dove effettuare queste ultime. Per cercare di ridurre queste problematiche nel seguente elaborato viene descritto lo sviluppo di un applicazione per sistema Android, con lo scopo di simulare dei percorsi inseriti dall'utente come se venissero effettuati utilizzando un veicolo elettrico: l'applicativo, sfruttando un servizio esterno fornirà all'utente tutti i dati del percorso, come ad esempio dove effettuare una ricarica. Di seguito viene illustrato l'utilizzo dell'applicativo, la sua architettura, come è stato sviluppato e le sue future estensioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggigiorno milioni di persone fanno uso di Internet per gli utilizzi più disparati: dalla ricerca di informazioni sul Web al gioco online; dall'invio e ricezione di email all'uso di applicazioni social e tante altre attività. Mentre milioni di dispositivi ci offrono queste possibilità, un grande passo in avanti sta avvenendo in relazione all'uso di Internet come una piattaforma globale che permetta a oggetti di tutti i giorni di coordinarsi e comunicare tra di loro. È in quest'ottica che nasce Internet of Things, l'Internet delle cose, dove un piccolo oggetto come un braccialetto può avere un grande impatto nel campo medico per il monitoraggio da remoto di parametri vitali o per la localizzazione di pazienti e personale e l'effettuazione di diagnosi da remoto; dove un semplice sensore ad infrarosso può allertarci a distanza di una presenza non autorizzata all'interno della nostra abitazione; dove un'autovettura è in grado di leggere i dati dai sensori distribuiti sulla strada. Questa tesi vuole ripercorrere gli aspetti fondamentali di Internet of Things, dai sistemi embedded fino alla loro applicazione nella vita odierna, illustrando infine un progetto che mostra come alcune tecnologie IoT e wearable possano integrarsi nella domotica, come per esempio l'utilizzo di uno smartwatch, come Apple Watch, per il controllo dell'abitazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni il mondo ha assistito ad un'espansione esponenziale del mercato mobile, un settore che ha rivoluzionato le nostre vite e le nostre abitudini. Parallelamente, sono entrati in commercio i primi dispositivi commerciali dell'era dell'Internet delle Cose (Internet-of-Things), un paradigma secondo il quale oggetti utilizzati quotidianamente possono dialogare tra loro mediante Internet al fine di migliorare la vita personale e i processi produttivi aziendali. Un'applicazione pratica di Internet-of-Things è costituita dai dispositivi indossabili (wearable) capaci per mezzo di sensori di raccogliere dati sanitari, ambientali e fisici attorno a noi. I dispositivi indossabili attualmente in commercio permettono di collegarsi tramite protocolli e standard come WiFi e Bluetooth ad altri dispositivi, siano essi indossabili, smartphone o computer. Da questo concetto nasce l’idea di far comunicare un indossabile con altri dispositivi utilizzati in un contesto aziendale. In questo documento verrà preso in considerazione un tassello fondamentale nella gestione delle risorse umane e della sicurezza: il controllo degli accessi in un edificio e lo sblocco di un varco, sia esso un tornello, una porta o una serranda. Verrà quindi analizzato e progettato un sistema che possa effettuare le operazioni di timbratura e di apertura di varchi dall'orologio Apple Watch e da iPhone collegandosi ad un terminale dedicato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi mi occupo di spiegare come si comportano i veicoli autonomi per prendere tutte le decisioni e come i dati dei sensori di ogni auto vengono condivisi con la flotta di veicoli

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.