960 resultados para FastLApp Android Telemetria Acquisizione-dati GPS Accelerometro Sensori Cronometro App Mobile
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
La decodifica dei segnali elettroencefalografici (EEG) consiste nell’analisi del segnale per classificare le azioni o lo stato cognitivo di un soggetto. Questi studi possono permettere di comprendere meglio i correlati neurali alla base del movimento, oltre che avere un’applicazione pratica nelle Brain Computer Interfaces. In questo ambito, di rilievo sono le reti neurali convoluzionali (Convolutional Neural Networks, CNNs), che grazie alle loro elevate performance stanno acquisendo importanza nella decodifica del segnale EEG. In questo elaborato di tesi è stata addestrata una CNN precedentemente proposta in letteratura, EEGNet, per classificare i segnali EEG acquisiti durante movimenti di reaching del braccio dominante, sulla base della posizione del target da raggiungere. I dati sono stati acquisiti su dieci soggetti grazie al protocollo sviluppato in questo lavoro, in cui 5 led disposti su una semicirconferenza rappresentano i target del movimento e l’accensione casuale di un led identifica il target da raggiungere in ciascuna prova. I segnali EEG acquisiti sono stati quindi ricampionati, filtrati e suddivisi in epoche di due secondi attorno all’inizio di ciascun movimento, rimuovendo gli artefatti oculari mediante ICA. La rete è stata valutata in tre task di classificazione, uno a cinque classi (una posizione target per classe) e due a tre classi (raggruppando più posizioni target per classe). Per ogni task, la rete è stata addestrata in cross-validazione utilizzando un approccio within-subject. Con questo approccio sono state addestrate e validate 15 CNNs diverse per ogni soggetto. Infine, è stato calcolato l’F1 score per ciascun task di classificazione, mediando i risultati sui soggetti, per valutare quantitativamente le performance della CNN che sono risultati migliori nel classificare target disposti a destra e a sinistra.
Resumo:
Oggigiorno, il termine Digital Twin è ampiamente diffuso. Questo concetto si riferisce a un paradigma utilizzato per la prima volta nel 1970, in una missione spaziale statunitense. Un Digital Twin è un gemello digitale, un modello che simula e raccoglie i dati di un oggetto o essere vivente del mondo reale. I Digital Twin sono sviluppati in molti settori e aziende. Tra queste troviamo Fameccanica, la quale ha costruito dei modelli digitali dei propri macchinari per migliorare la formazione dei manutentori e la produzione, Chevron che ha ridotto i costi di manutenzione, General Elettric che associa a ogni turbina venduta un Digital Twin per mantenerla controllata grazie a dei sensori posti sulla turbina stessa. Risulta importante utilizzare i Digital Twin in ambito medico per tracciare la salute del paziente, simulare eventuali interventi e gestire gli ospedali. In particolare, le strutture ospedaliere dell’Emilia Romagna non sono ottimizzate dal punto di vista economico. Infatti, la sala operatoria rappresenta la principale spesa che AUSL Romagna deve affrontare ma, attualmente, l’organizzazione degli interventi non è efficiente. Pertanto, in seguito a problemi sollevati dai referenti di AUSL Romagna, è stato deciso di realizzare un progetto per la tesi riguardante questo ambito. Per risolvere i problemi riscontrati si realizzerà un prototipo di un Digital Twin delle sale operatorie per poter minimizzare i costi. Grazie alla raccolta, in real-time, dei dati memorizzati nel gemello digitale, si possono pianificare al meglio gli interventi in base alla disponibilità delle sale operatorie. Il progetto assume dimensioni considerevoli per questo motivo è stato suddiviso in tre moduli: una componente che si occupa di standardizzare i dati, un Digital Twin che mantiene i dati relativi allo stato attuale delle sale operatorie e un’interfaccia utente che si occupa di visualizzare i dati ai medici.
Resumo:
Questa tesi elabora un sistema di filtraggio delle pseudodistanze calcolate da un ricevitore GPS, al fine di ottenere un miglior posizionamento. Infatti, dopo aver analizzato e quindi filtrato i dati in ingresso tramite l’impiego delle misure di fase, si può ottenere una precisione nell’ordine dei centimetri. La tecnica di filtraggio prende il nome di carrier-smoothing e permette di selezionare le misure di pseudorange mediante le misure di ADR (Accumulated Delta Range) grazie all’applicazione di una struttura a filtro complementare. Per svolgere questo tipo di lavoro, non è stato necessario l’utilizzo di un ricevitore GPS fisico, ma è stato realizzato, nell’ambiente Matlab/Simulink, un simulatore GNSS (Global Navigation Satellite System) che sostanzialmente emula quello che farebbe un ricevitore.
Resumo:
Le fibre ottiche sono materiali costituiti al loro interno da fibre di vetro o filamenti polimerici. Esse attualmente trovano grande impiego nel campo della telecomunicazione, ma è assai importante lo sviluppo che stanno ottenendo nel campo del monitoraggio strutturale. L’obiettivo del lavoro descritto in questo elaborato finale è di riuscire a sviluppare un programma in grado di computare una simulazione analitico-parametrica riguardante i segnali restituiti da un sensore in fibra ottica. In particolare, sono stati creati due codici (Codice 1 e Codice 2) per sostenere un Codice Esistente. Quest’ultimo prende in input dei dati sperimentali che, invece di essere ottenuti da prove in laboratorio, sono prodotti in uscita dal Codice 1, il quale simula prove a fatica o statiche in provini di diverso materiale. Attraverso l’analisi di questi dati, il codice finale crea delle curve probabilistiche in grado di asserire con quanta probabilità e con quale confidenza è possibile valutare i risultati esplicitati dallo strumento di rilevazione, che in questo caso è un sensore in fibra ottica. D’altra parte, il Codice 2 analizza le conseguenze nella Probability of Detection e confidenza al variare dei parametri maggiormente influenti nel modello.
Resumo:
Il lavoro presentato in questa tesi analizza il comportamento elettrico di prototipi di sensori Low-Gain Avalanche Detector (LGAD) ultrasottili. L'analisi consiste in una verifica sperimentale delle caratteristiche attese di questi sensori, che sono stati selezionati come possibili candidati per la realizzazione del sistema di Time-Of-Flight (TOF) nell'esperimento ALICE 3. Concepito come evoluzione dell'esperimento ALICE attualmente in funzione al CERN, ALICE 3 rappresenta l'archetipo di una nuova generazione di esperimenti nella fisica delle collisioni di ioni pesanti, ed è previsto iniziare la propria attività di presa dati per LHC Run 5 nel 2032. Sono stati presi in considerazione 22 campioni di LGAD, di cui 11 provenienti dal wafer di produzione 5 (spessore 25 um) e gli altri 11 dal wafer 6 (spessore 35 um). In entrambi i casi, di questi 11 sensori, 6 sono campioni in configurazione LGAD-PIN e 5 sono matrici. Tutti e 22 i campioni sono stati sottoposti a misure di corrente in funzione del voltaggio, mentre solo quelli appartenenti al wafer 5 anche a misure di capacità. L'obiettivo è quello di misurare la caratteristica IV e CV per ognuno dei campioni e da queste estrarre, rispettivamente, tensione di breakdown e profilo di doping.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
L'Electron-Ion Collider è un futuro acceleratore di particelle che approfondirà la nostra conoscenza riguardo l'interazione forte tramite la collisione di elettroni con nuclei e protoni. Uno dei progetti attualmente considerati per la costruzione del rivelatore, il dual-radiator RICH, prevede l'impiego di due radiatori Cherenkov, sui quali verranno montati dei fotorivelatori per rilevare l'emissione della luce Cherenkov e risalire alla massa delle particelle. L'opzione di base per questi rivelatori sono i sensori al silicio SiPM. Questo lavoro di tesi si basa sullo studio delle prestazioni di un prototipo per l'acquisizione dei dati rilevati dai SiPM che sfrutta l'effetto termoelettrico per raffreddare la zona in cui sono situati i sensori. L'analisi dei dati acquisiti ha portato alla conclusione che le prestazioni del prototipo sono confrontabili con quelle misurate all'interno di una camera climatica quando si trovano alla stessa temperatura.
Resumo:
Al giorno d’oggi, l’inquinamento costituisce una delle principali problematiche che l’uomo e il pianeta si trovano ad affrontare. Questo progetto di tesi si pone come obiettivo quello di coinvolgere le persone nella raccolta di dati sull'inquinamento acustico e luminoso attraverso un'app Android, realizzata sfruttando strategie e metodologie quali crowdsourcing, crowdsensing, citizen science e gamification. Il volume di tesi descrive quindi il contesto in cui si è svolto questo progetto, le tecnologie utilizzate e l'implementazione finale. In particolare, nel primo capitolo viene descritto il contesto generale con un approfondimento sul fenomeno dell'inquinamento, trattando in dettaglio quello sonoro e luminoso. Inoltre, il capitolo approfondisce i concetti di crowdsourcing, crowdsensing, citizen science e gamification. Nel secondo capitolo, invece, vengono illustrate le tecnologie utilizzate sia nel client, cioè l'applicazione Android con le sue funzionalità, sia nel server, che comprende l'uso di Flask e di un database PostgreSQL, oltre a delle API di tipo REST. Il terzo e ultimo capitolo verte sull'implementazione dell'applicazione, con dei focus sulle principali scelte adottate.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.
Resumo:
Il monitoraggio basato su emissioni acustiche (AE) guidate si è confermato tra le tecniche più affidabili nel campo del Non-Destructive Testing delle strutture planari, vista anche la sua semplicità implementativa, i bassi costi che lo caratterizzano, la non invasività e la possibilità di realizzare un sistema che agisca in maniera continuativa ed in tempo reale sfruttando reti di sensori permanentemente installati, senza la necessità di ispezioni periodiche. In tale contesto, è possibile sfruttare l’abilità dell’apprendimento automatico nell’individuazione dei pattern nascosti all’interno dei segnali grezzi registrati, ottenendo così informazioni utili ai fini dell’applicazione considerata. L’esecuzione on-edge dei modelli, ovvero sul punto di acquisizione, consente di superare le limitazioni imposte dal processamento centralizzato dei dati, con notevoli vantaggi in termini di consumo energetico, tempestività nella risposta ed integrità degli stessi. A questo scopo, si rivela però necessario sviluppare modelli compatibili con le stringenti risorse hardware dei dispositivi a basso costo tipicamente impiegati. In questo elaborato verranno prese in esame alcune tipologie di reti neurali artificiali per l’estrazione dell’istante di arrivo (ToA) di un’emissione acustica all’interno di una sequenza temporale, in particolare quelle convoluzionali (CNNs) ed una loro variante più recente, le CapsNet basate su rounting by agreement. L’individuazione dei ToA relativi al medesimo evento su segnali acquisiti in diverse posizioni spaziali consente infatti di localizzare la sorgente da cui esso è scaturito. Le dimensioni di questi modelli permettono di eseguire l’inferenza direttamente su edge-device. I risultati ottenuti confermano la maggiore robustezza delle tecniche di apprendimento profondo rispetto ai metodi statistici tradizionali nel far fronte a diverse tipologie di disturbo, in particolare negli scenari più critici dal punto di vista del rapporto segnale-rumore.
Resumo:
L'elaborato tratta tutto ciò che riguarda le generalità sui biosensori, tra cui composizione, manipolazione ed elaborazione dati (circuiti di condizionamento), progettazione e campi di applicazione. Inoltre, una parte è riservata ad un particolare tipo di sensori, quelli indossabili, con una descrizione degli stessi e la presentazione di un progetto per la misurazione di determinati parametri in un paziente.
Resumo:
This work presents the development of low cost microprocessor-based equipment for generation of differential GPS correction signal, in real time, and configuration and supervision of the GPS base. The developed equipment contains a dedicated microcontroller connected to the GPS receiver, alphanumeric display and multifunction keyboard for configuration and operation of the system and communication interfaces. The electronic circuit has the function of receiving the information from GPS base; interpret them, converting the sentence in the RTCM SC-104 protocol. The microcontroller software makes the conversion of the signal received by the GPS base from the specific format to RTCM SC-104 protocol. The processing main board has two serials RS-232C standard interfaces. One of them is used for configuration and receiving the information generated by the GPS base. The other operates as output, sending the differential correction signal for the transmission system. The development of microprocessor-based equipment showed that it is possible the construction of a low cost private station for real time generation of differential GPS correction signal.
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física
Resumo:
This work is part of a research under construction since 2000, in which the main objective is to measure small dynamic displacements by using L1 GPS receivers. A very sensible way to detect millimetric periodic displacements is based on the Phase Residual Method (PRM). This method is based on the frequency domain analysis of the phase residuals resulted from the L1 double difference static data processing of two satellites in almost orthogonal elevation angle. In this article, it is proposed to obtain the phase residuals directly from the raw phase observable collected in a short baseline during a limited time span, in lieu of obtaining the residual data file from regular GPS processing programs which not always allow the choice of the aimed satellites. In order to improve the ability to detect millimetric oscillations, two filtering techniques are introduced. One is auto-correlation which reduces the phase noise with random time behavior. The other is the running mean to separate low frequency from the high frequency phase sources. Two trials have been carried out to verify the proposed method and filtering techniques. One simulates a 2.5 millimeter vertical antenna displacement and the second uses the GPS data collected during a bridge load test. The results have shown a good consistency to detect millimetric oscillations.