329 resultados para Zynq Sensori AXI VDMA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi si espone il Mobile Mapping System, cioè il rilevamento di dati geospaziali utilizzando sensori montati a bordo di appositi veicolo senza l'ausilio di punti di contatto a terra. Si illustrano i diversi dispositivi del sistema installati a bordo, le loro diverse applicazioni e metodologie di rilevamento. Si trattano le varie problematiche sorte e le loro risoluzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo di tecnologie innovative nel campo delle telecomunicazioni, dei sensori e degli strumenti di calcolo, ha fatto sì che negli ultimi decenni sia stato possibile trovare soluzioni innovative a problemi tradizionali della medicina. Allo stato attuale è possibile ricorrere a dispositivi di monitoraggio di dimensioni molto contenute, che sono in grado di comunicare attraverso una rete di infrastrutture di comunicazione, fino a raggiungere la struttura ospedaliera. In questa tesi si è scelto di approfondire il ruolo della telemedicina nei casi di diabete e patologie cardiache, due fra i disturbi che maggiormente colpiscono la popolazione. Così facendo si osserva come la telemedicina possa rendersi utile in tutte le fasi del trattamento del disturbo: dalla prevenzione alla cura e alla riabilitazione, in maniera tale da perfezionare il rapporto classico fra paziente e specialista della medicina. Si eliminano barriere spaziali e di aggiungono una nuova gamma di servizi, tanto utili al medico quanto al paziente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La valutazione strumentale del cammino è solitamente svolta chiedendo ai soggetti semplicemente di camminare (ST). Tale condizione non rappresenta la quotidianità. Infatti, nella vita di tutti i giorni la locomozione richiede di adattarsi alle necessità individuali e il coinvolgimento di attività cognitive. I paradigmi di Dual-Task (DT) sono utilizzati per valutare i cambiamenti nella strategia di controllo del cammino in situazioni di vita quotidiana. In particolare, gli indici di performance, di variabilità e di stabilità, utilizzati nella valutazione del controllo motorio, potrebbero essere utili per valutare le interferenze cognitive durante il cammino. L’obiettivo del lavoro è di valutare come tali indici cambiano durante il Dual-Task. Sono stati reclutati 16 studenti, giovani e sani, della Facoltà di Ingegneria Biomedica di Cesena, ai quali è stato chiesto di compiere un cammino rettilineo di 250 m, senza ostacoli, all’aperto, in due condizioni: svolgendo la sola attività di cammino (ST); aggiungendo al precedente task, una sottrazione consecutiva di 7 ad alta voce, partendo da un numero casuale (DT). Tramite tre sensori inerziali tri-assiali, posti sul tronco (L5) e sulle caviglie, sono stati acquisiti i segnali di accelerazione e velocità angolare. Dopo aver calcolato, a partire da tali dati, indici di performance (numero di passi, cadence, velocità e tempo di esecuzione del test), di variabilità (Standard Deviation, Coefficient of Variation, Index of the Variance, Nonstationary Index, Poincare 4 Plots) e di stabilità (Harmonic Ratio e Index of Harmonicity), nelle due condizioni (ST e DT), è stata eseguita un’analisi statistica tra i due task. Le analisi statistiche condotte su tali indici hanno evidenziato che il DT influenza prevalentemente gli indici di performance (numero di passi, cadence, velocità e tempo di esecuzione del test) e in grado minore gli indici di variabilità e stabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi sono stati analizzati alcuni metodi di ricerca per dati 3D. Viene illustrata una panoramica generale sul campo della Computer Vision, sullo stato dell’arte dei sensori per l’acquisizione e su alcuni dei formati utilizzati per la descrizione di dati 3D. In seguito è stato fatto un approfondimento sulla 3D Object Recognition dove, oltre ad essere descritto l’intero processo di matching tra Local Features, è stata fatta una focalizzazione sulla fase di detection dei punti salienti. In particolare è stato analizzato un Learned Keypoint detector, basato su tecniche di apprendimento di machine learning. Quest ultimo viene illustrato con l’implementazione di due algoritmi di ricerca di vicini: uno esauriente (K-d tree) e uno approssimato (Radial Search). Sono state riportate infine alcune valutazioni sperimentali in termini di efficienza e velocità del detector implementato con diversi metodi di ricerca, mostrando l’effettivo miglioramento di performance senza una considerabile perdita di accuratezza con la ricerca approssimata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hyperspectral instruments have been incorporated in satellite missions, providing data of high spectral resolution of the Earth. This data can be used in remote sensing applications, such as, target detection, hazard prevention, and monitoring oil spills, among others. In most of these applications, one of the requirements of paramount importance is the ability to give real-time or near real-time response. Recently, onboard processing systems have emerged, in order to overcome the huge amount of data to transfer from the satellite to the ground station, and thus, avoiding delays between hyperspectral image acquisition and its interpretation. For this purpose, compact reconfigurable hardware modules, such as field programmable gate arrays (FPGAs) are widely used. This paper proposes a parallel FPGA-based architecture for endmember’s signature extraction. This method based on the Vertex Component Analysis (VCA) has several advantages, namely it is unsupervised, fully automatic, and it works without dimensionality reduction (DR) pre-processing step. The architecture has been designed for a low cost Xilinx Zynq board with a Zynq-7020 SoC FPGA based on the Artix-7 FPGA programmable logic and tested using real hyperspectral data sets collected by the NASA’s Airborne Visible Infra-Red Imaging Spectrometer (AVIRIS) over the Cuprite mining district in Nevada. Experimental results indicate that the proposed implementation can achieve real-time processing, while maintaining the methods accuracy, which indicate the potential of the proposed platform to implement high-performance, low cost embedded systems, opening new perspectives for onboard hyperspectral image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La lecture constitue certainement le domaine que l'école privilégie le plus au niveau des apprentissages scolaires. En fait c'est sur l'écrit que vont reposer tous les autres apprentissages scolaires (mathématiques, sciences, etc... ) et c'est pourquoi, dans le contexte actuel de l'école, il nous apparaît nécessaire de faciliter les premiers pas de l'apprentissage lexique en recourant à des programmes préventifs. À partir de l'étude des troubles d'apprentissage naît, la notion de maturité pour apprendre à lire. Celle-ci est d'abord associée à l'âge mental. Par la suite, elle est liée à d'autres facteurs tels que l’acuité visuelle, auditive et articulatoire, aux méthodes d'apprentissage, au développement social et émotionnel, etc. Vers les années 40, A.J. Barris lance l'idée de programmes de "Reading readiness" ou de préparation à l'apprentissage de la lecture. À partir de cette idée, une autre fait son apparition, soit l'importance de l’expérience chez l'enfant pour le préparer à un quelconque apprentissage. Cette expérience se développe au sein de la famille et de la classe maternelle au moyen de la sensori-motricité et de l'apport des facteurs instrumentaux. Pour arriver à trouver des variables reliées directement à la réussite en apprentissage lexique, les chercheurs utilisent les tests déjà en place ou en créent d'autres. Ainsi, ils essaient de trouver des corrélations entre des épreuves et la réussite en lecture. Enfin, la théorie américaine de l'enfant ayant des troubles d'apprentissage, "the learning disabled", contribue à l'essor de la prédictivité de ces difficultés par des tests et·leur prévention par différents exercices. Ce même mouvement de prévention se retrouve en Europe au niveau de l'apprentissage lexique. Pour nous, en explorant la conception de l'apprentissage lexique à travers différents auteurs, de sa préparation par l'apport des pré-requis et en examinant les notions d'aptitude à apprendre à lire et des difficultés reliées à cette préparation, nous nous sommes attardé à l'importance des pré-requis face au succès en apprentissage de la lecture. C'est à partir d'opinions et de découvertes de différents auteurs sur la nécessité de préparer les enfants à l'apprentissage, que nous avons décidé de présenter un projet de recherche mettant l'accent sur la nécessité des pré-requis à l'apprentissage lexique. Nous avons retenu parmi ces pré-requis ceux que l'on qualifie de facteurs instrumentaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche porte sur une expérience de rééducation, auprès d'un enfant de cinq ans présentant un assez lourd handicap dans ses performances langagières à son arrivée en classe maternelle. D'abord, une recherche théorique a été effectuée afin de mieux connaître les étapes précédant l’apparition du langage, c'est-à-dire l’étape prénatale, le stade sensori-moteur et le langage préverbal. La recherche théorique devait également s'attacher aux caractéristiques et aux effets du milieu dans lequel tout enfant grandit, milieu qui a une grande influence sur l’évolution de son langage, ainsi que sur son bagage culturel. Ensuite, il était possible d'étudier plus spécifiquement trois aspects du langage de l 'enfant, soit le système phonologique, l’extension du vocabulaire ainsi que l’apparition des fonctions syntaxiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Advances in FPGA technology and higher processing capabilities requirements have pushed to the emerge of All Programmable Systems-on-Chip, which incorporate a hard designed processing system and a programmable logic that enable the development of specialized computer systems for a wide range of practical applications, including data and signal processing, high performance computing, embedded systems, among many others. To give place to an infrastructure that is capable of using the benefits of such a reconfigurable system, the main goal of the thesis is to implement an infrastructure composed of hardware, software and network resources, that incorporates the necessary services for the operation, management and interface of peripherals, that coompose the basic building blocks for the execution of applications. The project will be developed using a chip from the Zynq-7000 All Programmable Systems-on-Chip family.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusione di smartphone e dispostivi mobili a cui si è assistito nell’ultima decade ha portato con sé lo sviluppo di nuovi sistemi e tecnologie basate sulla localizzazione. Questi sistemi vengono chiamati Location Based Systems (LBS) ed il loro successo è stato reso possibile dai sensori come GPS, antenna WiFi e accelerometro che hanno permesso agli sviluppatori di creare contenuti e servizi basati sulla posizione dell’utente. Una delle tecnologie su cui si basano i LBS è chiamata Geofencing e consiste nella creazione di aree virtuali (dette geofence) per delimitare luoghi di interesse (Point of Interests) e notificare l’utente quando entra, esce o si trova nelle vicinanze di una delle aree delimitate. Questa caratteristica viene utilizzata soprattutto per realizzare applicazioni che ricordano all’utente di svolgere delle azioni, per esempio un’app di promemoria che ricorda all’utente di comprare il latte quando si trova vicino ad un supermercato. Dal punto di vista economico, uno degli utilizzi piu` promettenti `e il co- siddetto Context Aware Advertising: i possessori di dispositivi mobili che si trovano a camminare nelle vicinanze di un negozio o un centro commer- ciale possono essere considerati possibili clienti e ricevere delle notifiche con pubblicit`a o questionari. Nel seguente lavoro verrà analizzato nel dettaglio cos’è il Geofencing, le sue applicazioni e le tecnologie sulla quale si basa. Verranno presi in considerazione alcuni problemi relativi all’utilizzo delle tecnologie di posizionamento, con particolare attenzione ai consumi di batteria. Verrà inoltre descritta la progettazione e l’implementazione di una piattaforma che permette ai possessori di attività commerciali di creare e gestire dei POI nonché di monitorare gli spostamenti dei possibili clienti. Dopo aver installato l’applicazione mobile sul proprio smartphone, i clienti potranno ricevere notifiche una volta oltrepassati i confini di un geofence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.