7 resultados para Intuitive
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Questo lavoro si pone come obiettivo l'approfondimento della natura e delle proprietà dei polinomi espressi mediante la base di Bernstein. Introdotti originariamente all'inizio del '900 per risolvere il problema di approssimare una funzione continua su un intervallo chiuso e limitato della retta reale (Teorema di Stone-Weierstrass), essi hanno riscosso grande successo solo a partire dagli anni '60 quando furono applicati alla computer-grafica per costruire le cosiddette curve di Bezier. Queste, ereditando le loro proprietà geometriche da quelle analitiche dei polinomi di Bernstein, risultano intuitive e facilmente modellabili da un software interattivo e sono alla base di tutti i più moderni disegni curvilinei: dal design industriale, ai sistemi CAD, dallo standard SVG alla rappresentazione di font di caratteri.
Resumo:
I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.
Resumo:
Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.
Resumo:
Nell'ottica di trovare modalità sempre più intuitive per movimentare manipolatori industriali l’obiettivo della tesi è quello di realizzare una mobile app su piattaforma Android in grado appunto di movimentare un generico manipolatore industriale. L'applicazione sviluppata fornisce all'utente un’interfaccia semplice e intuitiva che permette, dopo un’opportuna configurazione iniziale, di controllare il moto di un manipolatore industriale attraverso l’uso del touch screen e degli elementi grafici dell’interfaccia. Oltre a istruire un manipolatore l’applicazione offre anche delle funzionalità per il salvataggio e la gestione di determinate configurazioni che il manipolatore può assumere nello spazio. Il grande vantaggio dell’applicazione è quello di fornire un’interfaccia universale per la movimentazione di qualsiasi manipolatore. Si può affermare quindi che essa fornisce un livello di astrazione superiore. In questo progetto di tesi è stato effettuato il testing dell'applicazione sviluppata sia con il manipolatore industriale Comau Smart Six, robot antropomorfo a 6 gradi di libertà, sia con un manipolatore simulato in Unity 3D. Sono stati raccolti dei dati, in particolare dei grafici, che mettono in relazione i comandi impartiti al manipolatore e i dati ricevuti da questo, in modo da ricavarne dei parametri che misurano l'efficienza e la correttezza dell'applicazione.
Resumo:
Il metodo Hartree-Fock permette di determinare approssimativamente la funzione d'onda e l'energia per atomi a più elettroni in uno stato stazionario. Più in generale, si applica a sistemi quantistici a N-corpi, per studiare, ad esempio, gli elettroni nelle molecole e nei solidi. Il punto di partenza di questo metodo è il modello della particella indipendente; sotto questa ipotesi, ogni elettrone del sistema è descritto dalla propria funzione d'onda. Il contributo di D. R. Hartree allo studio della struttura di atomi complessi consiste nell'aver formulato le equazioni per le funzioni d'onda dei singoli elettroni usando argomentazioni intuitive e nell'avere inoltre proposto, per la loro risoluzione, una procedura iterativa basata sul requisito di autoconsistenza. La generalizzazione del suo metodo, che tiene conto del requisito di antisimmetria imposto dal principio di esclusione di Pauli, fu formulata da V. A. Fock e J. C. Slater. Con tale tecnica si assume che la funzione d'onda totale a N-elettroni sia un determinante di Slater, ovvero un prodotto antisimmetrico di orbitali relativi a singoli elettroni. Il determinante di Slater ottimale si ottiene usando il metodo variazionale per individuare i migliori spin-orbitali.
Resumo:
Hand gesture recognition based on surface electromyography (sEMG) signals is a promising approach for the development of intuitive human-machine interfaces (HMIs) in domains such as robotics and prosthetics. The sEMG signal arises from the muscles' electrical activity, and can thus be used to recognize hand gestures. The decoding from sEMG signals to actual control signals is non-trivial; typically, control systems map sEMG patterns into a set of gestures using machine learning, failing to incorporate any physiological insight. This master thesis aims at developing a bio-inspired hand gesture recognition system based on neuromuscular spike extraction rather than on simple pattern recognition. The system relies on a decomposition algorithm based on independent component analysis (ICA) that decomposes the sEMG signal into its constituent motor unit spike trains, which are then forwarded to a machine learning classifier. Since ICA does not guarantee a consistent motor unit ordering across different sessions, 3 approaches are proposed: 2 ordering criteria based on firing rate and negative entropy, and a re-calibration approach that allows the decomposition model to retain information about previous sessions. Using a multilayer perceptron (MLP), the latter approach results in an accuracy up to 99.4% in a 1-subject, 1-degree of freedom scenario. Afterwards, the decomposition and classification pipeline for inference is parallelized and profiled on the PULP platform, achieving a latency < 50 ms and an energy consumption < 1 mJ. Both the classification models tested (a support vector machine and a lightweight MLP) yielded an accuracy > 92% in a 1-subject, 5-classes (4 gestures and rest) scenario. These results prove that the proposed system is suitable for real-time execution on embedded platforms and also capable of matching the accuracy of state-of-the-art approaches, while also giving some physiological insight on the neuromuscular spikes underlying the sEMG.
Resumo:
Semantic Web technologies provide the means to express the knowledge in a formal and standardized manner, enabling machines to automatically derive meaning from the data. Often this knowledge is uncertain or different degrees of certainty may be assigned to the same statements. This is the case in many fields of study such as in Digital Humanities, Science and Arts. The challenge relies on the fact that our knowledge about the surrounding world is dynamic and may evolve based on new data coming from the latest discoveries. Furthermore we should be able to express conflicting, debated or disputed statements in an efficient, effective and consistent way without the need of asserting them. We call this approach 'Expressing Without Asserting' (EWA). In this work we identify all existing methods that are compatible with actual Semantic Web standards and enable us to express EWA. In our research we were able to prove that existing reification methods such as Named Graphs, Singleton Properties, Wikidata Statements and RDF-Star are the most suitable methods to represent in a reliable way EWA. Next we compare these methods with our own method, namely Conjectures from a quantitative perspective. Our main objective was to put Conjectures into stress tests leveraging enormous datasets created ad hoc using art-related Wikidata dumps and measure the performance in various triplestores in relation with similar concurrent methods. Our experiments show that Conjectures are a formidable tool to express efficiently and effectively EWA. In some cases, Conjectures outperform state of the art methods such as singleton and Rdf-Star exposing their great potential. Is our firm belief that Conjectures represent a suitable solution to EWA issues. Conjectures in their weak form are fully compatible with Semantic Web standards, especially with RDF and SPARQL. Furthermore Conjectures benefit from comprehensive syntax and intuitive semantics that make them easy to learn and adapt.