992 resultados para algoritmo, localizzazione, sonar
Resumo:
Tesi sullo studio di algoritmi per il confronto di documenti XML, panoramica sui vari algoritmi. Focalizzazione sull'algoritmo NDiff e in particolare sulla gestione degli attributi.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.
Resumo:
In questo elaborato di tesi, viene progettata ed implementata una soluzione per gestire il processo di handover in ambiente Android. Tale proposta, è costituita da un algoritmo in grado di gestire automaticamente le interfacce di connessione dei dispostivi, in relazione alle preferenze e agli spostamenti effettuati dall'utente. Le prove sperimentali effettuate, confermano che tale proposta è una buona base per risolvere il problema dell'handover e si presta bene a cooperare con altri protocolli quali ABPS (Always Best Packet Switching). Inoltre l'applicazione si presta bene ad un semplice utilizzo e può essere impiegata anche come servizio eseguito in background, non richiedendo frequenti interazioni da parte dell'utente. Oltre all'algoritmo citato in precedenza, sono stati proposti altri dettagli implementativi, non presenti in letteratura. In particolare, vengono modificate alcune impostazioni di sistema, accedendo agli opportuni file, in modo tale che Android gestisca correttamente le scansioni delle interfacce e la loro attivazione/disattivazione.
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
Implementazione di un algoritmo sdf per la determinazione dello spessore di componenti meccanici
Resumo:
Presentazione di un'applicazione per Windows Phone in grado di contare il numero dei passi effettuati e stimare la distanza percorsa. Tale stima viene effettuata sulla base della lunghezza del passo calcolata istante per istante tramite un algoritmo in base all'altezza di una persona e alla frequenza di passo.
Resumo:
La previsione della copertura RF in ambiente urbano è oggi comunemente considerato un problema risolto, con decine di modelli proposti in letteratura che mostrano una buona approssimazione rispetto alle misure. Tra questi, il ray tracing è considerato come uno dei più accurati tra i modelli disponibili. In questo lavoro si dimostra però come sia ancora necessario parecchio lavoro per fare in modo che il ray tracing possa essere effettivamente impiegato per scopi pratici.
Resumo:
L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.
Resumo:
Die Idee zu der vorliegenden Masterarbeit entstand nach meinem Praktikum bei dem Bologneser Unternehmen Meccanica Sarti, das im Bereich der metallmechanischen Industrie tätig ist. Ziel meiner Masterarbeit ist die Lokalisierung der Unternehmenswebsite ins Deutsche und die deutsche Übersetzung der Unternehmensbroschüre. Vor beiden Projekten wurde jeweils eine Terminologiearbeit durchgeführt. Die Masterarbeit ist in vier Kapitel untergliedert. Das erste Kapitel ist Meccanica Sarti gewidmet, einem Unternehmen, das sich auf die Fertigung und Bearbeitung feinmechanischer Bauteile für die Industrie spezialisiert hat. Das zweite Kapitel bietet eine theoretische Einführung in die Lokalisierung: Insbesondere werden die wichtigsten mit ihr verknüpften Konzepte (z.B. das Akronym GILT), ihre Geschichte und ihre Entwicklung erläutert. Das Kapitel enthält auch einen Überblick auf die den ÜbersetzerInnen während der Lokalisierung zur Verfügung stehenden elektronischen Hilfsmittel und die Auszeichnungs- bzw. Programmiersprachen, mit denen die Webseiten geschrieben sind. Im dritten Kapitel werden die Fachsprachen und die Terminologiearbeit thematisiert. Die Übersetzung eines Fachtextes ist nur dann möglich, wenn die ÜbersetzerInnen den Wortschatz des betreffenden Fachgebiets, d.h. die Terminologie, kennen. Nach einer Übersicht über die Merkmale der Fachsprachen und der Terminologie wird auf die von Meccanica Sarti benutzte Terminologie eingegangen. Im Rahmen der Masterarbeit wurde zunächst ein Korpus mit den vom Unternehmen zur Verfügung gestellten Dokumenten erstellt und mit dem Programm AntConc wurden die häufigsten keyword und n-gram ermittelt. Im Anschluss daran wurden mit SDL MultiTerm die einschlägigen terminologischen Eintrage erstellt. Das vierte Kapitel beinhaltet die Analyse der Website und der Broschüre und die Auseinandersetzung mit ihren sprachlichen bzw. grafischen Merkmalen. An die Analyse schließt sich eine Überlegung zu SDL Trados, dem benutzen CAT Tool, an. Das Kapitel enthält auch die Lokalisierung der Website und die Übersetzung der Broschüre, die beide ins Deutsche durchgeführt wurden. Abschließend werden die Übersetzungsstrategien, -verfahren, -probleme und -schwierigkeiten anhand der theoretischen Überlegungen am Anfang des Kapitels beschrieben.
Resumo:
El objetivo de este proyecto de fin de carrera es el de proponer la traducción del italiano hacia el español de algunas páginas del sitio http://www.eataly.net/it_it/. Este trabajo se ha dividido en cinco partes: la primera presenta las características de la página web y explica por qué elegí traducir estas páginas, la segunda propone un análisis del texto en italiano, la tercera explica los instrumentos que he utilizado, es decir Catscradle y los textos paralelos, muy útiles para verificar en español las soluciones posibles. En la cuarta parte se encuentra la traducción y finalmente en la quinta mi comentario sobre la traducción, en el que se explican las dificultades traductoras que he encontrado y las estrategias que he elegido para solucionar el problema. En este último capítulo es posible comprender el papel fundamental de las barreras culturales, que constituyen un importante elemento en este tipo de texto, rico en términos culinarios italianos que un lector español no conoce. En conclusión, este proyecto ha sido muy estimulante para mí porque he tenido la oportunidad de conjugar mi pasión por la comida italiana, en particular la de Eataly, con mi pasión por la traducción. También ha sido importante porque me ha permitido utilizar algunas estrategias y conocimientos teóricos que he aprendido en los tres años de universidad y me ha permitido mejorar mi español.
Resumo:
Lo scopo di questo elaborato è di presentare le caratteristiche principali della localizzazione videoludica, dal punto di vista teorico e pratico. Un'analisi approfondita del processo di localizzazione di videogiochi è seguita dalla parte consacrata a "Grandpa", gioco open source che ho tradotto per un concorso di localizzazione. Gli ultimi capitoli sono dedicati alla mia proposta di traduzione, all'analisi del testo e al commento.
Resumo:
Di pari passo con l'espansione dell'industria dei videogiochi, la traduzione videoludica è andata evolvendosi con l'avanzamento tecnologico e l'impatto sempre più crescente di questo fenomeno culturale nella società. Questa recente tipologia di traduzione, chiamata localizzazione, combina elementi della traduzione di software con quella audiovisiva. In questo studio verrà analizzato il fenomeno della fan-translation, ovvero la traduzione autonoma di videogiochi da parte degli utenti, e verrà preso in esame il caso di Superfighters Deluxe, videogioco in fase di sviluppo dello studio indipendente MythoLogic Interactive.
Resumo:
Analisi e applicazione dei processi di data mining al flusso informativo di sistemi real-time. Implementazione e analisi di un algoritmo autoadattivo per la ricerca di frequent patterns su macchine automatiche.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.