92 resultados para algoritmo, localizzazione, sonar


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le reti di distribuzione sono normalmente esposte ai fulmini, i quali producono sovratensioni sia da eventi diretti che indiretti. Le sovratensioni indotte, prodotte da fulminazioni indirette, sono le più frequenti nelle reti di media tensione, e sono una delle maggiori cause di guasto e di malfunzionamento dei dispositivi della rete. E’ per ciò essenziale realizzare un’accurata valutazione delle prestazioni dei mezzi di protezione delle reti di distribuzione dai fulmini al fine di migliorare la continuità e la qualità del servizio. L’obiettivo della tesi è sviluppare una procedura basata sull'algoritmo genetico in grado di determinare il numero di scaricatori ed i punti ottimali di installazione, tenendo conto della particolare configurazione della rete oggetto di studio, in modo da garantire la protezione della rete e in particolare dei componenti più vulnerabili. La procedura deve essere generica, ovvero deve risolvere il problema per una qualsiasi topologia di rete di media tensione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

WaveTrack é un'implementazione ottimizzata di un algoritmo di pitch tracking basato su wavelet, nello specifico viene usata la trasformata Fast Lifting Wavelet Transform con la wavelet di Haar. La libreria è stata scritta nel linguaggio C e tra le sue peculiarità può vantare tempi di latenza molto bassi, un'ottima accuratezza e una buona flessibilità d'uso grazie ad alcuni parametri configurabili.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con un sistema di multivisione correttamente installato e calibrato, si è tracciato il moto di un drone a seguito di operazioni di triangolazione e ne si è controllata automaticamente la traiettoria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistema automatico, per migliorare la procedura di localizzazione dei guasti nelle linee ferroviarie in corrente continua con l'obiettivo di contenere i tempi di intervento e limitare i disagi nella circolazione dei treni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi s’inserisce all’interno del progetto Language Toolkit, nato dalla collaborazione tra la Camera di Commercio di Forlì-Cesena e la Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì, al fine di avvicinare il mondo dell’università al mondo del lavoro. In particolare, la tesi è frutto della collaborazione tra la laureanda e la Graziani Packaging, azienda italiana leader nel settore del packaging ortofrutticolo e industriale, e consiste nella revisione di una brochure, nella localizzazione del sito web www.graziani.com e nella traduzione di una presentazione PowerPoint, il tutto dall’italiano al tedesco. Il lavoro si compone di tre capitoli. Nel primo, che rappresenta un approfondimento teorico sul tema della localizzazione, si analizza nel dettaglio l’acronimo GILT, si espongono brevemente le tappe principali che hanno caratterizzato la nascita e lo sviluppo del settore della localizzazione e si esaminano le caratteristiche linguistiche, culturali e tecniche della localizzazione di siti web. Il secondo capitolo è dedicato al concetto di qualità in ambito traduttivo e al tema della revisione. In particolare, nella prima parte si analizzano gli standard di qualità professionali, i criteri di qualità proposti da Scarpa (2008) e la classificazione degli errori di traduzione sviluppata da Mossop (2001), mentre l’ultima parte riguarda il processo di revisione in concreto. Nel terzo capitolo, infine, vengono analizzati i tre testi di partenza forniti dall’azienda al traduttore (brochure, sito web e presentazione PowerPoint), e viene esposto e commentato il lavoro di revisione, localizzazione e traduzione degli stessi, ponendo una particolare enfasi sugli aspetti linguistici, culturali e tecnici più interessanti che lo hanno caratterizzato. La tesi si chiude con un glossario terminologico contenente i termini chiave, in italiano e in tedesco, relativi al dominio del packaging ortofrutticolo e industriale, individuati nel corso del lavoro di revisione, localizzazione e traduzione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Masterarbeit entstand im Rahmen des vom Department Traduzione e Interpretazione (Übersetzen und Dolmetschen) der Universität Bologna in Zusammenarbeit mit der Handelskammer Forlì ins Leben gerufenen Projekts Language Toolkit, das unter anderem die Durchführung von Lokalisierungsarbeiten für Unternehmen der Provinz Forlì-Cesena vorsieht. In meinem Fall ging es dabei um das Unternehmen Remedia, welches mich mit der Lokalisierung von Teilen seiner Website (www.remediaerbe.it) ins Deutsche beauftragte. Insbesondere ging es dabei um die Beschreibungen der Hauptprodukte der Abteilung Kräuterheilmittel, bei denen die Werbefunktion und die Verständlichkeit der Webinhalte eine besondere Rolle spielten. Auf ausdrücklichen Wunsch des Unternehmens sollte jedoch die emotionale und evokative Sprache der Ausgangstexte in der Übersetzung nachempfunden werden. Dies führte allerdings zu einer stilistisch treuen Übersetzung, die als Werbetext nicht effizient genug war, weshalb sie vor allem unter dem Gesichtspunkt der Struktur und der Prägnanz verbessert werden musste. Im ersten Kapitel dieser Masterarbeit werden das Unternehmen Remedia, die Palette seines Angebots an natürlichen Produkten und das Lokalisierungsprojekt vorgestellt. Das zweite Kapitel enthält eine Einführung in die Lokalisierung und thematisiert die Rolle des Übersetzers in dieser Branche. Darüber hinaus wird das Thema der Web Usability im Zusammenhang mit der Anordnung der Inhalte in einer Website behandelt und die Abteilung Kräuterheilmittel der Website von Remedia beschrieben. Im dritten Kapitel gehe ich auf die Besonderheiten von Werbetexten in der Kommunikation zwischen Unternehmen und Kunden unter besonderer Berücksichtigung der die Verständlichkeit von Webtexten beeinflussenden Faktoren wie Layout, Textgestaltung und Prägnanz ein. Das vierte Kapitel enthält die vollständige Übersetzung, die der lokalisierten Website entspricht. Im fünften Kapitel schließlich werden die Phasen des Lokalisierungsverfahrens vorgestellt und die wichtigsten Verbesserungen besprochen, die bei der Überarbeitung der stilistisch treuen Übersetzung vorgenommen wurden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato si propone di analizzare le pratiche della localizzazione nel caso particolare del software destinato ai dispositivi mobili. Le innovazioni tecnologiche hanno portato grandi novità nell’ambiente della localizzazione, sia per quanto riguarda l’approccio, sia per le tecnologie e le tecniche utilizzate. In questa tesi di Laurea saranno anche approfonditi gli aspetti di un nuovo approccio alla traduzione in costante espansione, i fenomeni di traduzione collaborativa e traduzione in crowdsourcing. Nel capitolo 1 viene trattato il fenomeno della localizzazione, partendo dalle sue origini e ripercorrendo la sua storia per cercare di darne una definizione condivisa e delinearne le caratteristiche fondamentali, analizzando i vari fenomeni coinvolti nel processo. Il capitolo 2 affronta il tema della traduzione collaborativa e del crescente numero di community online di traduzione in crowdsourcing, un fenomeno recente che desta curiosità, ma anche preoccupazione all’interno degli ambienti della traduzione, in quanto molti sono i dubbi che pervadono i traduttori professionisti circa il ruolo che verrebbero a ricoprire in questo nuovo mercato linguistico. Nel capitolo 3 sono descritti i vari passaggi che un localizzatore deve compiere nel momento in cui affronta un progetto di localizzazione di una app per il sistema operativo Android, partendo dalla ricerca della stessa fino alla pubblicazione della versione localizzata sullo store o sui diversi repository online. Nel capitolo 4, infine, viene analizzato più approfonditamente Crowdin, uno dei sistemi di traduzione assistita collaborativi online, applicandolo nella pratica alla traduzione di una app per dispositivi mobili dotati di sistema operativo Android. Ne verranno descritti i diversi approcci, a seconda che l’utente sia un project manager oppure un traduttore freelance. Per concludere saranno trattati gli aspetti salienti della traduzione pratica di una app per Android.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con il presente lavoro si intende descrivere il progetto di localizzazione in tedesco del sito web http://officinadesign.net/ dell’azienda Officina Design, una piccola impresa con sede a Gambettola in provincia di Forlì-Cesena che si occupa di design per l’arredamento di interni. L’azienda si distingue per l’interesse per la lavorazione e il recupero dei materiali nella creazione dei propri prodotti realizzati a mano collocandosi all’interno di una lunga tradizione locale in questi settori. Il primo capitolo introduce il tema della localizzazione illustrandone le caratteristiche principali mettendo in luce gli aspetti tecnologici e culturali che ne fanno parte; di seguito verranno illustrate le fasi di un progetto di localizzazione e le figure professionali coinvolte in generale e nel caso specifico; infine, verranno fornite alcune informazioni su alcuni degli strumenti tecnici utilizzati. Nel secondo capitolo si affronterà un’analisi approfondita del testo di partenza e verranno presentate le tematiche relative alla teoria della traduzione rilevanti per il presente progetto. Il terzo capitolo tratterà in modo dettagliato le varie fasi del progetto; seguirà la presentazione del testo tradotto e infine il commento, in cui verranno esposti i problemi traduttivi, le difficoltà incontrate, i metodi e i procedimenti adottati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesi sullo studio di algoritmi per il confronto di documenti XML, panoramica sui vari algoritmi. Focalizzazione sull'algoritmo NDiff e in particolare sulla gestione degli attributi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo elaborato di tesi, viene progettata ed implementata una soluzione per gestire il processo di handover in ambiente Android. Tale proposta, è costituita da un algoritmo in grado di gestire automaticamente le interfacce di connessione dei dispostivi, in relazione alle preferenze e agli spostamenti effettuati dall'utente. Le prove sperimentali effettuate, confermano che tale proposta è una buona base per risolvere il problema dell'handover e si presta bene a cooperare con altri protocolli quali ABPS (Always Best Packet Switching). Inoltre l'applicazione si presta bene ad un semplice utilizzo e può essere impiegata anche come servizio eseguito in background, non richiedendo frequenti interazioni da parte dell'utente. Oltre all'algoritmo citato in precedenza, sono stati proposti altri dettagli implementativi, non presenti in letteratura. In particolare, vengono modificate alcune impostazioni di sistema, accedendo agli opportuni file, in modo tale che Android gestisca correttamente le scansioni delle interfacce e la loro attivazione/disattivazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.