1000 resultados para Localizzazione Stima Angolo di Arrivo Elaborazione Audio MATLAB Simulazione
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
Cette étude s’encadre dans le projet Language Toolkit, qui dérive de la collaboration entre la Chambre de Commerce de Forlì-Cesena et la Scuola di Lingue e Letterature, Traduzione e Interpretazione de Forlì. L’objectif du projet est de permettre aux étudiants de dernière année de faculté de connaître l’univers des entreprises. Grâce à la collaboration avec APA-CT srl de Forlì, leader dans le secteur de la phytothérapie vétérinaire, et spécialisée dans la production de compléments alimentaires naturels destinés aux animaux, on a réalisé la localisation en français du site web GreenVet. Cette dissertation se compose de quatre chapitres. Le premier chapitre offre une présentation de APA-CT srl et de ses produits. De plus, on définit les détails du projet de localisation du site web GreenVet. Dans le deuxième chapitre on propose, en premier lieu, une réflexion sur les langues spéciales et sur la terminologie scientifique. En deuxième lieu, on aborde, aussi bien du point de vue théorique que du point de vue pratique (à travers des exemples), les caractéristiques de la terminologie de la phytothérapie vétérinaire. En troisième lieu, on explique la méthodologie de travail adoptée pendant la réalisation du projet de localisation, qui a été divisé en deux sous-phases : d’abord, on a effectué une recherche terminologique pour délimiter le domaine en question et, après, on a crée des ressources (corpus, glossaire) utiles pour la traduction. Le troisième chapitre offre une réflexion à propos de la localisation des sites web. Ensuite, on propose une analyse contrastive entre les sites web italiens et français traitant de la phytothérapie vétérinaire. Finalement, le quatrième chapitre est dédié à l’activité pratique de localisation. On a analysé le texte de départ au niveau de la structure, des aspects linguistiques et on a individué les difficultés de traduction. Après, on explique la méthodologie de travail suivie et les stratégies adoptées pendant la traduction.
Resumo:
La presente tesi illustra e discute due attività legate all'ambito dei siti web, ovvero la localizzazione e l'ottimizzazione per i motori di ricerca (o SEO, dall'inglese "Search Engine Optimization"). Quest'ultima è un'attività mirata a permettere che i siti stessi ottengano un posizionamento migliore nella pagina dei risultati dei motori di ricerca e siano dunque più visibili agli utenti. Poiché la SEO prevede vari interventi sui siti web, alcuni dei quali implicano la manipolazione di codice HTML, essa viene spesso considerata come un'attività strettamente informatica. L'obiettivo della presente tesi, dunque, è quello di illustrare come i traduttori possano sfruttare le proprie competenze linguistiche per dedicarsi non soltanto alla localizzazione di siti web, ma anche alla loro ottimizzazione per i motori di ricerca. Per dimostrare l'applicabilità di tali tecniche è stato utilizzato come esempio pratico il sito web de "Il Palio di San Donato", un sito gestito dal Comune di Cividale del Friuli e finalizzato alla descrizione dell'omonima rievocazione storica cittadina. La tesi si compone di quattro capitoli. Nel primo capitolo vengono introdotti i principi teorici alla base della localizzazione di siti web, della SEO, della scrittura per il web e della traduzione per il settore turistico. Nel secondo capitolo, invece, viene descritto il sito del Palio di San Donato, esaminandone in particolare la struttura e i contenuti. Il terzo capitolo è dedicato alla descrizione del progetto di localizzazione a cui è stato sottoposto il sito in esame. Infine, il quarto capitolo contiene un breve commento relativo alle problematiche linguistiche, culturali e tecnologiche riscontrate durante il processo traduttivo e un elenco di strategie di SEO applicate a cinque pagine del sito web in esame, selezionate sulla base della possibilità di illustrare il maggior numero possibile di interventi di SEO attuabili dai traduttori.
Resumo:
La presente tesi magistrale si inserisce nell’ambito del progetto Language Toolkit e nasce in particolare dalla collaborazione tra il presente autore e l’azienda Tecnopress S.a.s. Nell’ottica dell’internazionalizzazione della propria attività l’azienda ha richiesto che il proprio sito web venisse sottoposto ad un processo di localizzazione dall’italiano verso l’inglese. Sulla base di queste premesse si è deciso di dividere il lavoro in tre parti: una fase teorica, una fase preparatoria e una fase pratica. La prima fase si è occupata di gettare le basi teoriche necessarie per affrontare consapevolmente l’incarico assegnato. Alla luce delle conclusioni della fase teorica è stata constatata l’esigenza di modificare la natura dell’intervento che si era preventivato di effettuare sul sito web. Fulcro della localizzazione è infatti il locale, ovvero la combinazione di regione socioculturale e lingua presa a riferimento per un processo di localizzazione web. Nelle richieste avanzate dall’azienda figuravano esclusivamente indicazioni relative alla lingua (l’inglese), non già alla regione socioculturale su cui modellare l’intervento di localizzazione del sito. Si è rivelato pertanto necessario procedere autonomamente alla definizione di un locale per il presente progetto, che è stato fatto coincidere con la macrozona europea e cui è stato associato un modello ibrido di English Lingua Franca e Simplified Technical English. Il focus dell’intervento non è stato dunque una regione geografica circoscritta ma una realtà socioculturale molto più ampia e variegata: l’adozione di un locale così ampio e il rispetto dell’indicazione sulla lingua hanno portato il presente autore a optare per un intervento di standardizzazione web. Chiude il presente lavoro una fase operativa, durante la quale sono state create le risorse necessarie al progetto (si segnala in particolare un corpus su misura) e sono state effettuate la standardizzazione e una serie di considerazioni traduttive.
Resumo:
The aim of this dissertation is to provide an adequate translation from English into Italian of a section of the European Commission's site, concerning an environmental policy tool whose aim is to reduce the EU greenhouse gas emissions, the Emissions Trading System. The main reason behind this choice was the intention to combine a personal interest in the domain of sustainability development with the desire to delve deeper into the knowledge of the different aspects involved in the localisation process. I also had the possibility to combine these two with my interest in the universe of the European Union. I therefore worked on the particular language of this supranational organisation and for this reason I had the opportunity to experience a very stimulating work placement at the Directorate-General for Translation in Brussels. However, the choice of the text was personal and the translation is not intended for publication. The work is divided into six chapters. In the first chapter the text is contextualised within the framework of the EU, and its legislation on multilingualism. This has consequences on the languages that are used by the drafters of the official documents and on the languages used by translators. The text originates from those documents, but it needs to be adapted to different receivers. The second chapter investigates the process of website localisation. The third chapter offers an analysis of the source text and of the prospective target text. In the fourth chapter the resources created and used for the translation of the text are described. A comparison is made between the resources of the translation service of the European Commission and the ones created specifically for this project: a translation memory, exploited through the use of a CAT tool, and two corpora. The fifth chapter contains the actual translation, side-by-side with the source text, while the sixth one provides a comment on the translation strategies.
Resumo:
L'importanza dell'acciuga europea (Engraulis encrasicolus) come risorsa ittica, sia a livello economico che ecologico, nel Mar Mediterraneo, ha portato alla necessità di monitorare la biomassa deponente di questa specie per cercare di dare un limite al suo sovrasfruttamento (rappresentando il 22% delle catture nazionali). Lo studio effettuato riguarda le stime di fecondità dell'acciuga europea tramite l'applicazione di un metodo di analisi d'immagine, Whole Mount, su campioni di gonadi di adulti maturi e pronti alla deposizione. Il campionamento degli esemplari è avvenuto durante due campagne oceanografiche, organizzate dall'U.O.S di Capo Granitola dell'Istituto per l'Ambiente Marino Costiero del CNR, che hanno coperto l'area dello Stretto di Sicilia e del Mar Tirreno, durante i mesi estivi che rappresentano il picco di deposizione della specie. Nel presente lavoro sono stati analizzati in totale 76 ovari di acciuga, provenienti da entrambe le aree di campionamento e che presentassero ovociti maturi e risultassero, quindi, in una fase di deposizione nota come "deposizione imminente". Per entrambe le aree di studio è stata stimata una relazione lunghezza-peso con andamento esponenziale. I test statistici non parametrici di Kolmogorov-Smirnov e di Mann-Whitney hanno permesso di stimare se vi fossero differenze tra la fecondità, l'indice gonadosomatico (IGS) e il fattore di condizione (CF) nelle due aree, Stretto di Sicilia e piattaforma settentrionale siciliana. I valori di CF sono risultati significativamente differenti tra le due aree se valutati con il test di Kolmogorov-Smirnov, tuttavia tale differenza non è stata confermata dal test di Mann-Whitney. L'IGS e la fecondità, invece, sono risultati significativamente diversi nelle due aree per entrambi i test. Si può ipotizzare che valori di fecondità differenti nelle due aree, nonostante in entrambi i casi il campionamento sia avvenuto durante il picco di riproduzione della specie, possono essere dovuti alla variabilità dei fattori abiotici, quali temperature e nutrienti, differenti nello Stretto di Sicilia e nell'area lungo le coste settentrionali siciliane. Temperatura e nutrienti possono essere differenti, poiché vi è un diverso movimento delle masse d'acqua causato da correnti distinte nelle due aree. Conoscere la variabilità dei parametri riproduttivi di una specie di rilevanza commerciale così alta, come l'acciuga, rappresenta uno strumento fondamentale per scegliere le misure di gestione sostenibile degli stock più appropriate per aree differenti.
Resumo:
Ce mémoire a comme objectif de montrer le processus de localisation en langue italienne d’un site Internet français, celui du Parc de loisir du Lac de Maine. En particulier, le but du mémoire est de démontrer que, lorsqu’on parle de localisation pour le Web, on doit tenir compte de deux facteurs essentiels, qui contribuent de manière exceptionnelle au succès du site sur le Réseau Internet. D’un côté, l’utilisabilité du site Web, dite également ergonomie du Web, qui a pour objectif de rendre les sites Web plus aisés d'utilisation pour l'utilisateur final, de manière que son rapprochement au site soit intuitif et simple. De l’autre côté, l’optimisation pour les moteurs de recherche, couramment appelée « SEO », acronyme de son appellation anglais, qui cherche à découvrir les meilleures techniques visant à optimiser la visibilité d'un site web dans les pages de résultats de recherche. En améliorant le positionnement d'une page web dans les pages de résultats de recherche des moteurs, le site a beaucoup plus de possibilités d’augmenter son trafic et, donc, son succès. Le premier chapitre de ce mémoire introduit la localisation, avec une approche théorique qui en illustre les caractéristiques principales ; il contient aussi des références à la naissance et l’origine de la localisation. On introduit aussi le domaine du site qu’on va localiser, c’est-à-dire le domaine du tourisme, en soulignant l’importance de la langue spéciale du tourisme. Le deuxième chapitre est dédié à l’optimisation pour les moteurs de recherche et à l’ergonomie Web. Enfin, le dernier chapitre est consacré au travail de localisation sur le site du Parc : on analyse le site, ses problèmes d’optimisation et d’ergonomie, et on montre toutes les phases du processus de localisation, y compris l’intégration de plusieurs techniques visant à améliorer la facilité d’emploi par les utilisateurs finaux, ainsi que le positionnement du site dans les pages de résultats des moteurs de recherche.
Resumo:
Ogni anno, a causa dell’utilizzo di combustibili fossili e della produzione di cemento, vengono rilasciate in atmosfera 35,7 × 109 tonnellate di CO2, il principale dei gas serra. Durante l’ultima Conferenza delle Parti della UNFCCC, tenutasi a Parigi e nota come COP-21, gli Stati membri hanno posto come obiettivo il raggiungimento delle “emissioni zero” entro la seconda metà del XXI secolo. Secondo le previsioni fornite dall’IPCC il raggiungimento di tale obiettivo porterebbe comunque la concentrazione atmosferica di CO2 a 430 – 530 ppm con un conseguente aumento di temperatura di 1.5-2°C. Se non si riuscisse a rispettare questo traguardo potrebbe rendersi necessaria la rimozione forzata di CO2 dall’atmosfera. Negli ultimi anni è stata riconosciuta ad alcuni ecosistemi, tra cui le praterie di fanerogame marine, la capacità naturale di sottrarre elevate quantità di CO2, e rimuoverle dall’ambiente sotto forma di carbonio organico, chiamato “Blue Carbon”, per lunghi periodi di tempo. Il principale obiettivo di questo lavoro è quello di stimare i quantitativi di “Blue Carbon” contenuto all’interno dei sedimenti e nella biomassa vegetale di una prateria di Posidonia oceanica. I risultati hanno permesso di quantificare, al variare della densità dei fasci fogliari della pianta, la percentuale di carbonio organico contenuta nei primi 40 cm di sedimento e quello contenuto nella biomassa vegetale. Queste percentuali sono state utilizzate per stimare i quantitativi totali di carbonio all’interno di una ristretta area della prateria, quella attorno allo scoglio di Molarotto. Per quest’area il contenuto in carbonio organico stimato per i sedimenti è risultato essere compreso tra 104,4 e 122,7 t C ha-1, mentre quello contenuto nelle fronde tra 3,65 e 6,31 t C ha-1. Utilizzando il software QGIS è stato infine possibile stimare la quantità totale (fronde + sedimento) di carbonio contenuto all’interno della prateria in generale. Questo è risultato essere di 716 tonnellate.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.
Resumo:
Studio di fattibilità della conversione del Vought V-173 per il volo ad alta quota. Per realizzare l'intero lavoro si è adoperato il software di fluidodinamica computazionale Flow Simulation di SolidWorks e si è scelto l'ambiente Matlab per la fase di elaborazione e presentazione dati. A partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL e CD a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. Si è valutata l'aerodinamica del velivolo senza la presenza di eliche e di ipersostentatori e successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell'aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo originario (i plain flap). In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l'influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation. Questa parte è stata realizzata per lo stesso tipo di elica tripala, ma prendendo in considerazione due diversi diametri, una di 4:9m e una da 2:5m.
Resumo:
La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.
Resumo:
In questo studio è stata effettuata una stima della riduzione della azione verticale sul pilastro e in particolare in corrispondenza delle connessioni, per varie tipologie strutturali, per effetto dell’azione sismica verticale. Si è pervenuti, nei diversi casi analizzati, una legge per il coefficiente di attrito dinamico, a partire dal coefficiente di attrito statico, tenendo conto della legge di riduzione dello sforzo assiale, da utilizzare per il calcolo della forza di attrito che si instaura nelle suddette condizioni dinamiche. A tal fine sono stati utilizzati diversi modelli che tengono conto delle caratteristiche geometriche, della lunghezza e della forma degli elementi strutturali oltre che delle varie condizioni di carico, luci massime e minime che possono raggiungere gli elementi orizzontali. Sono state pertanto effettuate, attraverso l’ utilizzo di software di calcolo agli elementi finiti, diverse tipologie di analisi che hanno permesso di effettuare le indagini necessarie sul problema oggetto di studio.
Resumo:
I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.
Resumo:
In questo elaborato viene descritto il funzionamento dei Beacon. Essi rappresentano un congegno che sfrutta la tecnologia Bluetooth 4.0, la quale, rispetto alle precedenti, si differenzia per alcune innovazioni apportate. Il loro utilizzo originario era rivolto al mondo del Mobile Advertising, ovvero l’invio di messaggi ad hoc agli utenti, sulla base di studi mirati a personalizzare un contenuto. Con lo scorrere del tempo invece si sono cercate nuove modalità d'uso in relazione al mondo da cui derivano: L'”Internet of Things” (IoT). Questa espressione descrive l'intento di dare vita agli oggetti. L'obiettivo di fondo è stato quello di delineare uno dei possibili casi d'uso. Nel concreto il sistema si prefigge, sfruttando l’interazione tra gli utenti, di monitorare la posizione in ambienti indoor di oggetti, usando il segnale RSSI dei Beacon ai quali sono associati, fornire l’aggiornamento dell’indirizzo in cui sono situati, visualizzabile sulle mappe Google con cui l’app è collegata, notificare ai proprietari gli eventuali ritrovamenti di uno di essi, rintracciare i dispositivi altrui. Prima di ciò, si è svolta un'analisi inerente le prestazioni che i Beacon sono in grado di offrire, in condizioni normali, prestando attenzione ad alcuni parametri come: frequenza di trasmissione (l’intervallo entro il quale vengono emessi segnali), il periodo di scansione (l’effettivo periodo di attività), più un’altra serie di risultati acquisiti durante l'esecuzione di alcuni esperimenti.