986 resultados para MPEG-DASH C streaming TVWS reti wireless
Resumo:
La realt aumentata, unitamente a quella mista, stanno rapidamente prendendo pieno all'interno di molti aspetti della vita umana. Scopo di questo lavoro di analizzare tecnologie e tecniche esistenti al fine di applicarle ad un caso reale, la rilevazione e la sovrapposizione di un oggetto digitale tridimensionale ad uno presente in un museo.
Resumo:
Our generation of computational scientists is living in an exciting time: not only do we get to pioneer important algorithms and computations, we also get to set standards on how computational research should be conducted and published. From Euclids reasoning and Galileos experiments, it took hundreds of years for the theoretical and experimental branches of science to develop standards for publication and peer review. Computational science, rightly regarded as the third branch, can walk the same road much faster. The success and credibility of science are anchored in the willingness of scientists to expose their ideas and results to independent testing and replication by other scientists. This requires the complete and open exchange of data, procedures and materials. The idea of a replication by other scientists in reference to computations is more commonly known as reproducible research. In this context the journal EAI Endorsed Transactions on Performance & Modeling, Simulation, Experimentation and Complex Systems had the exciting and original idea to make the scientist able to submit simultaneously the article and the computation materials (software, data, etc..) which has been used to produce the contents of the article. The goal of this procedure is to allow the scientific community to verify the content of the paper, reproducing it in the platform independently from the OS chosen, confirm or invalidate it and especially allow its reuse to reproduce new results. This procedure is therefore not helpful if there is no minimum methodological support. In fact, the raw data sets and the software are difficult to exploit without the logic that guided their use or their production. This led us to think that in addition to the data sets and the software, an additional element must be provided: the workflow that relies all of them.
Resumo:
L'utilizzo sempre crescente di dispositivi mobili, lo sviluppo di applicazioni mobile in continuo aumento, e la necessit di una sempre migliore qualit della comunicazione, ha portato grande interesse ad analizzare i protocolli di supporto alla mobilit dei terminali. Questi, tra i quali il pi conosciuto forse Mobile IP, vengono posti in esame utilizzando diverse metriche per valutarne le prestazioni. Si confrontano dunque due protocolli: LISP e ABPS; per ognuno dei quali ne viene presentata e descritta l'architettura e le principali funzionalit; entrambe queste architetture per il supporto alla mobilit, prevedono delle specifiche per fornire continuit nella comunicazione durante il roaming di un nodo multihomed. Vengono presentati poi gli strumenti con i quali verr effettuata il l'analisi: il simulatore a eventi discreti OMNeT++ e il suo framework INET. Successivamente sono descritte le principali componenti dei simulatori per LISP e ABPS, che modellano le meccaniche dei due protocolli analizzati. Questi sono stati sottoposti a modifiche mirate a correggerne eventuali anomalie di comportamento, e ad introdurre nuove funzionalit, soprattutto per quanto riguarda ABPS, che era solo parzialmente implementato. Sono mostrati gli scenari in cui verranno effettuati i test per il confronto delle prestazioni: uno scenario semplice e uno che cerca di proporre una rete urbana verosimile; di seguito vengono elencati i parametri e le configurazioni utilizzate per ognuno dei due scenari. Infine vengono presentati i risultati mettendo a confronto due aspetti della mobilit dei terminali: durata dell'intervallo di indisponibilit e latenza dei pacchetti.
Resumo:
The our reality is characterized by a constant progress and, to follow that, people need to stay up to date on the events. In a world with a lot of existing news, search for the ideal ones may be difficult, because the obstacles that make it arduous will be expanded more and more over time, due to the enrichment of data. In response, a great help is given by Information Retrieval, an interdisciplinary branch of computer science that deals with the management and the retrieval of the information. An IR system is developed to search for contents, contained in a reference dataset, considered relevant with respect to the need expressed by an interrogative query. To satisfy these ambitions, we must consider that most of the developed IR systems rely solely on textual similarity to identify relevant information, defining them as such when they include one or more keywords expressed by the query. The idea studied here is that this is not always sufficient, especially when it's necessary to manage large databases, as is the web. The existing solutions may generate low quality responses not allowing, to the users, a valid navigation through them. The intuition, to overcome these limitations, has been to define a new concept of relevance, to differently rank the results. So, the light was given to Temporal PageRank, a new proposal for the Web Information Retrieval that relies on a combination of several factors to increase the quality of research on the web. Temporal PageRank incorporates the advantages of a ranking algorithm, to prefer the information reported by web pages considered important by the context itself in which they reside, and the potential of techniques belonging to the world of the Temporal Information Retrieval, exploiting the temporal aspects of data, describing their chronological contexts. In this thesis, the new proposal is discussed, comparing its results with those achieved by the best known solutions, analyzing its strengths and its weaknesses.
Resumo:
Lo scopo di questo lavoro stato quello di realizzare un'app, in collaborazione con l'Universit degli Studi di Roma Tor Vergata, che fosse di supporto nello stabilire l'ecostenibilit del pesce comprato da potenziali acquirenti. In modo particolare, per ecosostenibilit dell'acquisto del pesce intendiamo principalmente due fattori: - lunghezza minima del pesce pescato; - attenzione posta sul pescare ed acquistare pesce nel giusto periodo dell'anno. Col primo aspetto, intendiamo porre l'attenzione sul fatto che ogni esemplare di pesce deve essere di una certa lunghezza minima per essere pescato e poi messo in vendita mentre col secondo fattore intendiamo l'evitamento della pesca di certe specie di pesce qualora si trovino nella loro stagione riproduttiva. Pertanto, compito fondamentale dell'app presentata in questa tesi quello di stimare la lunghezza di un pesce acquistato mediante una fotografia scattata allo stesso tramite uno smartphone e di verificare se esso sia stato venduto nella giusta stagione, preoccupandosi poi non solo di informare di conseguenza l'utente ma anche di salvare ed inviare una segnalazione riguardo l'esito dell'operazione a seguito di un'attenta raccolta di dati. Vedremo nel corso di questo documento quali siano stati tutti i passaggi di sviluppo di questa app e quali aspetti abbiano richiesto una maggiore attenzione per mantenere sia una semplicit d'uso nei confronti dell'utente sia un'implementazione rapida ma efficiente.
Resumo:
In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.
Resumo:
Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.
Resumo:
In these last years, systems engineering has became one of the major research domains. The complexity of systems has increased constantly and nowadays Cyber-Physical Systems (CPS) are a category of particular interest: these, are systems composed by a cyber part (computer-based algorithms) that monitor and control some physical processes. Their development and simulation are both complex due to the importance of the interaction between the cyber and the physical entities: there are a lot of models written in different languages that need to exchange information among each other. Normally people use an orchestrator that takes care of the simulation of the models and the exchange of informations. This orchestrator is developed manually and this is a tedious and long work. Our proposition is to achieve to generate the orchestrator automatically through the use of Co-Modeling, i.e. by modeling the coordination. Before achieving this ultimate goal, it is important to understand the mechanisms and de facto standards that could be used in a co-modeling framework. So, I studied the use of a technology employed for co-simulation in the industry: FMI. In order to better understand the FMI standard, I realized an automatic export, in the FMI format, of the models realized in an existing software for discrete modeling: TimeSquare. I also developed a simple physical model in the existing open source openmodelica tool. Later, I started to understand how works an orchestrator, developing a simple one: this will be useful in future to generate an orchestrator automatically.
Resumo:
Continuation of Veys's Drret't-tc fi sreti shibi'l-mi'rc: first biography of the Prophet Muammad divided into sections on Mecca and Medina.
Resumo:
Questo documento di tesi si incentra principalmente sullo studio delle reti wireless mobili e dei relativi scenari di utilizzo. In particolare, come esse vengono applicate per il riconoscimento e la prevenzione di incidenti stradali. Vista limportanza di questo problema a livello di sicurezza stradale, ho deciso di sviluppare un' applicazione per smartphone Android, in grado di riconoscere le attivit di uso quotidiano dellutente e associarle a dei comportamenti, come ad esempio quello di un ciclista, di un pedone o di un automobilista. Nel caso in cui, in uno scenario stradale i dispositivi si trovassero ad una distanza ravvicinata, possono comunicare tramite una connessione Wi-Fi Direct il loro ruolo e lanciare messaggi di pericolo per avvisare la loro presenza, in modo da prevenire collisioni stradali. La realt in cui si vuole collocare questa applicazione quella che viene chiamata Pedestrian Detection, gi idea di General Motors, che la sta sviluppando sui futuri veicoli che metter in produzione nei prossimi anni e che sicuramente integreranno funzionalit aggiuntive per la segnalazione di pericoli tramite smartphone e Wi-Fi Direct.
Resumo:
Vengono analizzate le strategie di rilascio delle principali Distribuzioni Linux e i metodi per la compilazione automatizzata del software. Si propone quindi una nuova metodologia sia per il rilascio di media installabili e sia per la pacchettizzazione. Sfruttando le tecnologie del campo DevOps, si introduce quindi un alto grado di scalabilit anche in ambienti Cloud, grazie anche alla riproducibilit di ogni componente dell'infrastruttura proposta. Vedremo quindi come questo approccio aumenta l'automatizzazione nei cicli produttivi per la realizzazione della Distribuzione Sabayon Linux e per la definizione di un'infrastruttura automatizzata attualmente in production.
Resumo:
Il mondo dellInternet of Things e del single board computing sono settori in forte espansione al giorno doggi e le architetture ARM sono, al momento, i dominatori in questo ambito. I sistemi operativi e i software si stanno evolvendo per far fronte a questo cambiamento e ai nuovi casi duso che queste tecnologie introducono. In questa tesi ci occuperemo del porting della distribuzione Linux Sabayon per queste architetture, la creazione di un infrastruttura per il rilascio delle immagini e la compilazione dei pacchetti software.
Resumo:
L'evoluzione tecnologica e l'utilizzo crescente della computer grafica in diversi settori stanno suscitando l'interesse di sempre pi persone verso il mondo della modellazione 3D. I software di modellazione, tuttavia, si presentano spesso inadeguati all'utilizzo da parte di utenti senza esperienza, soprattutto a causa dei comandi di navigazione e modellazione poco intuitivi. Dal punto di vista dell'interazione uomo-computer, questi software devono infatti affrontare un grande ostacolo: il rapporto tra dispositivi di input 2D (come il mouse) e la manipolazione di una scena 3D. Il progetto presentato in questa tesi un addon per Blender che consente di utilizzare il dispositivo Leap Motion come ausilio alla modellazione di superfici in computer grafica. L'obiettivo di questa tesi stato quello di progettare e realizzare un'interfaccia user-friendly tra Leap e Blender, in modo da potere utilizzare i sensori del primo per facilitare ed estendere i comandi di navigazione e modellazione del secondo. L'addon realizzato per Blender implementa il concetto di LAM (Leap Aided Modelling: modellazione assistita da Leap), consentendo quindi di estendere le feature di Blender riguardanti la selezione, lo spostamento e la modifica degli oggetti in scena, la manipolazione della vista utente e la modellazione di curve e superfici Non Uniform Rational B-Splines (NURBS). Queste estensioni sono state create per rendere pi veloci e semplici le operazioni altrimenti guidate esclusivamente da mouse e tastiera.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilit del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilit di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
Nella tesi viene svolto un lavoro di modellazione del protocollo MAC 802.15.4 Wireless Personal Area Network (WPAN), per reti di sensori; dopodich esso viene sottoposto ad una serie di analisi energetiche attraverso simulazioni nell'ambiente OMNeT++. Numerosi sono i parametri che sono stati considerati per caratterizzare al meglio le analisi effettuate, nonch le diverse condizioni iniziali. Il profilo energetico ottenuto stato messo a confronto con quello del protocollo 802.15.4m per TVWS. I dati ottenuti sono stati elaborati con un algoritmo power control con l'obiettivo di raggiungere la massima ottimizzazione energetica.