922 resultados para MIPv6 ABPS LISP Reti Mobilita Simulazione OMNeT INET
Resumo:
Gli odierni sviluppi delle reti stradali nel territorio italiano e laumento della propensione allutilizzo del veicolo hanno portato ad una continua ricerca nello stesso ambito volta s a mantenere alti i livelli prestazionali e di sicurezza sulla rete stradale ma anche ad aprirsi ad uno scenario ecosostenibile, dato il continuo scarseggiare di materie prime per proseguire con le usuali tecniche di produzione. In tutti i campi riguardanti lambito delle costruzioni civili, che siano esse strutturali o infrastrutturali, numerose sono state le tecnologie introdotte per la realizzazione di materiali sostenibili ma anche e soprattutto il recupero di materiale di scarto, andando cos incontro oltre che a una costruzione sostenibile anche ad un recupero di ci che sarebbe destinato a discariche, ufficiali o abusive che siano. Nellottica dellintroduzione di nuovi materiali una posizione di rispetto interessa gli Pneumatici Fuori Uso (PFU) il cui recupero sotto forma di granulato e di polverino in gomma costituiscono, nellambito delle pavimentazioni stradali, una notevole opportunit di riutilizzo allinterno dei conglomerati bituminosi. Il presente lavoro sperimentale stato svolto nellottica di analizzare dapprima le caratteristiche delle pavimentazioni drenanti, del polverino di gomma da PFU e dellinterazione tra i due, a supporto delle sperimentazioni effettuate sulle miscele realizzate in laboratorio. In particolare, sfruttando la tecnologia dry, che permette linserimento del polverino nella fase di miscelazione degli aggregati, dopo unattenta analisi preliminare della composizione delle miscele da realizzare e il successivo confezionamento dei provini e loro addensamento, si proceduto allesecuzione di diverse prove al termine delle quali sono state analizzate le differenze meccaniche e reologiche tra miscele ottenute con aggiunta di polverino e miscele prive di PFU.
Resumo:
The our reality is characterized by a constant progress and, to follow that, people need to stay up to date on the events. In a world with a lot of existing news, search for the ideal ones may be difficult, because the obstacles that make it arduous will be expanded more and more over time, due to the enrichment of data. In response, a great help is given by Information Retrieval, an interdisciplinary branch of computer science that deals with the management and the retrieval of the information. An IR system is developed to search for contents, contained in a reference dataset, considered relevant with respect to the need expressed by an interrogative query. To satisfy these ambitions, we must consider that most of the developed IR systems rely solely on textual similarity to identify relevant information, defining them as such when they include one or more keywords expressed by the query. The idea studied here is that this is not always sufficient, especially when it's necessary to manage large databases, as is the web. The existing solutions may generate low quality responses not allowing, to the users, a valid navigation through them. The intuition, to overcome these limitations, has been to define a new concept of relevance, to differently rank the results. So, the light was given to Temporal PageRank, a new proposal for the Web Information Retrieval that relies on a combination of several factors to increase the quality of research on the web. Temporal PageRank incorporates the advantages of a ranking algorithm, to prefer the information reported by web pages considered important by the context itself in which they reside, and the potential of techniques belonging to the world of the Temporal Information Retrieval, exploiting the temporal aspects of data, describing their chronological contexts. In this thesis, the new proposal is discussed, comparing its results with those achieved by the best known solutions, analyzing its strengths and its weaknesses.
Resumo:
Lo scopo di questo lavoro stato quello di realizzare un'app, in collaborazione con l'Universit degli Studi di Roma Tor Vergata, che fosse di supporto nello stabilire l'ecostenibilit del pesce comprato da potenziali acquirenti. In modo particolare, per ecosostenibilit dell'acquisto del pesce intendiamo principalmente due fattori: - lunghezza minima del pesce pescato; - attenzione posta sul pescare ed acquistare pesce nel giusto periodo dell'anno. Col primo aspetto, intendiamo porre l'attenzione sul fatto che ogni esemplare di pesce deve essere di una certa lunghezza minima per essere pescato e poi messo in vendita mentre col secondo fattore intendiamo l'evitamento della pesca di certe specie di pesce qualora si trovino nella loro stagione riproduttiva. Pertanto, compito fondamentale dell'app presentata in questa tesi quello di stimare la lunghezza di un pesce acquistato mediante una fotografia scattata allo stesso tramite uno smartphone e di verificare se esso sia stato venduto nella giusta stagione, preoccupandosi poi non solo di informare di conseguenza l'utente ma anche di salvare ed inviare una segnalazione riguardo l'esito dell'operazione a seguito di un'attenta raccolta di dati. Vedremo nel corso di questo documento quali siano stati tutti i passaggi di sviluppo di questa app e quali aspetti abbiano richiesto una maggiore attenzione per mantenere sia una semplicit d'uso nei confronti dell'utente sia un'implementazione rapida ma efficiente.
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualit della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidit in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di unarchitettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. Lambiente di programmazione utilizzato JAVA, il progetto stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando lelaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prender sempre pi piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, stato utilizzato un database non relazionale: HBase.
Resumo:
Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinch si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, possibile ridurre la complessit di unintera rete. Poi stato visto AgNos, unarchitettura basata su azioni svolte da agenti rappresentando cos un ottimo strumento di lavoro sia perch gli agenti sono implementati nei controller di rete e sia perch AgNos ha la peculiarit di fornire allutente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare lesaurimento delle risorse 2.lattuazione di un meccanismo di prevenzione per risolvere il problema dellattacco Dos nella fase iniziale rendendo laggressione pi facile da gestire. Lultimo argomento trattato il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarit di essere open source.
Resumo:
La simulazione definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo simulare, come la riproduzione di qualcosa di fittizio, irreale, come se in realt, lo fosse. La simulazione ci permette di modellare la realt ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilit delle condizioni. I modelli di simulazione possono raggiungere un grado di espressivit estremamente elevato, difficilmente un solo calcolatore potr soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, incrementare la capacit computazionale tramite unarchitettura distribuita (sfruttando, ad esempio, le possibilit offerte dal cloud computing). Questa tesi si concentrer su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre pi rilevanza: lanonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come lattuale Internet, non sia adatta a mantenere il rispetto di confidenzialit, integrit ed, in alcuni, disponibilit degli asset da noi utilizzati: nellambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilit di subire un attacco alla disponibilit delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
Questo lavoro ha lo scopo di presentare limplementazione e la valutazione di unapplicazione Android che permetta la riproduzione di uno streaming auto-adattante conforme allo standard DASH sfruttando le funzionalit offerte dal player ExoPLayer a cui viene aggiunta la funzionalit di caching e condivisione dei relativi segmenti tramite WiFi-Direct. Questo al fine di raggiungere diversi obiettivi come la riduzione dellutilizzo di reti mobili, laumento della qualit e/o una riproduzione pi fluida. Si inoltre sviluppato un simulatore in C++ che permette di valutare il comportamento dellapplicazione, lalgoritmo usato per la scelta dei segmenti, e i vantaggi correlati.
Resumo:
In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.
Resumo:
Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.
Resumo:
Immaginate di potervi rilassare a casa in una giornata destate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della citt, oggi possibile. Quello che voglio fare attraverso questa tesi di studiare la fattibilit per la realizzazione di una finestra che permetta il passaggio dellaria ma non dei rumori. Lidea di questa particolare finestra silenziosa mi stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dellinquinamento sonoro in citt. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dellaria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata allanalisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori dingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.
Resumo:
L'obiettivo della tesi proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarit dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilit dellapproccio adottato nell'ambito del Self-Management di malattie croniche.
Resumo:
In questa tesi ci si pone l'obiettivo di sviluppare sistemi distribuiti composti da device mobile che si scambiano informazioni tramite comunicazioni opportunistiche wireless peer-to-peer. Vengono inizialmente analizzate le principali tecnologie di comunicazione wireless adatte allo scopo, soffermandosi sulle reti Wifi ad hoc, delle quali vengono studiate le performance in sistemi di larga scala tramite il simulatore di reti ns-3. Successivamente viene esposto lo sviluppo di componenti software, basati su Akka Stream, per la costruzione di campi computazionali tramite comunicazioni opportunistiche tra device Android, effettuate tramite reti Wifi ad hoc.
Resumo:
In these last years, systems engineering has became one of the major research domains. The complexity of systems has increased constantly and nowadays Cyber-Physical Systems (CPS) are a category of particular interest: these, are systems composed by a cyber part (computer-based algorithms) that monitor and control some physical processes. Their development and simulation are both complex due to the importance of the interaction between the cyber and the physical entities: there are a lot of models written in different languages that need to exchange information among each other. Normally people use an orchestrator that takes care of the simulation of the models and the exchange of informations. This orchestrator is developed manually and this is a tedious and long work. Our proposition is to achieve to generate the orchestrator automatically through the use of Co-Modeling, i.e. by modeling the coordination. Before achieving this ultimate goal, it is important to understand the mechanisms and de facto standards that could be used in a co-modeling framework. So, I studied the use of a technology employed for co-simulation in the industry: FMI. In order to better understand the FMI standard, I realized an automatic export, in the FMI format, of the models realized in an existing software for discrete modeling: TimeSquare. I also developed a simple physical model in the existing open source openmodelica tool. Later, I started to understand how works an orchestrator, developing a simple one: this will be useful in future to generate an orchestrator automatically.
Resumo:
Lobiettivo principale di questa tesi utilizzare le tecniche di gamification pi importanti nella progettazione ed implementazione di uninterfaccia Human-Vehicle per creare un software che possa rendere la guida di unautomobile elettrica pi efficace ed efficiente da parte del guidatore. Per lo sviluppo del software stato svolto uno studio specifico sulla gamification, sulle interfacce Human-Vehicle e sulle macchine elettriche attualmente in produzione. Successivamente stata svolta la fase di progettazione in cui sono stati creati dei mockup relativi allinterfaccia grafica ed stato svolto un focus group. Infine stato implementato il vero e proprio software di simulazione EcoGame ed stato effettuato un test utenti.
Resumo:
L'obiettivo di questo lavoro quello di analizzare la stabilit di uno spettro raggi X emesso da un tubo usurato per analisi cardiovascolari, in modo da verificare il suo comportamento. Successivamente questo tipo di analisi sar effettuata su tubi CT. Per raggiungere questo scopo stato assemblato un particolare set-up con un rivelatore al germanio criogenico in modo da avere la miglior risoluzione energetica possibile ed alcuni particolari collimatori cos da ridurre il flusso fotonico per evitare effetti di pile-up. Il set-up stato costruito in modo da avere il miglior allineamento possibile nel modo pi veloce possibile, e con l'obiettivo di rendere l'intero sistema portabile. Il tubo usato un SRM Philips tube per analisi cardiovascolari; questa scelta stata fatta in modo da ridurre al minimo i fattori esterni (ottica elettromagnetica, emettitori) e concentrare l'attenzione solo sugli effetti, causati dalle varie esposizioni, sull'anodo (roughness e bending) e sul comportamento di essi durante il surriscaldamento e successivo raffreddamento del tubo. I risultati mostrano come durante un'esposizione alcuni fattori di usura del tubo possono influire in maniera sostanziale sullo spettro ottenuto e quindi alterare il risultato. Successivamente, nell'elaborato, mediante il software Philips di ricostruzione e simulazione dello spettro si cercato di riprodurre, variando alcuni parametri, la differenza riscontrata sperimentalmente in modo da poter simulare l'instabilit e correggere i fattori che la causano. I risultati sono interessanti non solo per questo esperimento ma anche in ottica futura, per lo sviluppo di applicazioni come la spectral CT. Il passo successivo sar quello di spostare l'attenzione su un CT tube e verificare se l'instabilit riscontrata in questo lavoro persiste anche in una analisi pi complessa come quella CT.