692 resultados para MIPv6 ABPS LISP Reti Mobilita Simulazione OMNeT INET


Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualit della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidit in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di unarchitettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. Lambiente di programmazione utilizzato JAVA, il progetto stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando lelaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prender sempre pi piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, stato utilizzato un database non relazionale: HBase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinch si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, possibile ridurre la complessit di unintera rete. Poi stato visto AgNos, unarchitettura basata su azioni svolte da agenti rappresentando cos un ottimo strumento di lavoro sia perch gli agenti sono implementati nei controller di rete e sia perch AgNos ha la peculiarit di fornire allutente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare lesaurimento delle risorse 2.lattuazione di un meccanismo di prevenzione per risolvere il problema dellattacco Dos nella fase iniziale rendendo laggressione pi facile da gestire. Lultimo argomento trattato il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarit di essere open source.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La simulazione definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo simulare, come la riproduzione di qualcosa di fittizio, irreale, come se in realt, lo fosse. La simulazione ci permette di modellare la realt ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilit delle condizioni. I modelli di simulazione possono raggiungere un grado di espressivit estremamente elevato, difficilmente un solo calcolatore potr soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, incrementare la capacit computazionale tramite unarchitettura distribuita (sfruttando, ad esempio, le possibilit offerte dal cloud computing). Questa tesi si concentrer su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre pi rilevanza: lanonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come lattuale Internet, non sia adatta a mantenere il rispetto di confidenzialit, integrit ed, in alcuni, disponibilit degli asset da noi utilizzati: nellambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilit di subire un attacco alla disponibilit delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro ha lo scopo di presentare limplementazione e la valutazione di unapplicazione Android che permetta la riproduzione di uno streaming auto-adattante conforme allo standard DASH sfruttando le funzionalit offerte dal player ExoPLayer a cui viene aggiunta la funzionalit di caching e condivisione dei relativi segmenti tramite WiFi-Direct. Questo al fine di raggiungere diversi obiettivi come la riduzione dellutilizzo di reti mobili, laumento della qualit e/o una riproduzione pi fluida. Si inoltre sviluppato un simulatore in C++ che permette di valutare il comportamento dellapplicazione, lalgoritmo usato per la scelta dei segmenti, e i vantaggi correlati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Immaginate di potervi rilassare a casa in una giornata destate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della citt, oggi possibile. Quello che voglio fare attraverso questa tesi di studiare la fattibilit per la realizzazione di una finestra che permetta il passaggio dellaria ma non dei rumori. Lidea di questa particolare finestra silenziosa mi stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dellinquinamento sonoro in citt. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dellaria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata allanalisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori dingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo della tesi proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarit dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilit dellapproccio adottato nell'ambito del Self-Management di malattie croniche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi ci si pone l'obiettivo di sviluppare sistemi distribuiti composti da device mobile che si scambiano informazioni tramite comunicazioni opportunistiche wireless peer-to-peer. Vengono inizialmente analizzate le principali tecnologie di comunicazione wireless adatte allo scopo, soffermandosi sulle reti Wifi ad hoc, delle quali vengono studiate le performance in sistemi di larga scala tramite il simulatore di reti ns-3. Successivamente viene esposto lo sviluppo di componenti software, basati su Akka Stream, per la costruzione di campi computazionali tramite comunicazioni opportunistiche tra device Android, effettuate tramite reti Wifi ad hoc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In these last years, systems engineering has became one of the major research domains. The complexity of systems has increased constantly and nowadays Cyber-Physical Systems (CPS) are a category of particular interest: these, are systems composed by a cyber part (computer-based algorithms) that monitor and control some physical processes. Their development and simulation are both complex due to the importance of the interaction between the cyber and the physical entities: there are a lot of models written in different languages that need to exchange information among each other. Normally people use an orchestrator that takes care of the simulation of the models and the exchange of informations. This orchestrator is developed manually and this is a tedious and long work. Our proposition is to achieve to generate the orchestrator automatically through the use of Co-Modeling, i.e. by modeling the coordination. Before achieving this ultimate goal, it is important to understand the mechanisms and de facto standards that could be used in a co-modeling framework. So, I studied the use of a technology employed for co-simulation in the industry: FMI. In order to better understand the FMI standard, I realized an automatic export, in the FMI format, of the models realized in an existing software for discrete modeling: TimeSquare. I also developed a simple physical model in the existing open source openmodelica tool. Later, I started to understand how works an orchestrator, developing a simple one: this will be useful in future to generate an orchestrator automatically.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lobiettivo principale di questa tesi utilizzare le tecniche di gamification pi importanti nella progettazione ed implementazione di uninterfaccia Human-Vehicle per creare un software che possa rendere la guida di unautomobile elettrica pi efficace ed efficiente da parte del guidatore. Per lo sviluppo del software stato svolto uno studio specifico sulla gamification, sulle interfacce Human-Vehicle e sulle macchine elettriche attualmente in produzione. Successivamente stata svolta la fase di progettazione in cui sono stati creati dei mockup relativi allinterfaccia grafica ed stato svolto un focus group. Infine stato implementato il vero e proprio software di simulazione EcoGame ed stato effettuato un test utenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro quello di analizzare la stabilit di uno spettro raggi X emesso da un tubo usurato per analisi cardiovascolari, in modo da verificare il suo comportamento. Successivamente questo tipo di analisi sar effettuata su tubi CT. Per raggiungere questo scopo stato assemblato un particolare set-up con un rivelatore al germanio criogenico in modo da avere la miglior risoluzione energetica possibile ed alcuni particolari collimatori cos da ridurre il flusso fotonico per evitare effetti di pile-up. Il set-up stato costruito in modo da avere il miglior allineamento possibile nel modo pi veloce possibile, e con l'obiettivo di rendere l'intero sistema portabile. Il tubo usato un SRM Philips tube per analisi cardiovascolari; questa scelta stata fatta in modo da ridurre al minimo i fattori esterni (ottica elettromagnetica, emettitori) e concentrare l'attenzione solo sugli effetti, causati dalle varie esposizioni, sull'anodo (roughness e bending) e sul comportamento di essi durante il surriscaldamento e successivo raffreddamento del tubo. I risultati mostrano come durante un'esposizione alcuni fattori di usura del tubo possono influire in maniera sostanziale sullo spettro ottenuto e quindi alterare il risultato. Successivamente, nell'elaborato, mediante il software Philips di ricostruzione e simulazione dello spettro si cercato di riprodurre, variando alcuni parametri, la differenza riscontrata sperimentalmente in modo da poter simulare l'instabilit e correggere i fattori che la causano. I risultati sono interessanti non solo per questo esperimento ma anche in ottica futura, per lo sviluppo di applicazioni come la spectral CT. Il passo successivo sar quello di spostare l'attenzione su un CT tube e verificare se l'instabilit riscontrata in questo lavoro persiste anche in una analisi pi complessa come quella CT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo documento ho analizzato lo scenario della passata e dellodierna Internet, dal classico protocollo HTTP, al protocollo sperimentale QUIC, argomento di questa tesi. In primis ho analizzato gli attuali protocolli utilizzati nella rete e ricercato i motivi che hanno portato a crearne di nuovi, successivamente ho effettuato un analisi teorica del protocollo affidandomi ai documenti forniti dall'IETF, poi in un capitolo a s ho descritto l'handshake crittografato tipico di questo protocollo ed infine nell'ultimo capitolo ho mostrato graficamente e praticamente come lavora il protocollo in una reale implementazione. Dopo aver completato questa tesi, mi sono potuto rendere conto di quanto sia necessario un cambio di rotta verso protocolli di rete pi veloci, sicuri ed affidabili. I classici protocolli oramai non sono pi sufficienti a soddisfare le migliaia di richieste di connessione e presentano, come si vedr, delle lacune a cui bisogna porre rimedio. Gran parte della popolazione mondiale ha accesso al web,ed uno strumento ormai alla portata di tutti e non pi privilegio di pochi e ci si augura per il bene della rete Internet che tale protocollo o protocolli simili possano prendere presto piede per una migliore esperienza di navigazione a livello globale. Probabilmente saranno necessari molti anni, ma lidea che gi si pensi ad un futuro non tanto prossimo fa ben sperare su quello che ci aspetta. Nella lettura di questa tesi si vedr come queste ultime affermazioni possano diventare realt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato si tratter il metodo di analisi e modellazione post-sismica del terreno attraverso lutilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la pi rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attivit umane e del territorio. Obiettivo della tesi descrivere lefficacia dellutilizzo congiunto della tecnica di monitoraggio GPS e lInterferometria Differenziale SAR. Grazie allanalisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra limportanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dellevento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarit dellevento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzer la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verr descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per lanalisi di reti GNSS per il controllo delle deformazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente progetto ha riguardato lo studio e lo sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilit motore cambio, dove con guidabilit si intende il legame intercorrente tra le richieste del conducente ed il reale comportamento del veicolo. La prima parte della tesi si concentrata sullo studio delle calibrazioni motore e delle calibrazioni del cambio automatico attualmente sfruttate dai software di produzione, sviluppando un modello di simulazione in grado di verificare come queste calibrazioni influenzino il comportamento del veicolo, concentrandosi sugli andamenti delle accelerazioni e dei regimi motore risultanti. Dopo la validazione del modello, stato creato uno strumento, in ambiente Matlab, che restituisce la calibrazione di guidabilit del cambio automatico, ovvero la mappa sfruttata dalla relativa centralina per gestire il cambio della marcia, ricevendo in ingresso le seguenti informazioni: le grandezze fisiche del veicolo nel suo complesso, quali la massa, i rapporti di trasmissione, il rapporto del differenziale, il raggio di rotolamento dinamico e tutte le inerzie dei componenti della driveline; le calibrazioni di guidabilit motore, costituite da otto mappe, una per ogni marcia, che definiscono la coppia motrice che si richiede al motore di erogare, in funzione della posizione del pedale acceleratore e del regime motore; il piano quotato del motore. Il codice, note queste informazioni, genera automaticamente la mappa di cambio marcia con le linee di Upshift (marcia innestata crescente) e Downshift (marcia innestata decrescente), in funzione della posizione del pedale e dei giri in uscita dal cambio. Infine, si valutata una possibile strategia per la calibrazione delle otto mappe pedale con cui viene gestito il controllo motore. Si sono generate mappe a potenza costante in cui il pedale assume la funzione di regolatore di velocit.