225 resultados para SDN, mininet, openflow, reti


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si analizza in parte il Wi-Fi Protected Setup (WPS), standard creato con l’obiettivo di configurare in maniera semplice, sicura e veloce reti Wi-Fi. Dopo avere introdotto lo standard ne vengono presentate le vulnerabilità progettuali ed anche quelle relative a problematiche implementative. In seguito viene mostrato il programma che si è sviluppato per eseguire una delle tipologie di attacchi presentati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si è studiato l’insorgere di eventi critici in un semplice modello neurale del tipo Integrate and Fire, basato su processi dinamici stocastici markoviani definiti su una rete. Il segnale neurale elettrico è stato modellato da un flusso di particelle. Si è concentrata l’attenzione sulla fase transiente del sistema, cercando di identificare fenomeni simili alla sincronizzazione neurale, la quale può essere considerata un evento critico. Sono state studiate reti particolarmente semplici, trovando che il modello proposto ha la capacità di produrre effetti "a cascata" nell’attività neurale, dovuti a Self Organized Criticality (auto organizzazione del sistema in stati instabili); questi effetti non vengono invece osservati in Random Walks sulle stesse reti. Si è visto che un piccolo stimolo random è capace di generare nell’attività della rete delle fluttuazioni notevoli, in particolar modo se il sistema si trova in una fase al limite dell’equilibrio. I picchi di attività così rilevati sono stati interpretati come valanghe di segnale neurale, fenomeno riconducibile alla sincronizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi dieci anni si è rinnovata l’esigenza di sviluppare nuove tecnologie legate alla telemedicina, specie a seguito dello sviluppo dei sistemi di telecomunicazione che consentono ad ogni persona di avere a disposizione sistemi portatili, come gli smartphone, sempre connessi e pronti a comunicare. Lo stesso sviluppo si è avuto all’interno dei sistemi sanitari in cui è diventato fondamentale informatizzare le attività ospedaliere per via del contesto demografico a cui si va incontro: invecchiamento della popolazione e aumento del numero di pazienti affetti da malattie croniche. Tutti questi aspetti portano all’attuazione di un cambiamento strategico. Le Body Area Network, fulcro di questo lavoro di tesi, rappresentano la risposta a questa necessità. Si spiegano l'architettura e le tecnologie abilitanti per la realizzazione di queste reti di sensori, gli standard di comunicazione tramite i quali avviene la trasmissione dei dati e come le reti si interfacciano con i pazienti e le strutture sanitarie. Si conclude con una panoramica sui sensori di una BAN e alcuni esempi in commercio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La realtà aumentata, unitamente a quella mista, stanno rapidamente prendendo pieno all'interno di molti aspetti della vita umana. Scopo di questo lavoro è di analizzare tecnologie e tecniche esistenti al fine di applicarle ad un caso reale, la rilevazione e la sovrapposizione di un oggetto digitale tridimensionale ad uno presente in un museo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Panoramica di MPEG-DASH e TVWS, descrizione dell'implementazione di un middleware multi-interfaccia per lo streaming video adattivo e test di valutazione del lavoro svolto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Our generation of computational scientists is living in an exciting time: not only do we get to pioneer important algorithms and computations, we also get to set standards on how computational research should be conducted and published. From Euclid’s reasoning and Galileo’s experiments, it took hundreds of years for the theoretical and experimental branches of science to develop standards for publication and peer review. Computational science, rightly regarded as the third branch, can walk the same road much faster. The success and credibility of science are anchored in the willingness of scientists to expose their ideas and results to independent testing and replication by other scientists. This requires the complete and open exchange of data, procedures and materials. The idea of a “replication by other scientists” in reference to computations is more commonly known as “reproducible research”. In this context the journal “EAI Endorsed Transactions on Performance & Modeling, Simulation, Experimentation and Complex Systems” had the exciting and original idea to make the scientist able to submit simultaneously the article and the computation materials (software, data, etc..) which has been used to produce the contents of the article. The goal of this procedure is to allow the scientific community to verify the content of the paper, reproducing it in the platform independently from the OS chosen, confirm or invalidate it and especially allow its reuse to reproduce new results. This procedure is therefore not helpful if there is no minimum methodological support. In fact, the raw data sets and the software are difficult to exploit without the logic that guided their use or their production. This led us to think that in addition to the data sets and the software, an additional element must be provided: the workflow that relies all of them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di laurea si presentano le varie famiglie di convertitori multilivello MMC (Modular Multilevel Converter). Questi convertitori sono di ausilio per il condizionamento dei parametri di reti elettriche in media e alta tensione e possono anche essere convenientemente utilizzati nel pilotaggio di motori asincroni trifase. Dopo aver esplicitato i principi di funzionamento, presentato i dispositivi di commutazione, le tipologie conosciute e le rispettive principali tecniche di modulazione, si è presentato il motore asincrono trifase, il suo circuito equivalente e le problematiche di accoppiamento ad un inverter. Successivamente si è simulato un inverter multilivello di tipo Diode-Clamped, con modulazione analogica PWM multiportante, che aziona un motore asincrono commerciale, così da poterne verificare le prestazioni in diversi regimi di velocità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Riscrivere la storia di un luogo urbano, risolverlo sviluppando un sistema progettuale complesso, rende necessario cogliere le caratteristiche stesse del luogo, individuare le possibilità e le potenzialità strutturali che lo spazio offre e svelare rapporti talvolta sottesi. Il progetto ha origine dalle necessità e da esse trae forza: l’architettura ideata deriva direttamente dal confronto tra il luogo, la sua storia e le sue trasformazioni, e gli esempi, le architetture che conosciamo, quelle costruite e quelle soltanto disegnate. La risoluzione della Caserma Mameli, la restituzione del suo spazio alla grande città, l’auspicabile creazione di un nuovo nucleo di riferimento per la zona Milano Nord, porta a riflettere sull’importanza del riutilizzo urbano al fine di ottenere nuove unioni e sinergie all’interno del complesso schema della città del XXI secolo. La città contemporanea, in continua trasformazione, vive un’epoca di profondi cambiamenti: si intende progettare e pensare la città in maniera sostenibile, limitando l’impatto della nuova costruzione, favorendo il riutilizzo, urbano ed umano, sviluppando reti sempre più estese per la mobilità collettiva e cercando di limitare quanto più possibile la mera speculazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città di Bologna, la storia, i flussi e le connessioni. Questo progetto di gruppo nasce dalla necessità di ripensare il ruolo dell’infrastruttura nella contemporaneità e nell’atteggiamento che l’architettura può assumere di fronte alle rinnovate priorità delle città italiane che, tra espansione demografica, monumenti e centri storici da preservare, nuove reti di comunicazione e scambio delle informazioni, necessitano sempre più di una pianificazione che prenda in analisi il passato, interpreti il presente e si ponga l’obiettivo primario di dialogare con il futuro. Il capoluogo Emiliano è collocato in una posizione strategica per le comunicazioni d i trasporti, tenendo uniti gli estremi dello stivale e svolgendo un ruolo di snodo a cui oggi la penisola Italiana non può in alcun modo rinunciare. Ogni giorno una quantità spropositata di pendolari e viaggiatori è indotta nella città concentrandosi in un primo momento nell’area della stazione ferroviaria e dei piazzali antistanti, per poi distribuirsi all’interno del tessuto urbano, chi utilizzando il sistema di rete tramviaria, chi a piedi o in bicicletta. L’intento principale del masterplan proposto è quindi valutare un range di informazioni supplementari ai tradizionali studi urbani. Si è notato come le aree più degradate della città (spesso limitrofe ad infrastrutture consegnate al comune senza valutarne l’integrazione e l’impatto urbano e ambientale) manchino di una circolazione costante e di attività. Si è identificato nelle migliaia di soggetti che ogni giorno giungono a Bologna usufruendo dei servizi delle Ferrovie dello Stato la linfa vitale di un’importante parte della città. Poiché progettare per un futuro prossimo è pensare a un presente in grado di accettare i propri limiti e assimilare le aberrazioni del passato, rifacendosi ad un immaginario che non può che sconfinare i paradigmi prefissati che hanno portato ad uno status irrisolto ma non irrisolvibile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene illustrato il modello BCM, formulato nel 1982 con l'intento di spiegare il fenomeno di apprendimento neuronale, definito come "plasticita sinaptica". Si passa successivamente ad una descrizione dettagliata del comportamento di un singolo neurone, per poi estendere la trattazione alle reti neuronali. L'esposizione degli argomenti viene effettuata considerando cellule esposte a distribuzioni di input linearmente indipendenti. Viene proposto infine un metodo per adattare il modello al caso linearmente dipendente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'argomento di questa tesi è l'architettura di rete Delay-/Disruption-Tolerant Networking (DTN), progettata per operare nelle reti “challenged”, dove la suite di protocolli TCP/IP risulta inefficace a causa di lunghi ritardi di propagazione del segnale, interruzioni e disturbi di canale, ecc. Esempi di reti “challenged” variano dalle reti interplanetarie alle Mobile Ad-Hoc Networks (MANETs). Le principali implementazioni dell'architettura DTN sono DTN2, implementazione di riferimento, e ION, sviluppata da NASA JPL per applicazioni spaziali. Una grande differenza tra reti spaziali e terrestri è che nello spazio i movimenti dei nodi sono deterministici, mentre non lo sono per i nodi mobili terrestri, i quali generalmente non conoscono la topologia della rete. Questo ha portato allo sviluppo di diversi algoritmi di routing: deterministici per le reti spaziali e opportunistici per quelle terrestri. NASA JPL ha recentemente deciso di estendere l'ambito di applicazione di ION per supportare anche scenari non deterministici. Durante la tesi, svolta presso NASA JPL, mi sono occupato di argomenti diversi, tutti finalizzati a questo obiettivo. Inizialmente ho testato la nuova implementazione dell'algoritmo IP Neighbor Discovery (IPND) di ION, corretti i bug e prodotta la documentazione ufficiale. Quindi ho contribuito ad integrare il Contact Graph Routing (CGR) di ION nel simulatore DTN “ONE” utilizzando la Java Native Interface (JNI) come ponte tra il codice Java di ONE e il codice C di ION. In particolare ho adattato tutte le librerie di ION necessarie per far funzionare CGR all'interno dell'ambiente di ONE. Infine, dopo aver analizzato un dataset di tracce reali di nodi mobili, ho contribuito a progettare e a sviluppare OCGR, estensione opportunistica del CGR, quindi ne ho curato l'integrazione in ONE. I risultati preliminari sembrano confermare la validità di OCGR che, una volta messo a punto, può diventare un valido concorrente ai più rinomati algoritmi opportunistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 5th generation of mobile networking introduces the concept of “Network slicing”, the network will be “sliced” horizontally, each slice will be compliant with different requirements in terms of network parameters such as bandwidth, latency. This technology is built on logical instead of physical resources, relies on virtual network as main concept to retrieve a logical resource. The Network Function Virtualisation provides the concept of logical resources for a virtual network function, enabling the concept virtual network; it relies on the Software Defined Networking as main technology to realize the virtual network as resource, it also define the concept of virtual network infrastructure with all components needed to enable the network slicing requirements. SDN itself uses cloud computing technology to realize the virtual network infrastructure, NFV uses also the virtual computing resources to enable the deployment of virtual network function instead of having custom hardware and software for each network function. The key of network slicing is the differentiation of slice in terms of Quality of Services parameters, which relies on the possibility to enable QoS management in cloud computing environment. The QoS in cloud computing denotes level of performances, reliability and availability offered. QoS is fundamental for cloud users, who expect providers to deliver the advertised quality characteristics, and for cloud providers, who need to find the right tradeoff between QoS levels that has possible to offer and operational costs. While QoS properties has received constant attention before the advent of cloud computing, performance heterogeneity and resource isolation mechanisms of cloud platforms have significantly complicated QoS analysis and deploying, prediction, and assurance. This is prompting several researchers to investigate automated QoS management methods that can leverage the high programmability of hardware and software resources in the cloud.