51 resultados para Software Defined Networking SDN OpenFlow Rete Switch Router
Resumo:
In questo scritto si analizzeranno alcune alternative nella configurazione di rete della piattaforma di cloud computing open source OpenStack. Verrà mostrata un’ installazione in ambiente di laboratorio di un cluster completo basato sulla release Liberty di Openstack, per poi modificarne la componente dedicata al Networking in modo da sfruttare diversi plugin e diversi protocolli. Si osserverà il traffico generato all’interno e verso l’esterno del sistema Openstack in modo da avere un quadro generale del comportamento dell’infrastruttura.
Resumo:
Spectrum sensing su piattaforma software defined radio: Implementazione e test su stick dvb-t
Resumo:
The 5th generation of mobile networking introduces the concept of “Network slicing”, the network will be “sliced” horizontally, each slice will be compliant with different requirements in terms of network parameters such as bandwidth, latency. This technology is built on logical instead of physical resources, relies on virtual network as main concept to retrieve a logical resource. The Network Function Virtualisation provides the concept of logical resources for a virtual network function, enabling the concept virtual network; it relies on the Software Defined Networking as main technology to realize the virtual network as resource, it also define the concept of virtual network infrastructure with all components needed to enable the network slicing requirements. SDN itself uses cloud computing technology to realize the virtual network infrastructure, NFV uses also the virtual computing resources to enable the deployment of virtual network function instead of having custom hardware and software for each network function. The key of network slicing is the differentiation of slice in terms of Quality of Services parameters, which relies on the possibility to enable QoS management in cloud computing environment. The QoS in cloud computing denotes level of performances, reliability and availability offered. QoS is fundamental for cloud users, who expect providers to deliver the advertised quality characteristics, and for cloud providers, who need to find the right tradeoff between QoS levels that has possible to offer and operational costs. While QoS properties has received constant attention before the advent of cloud computing, performance heterogeneity and resource isolation mechanisms of cloud platforms have significantly complicated QoS analysis and deploying, prediction, and assurance. This is prompting several researchers to investigate automated QoS management methods that can leverage the high programmability of hardware and software resources in the cloud.
Resumo:
Software Defined Networking along with Network Function Virtualisation have brought an evolution in the telecommunications laying out the bases for 5G networks and its softwarisation. The separation between the data plane and the control plane, along with having a decentralisation of the latter, have allowed to have a better scalability and reliability while reducing the latency. A lot of effort has been put into creating a distributed controller, but most of the solutions provided by now have a monolithic approach that reduces the benefits of having a software defined network. Disaggregating the controller and handling it as microservices is the solution to problems faced when working with a monolithic approach. Microservices enable the cloud native approach which is essential to benefit from the architecture of the 5G Core defined by the 3GPP standards development organisation. Applying the concept of NFV allows to have a softwarised version of the entire network structure. The expectation is that the 5G Core will be deployed on an orchestrated cloud infrastructure and in this thesis work we aim to provide an application of this concept by using Kubernetes as an implementation of the MANO standard. This means Kubernetes acts as a Network Function Virtualisation Orchestrator (NFVO), Virtualised Network Function Manager (VNFM) and Virtualised Infrastructure Manager (VIM) rather than just a Network Function Virtualisation Infrastructure. While OSM has been adopted for this purpose in various scenarios, this work proposes Kubernetes opposed to OSM as the MANO standard implementation.
Resumo:
L'erogazione dei servizi informatici tramite cloud è ormai una delle soluzioni più in voga nel mercato odierno, tant'è che, analizzando le statistiche fornite dalle piattaforme principali, anche il futuro sembra andare proprio in quella direzione. Quest'evoluzione avrà un forte impatto persino nelle telecomunicazioni, dove le tecniche di virtualizzazione e softwarizzazione vengono già oggi impiegate per facilitare la gestione delle infrastrutture di rete, creando le cosiddette SDN (Software Defined Network). I provider che scelgono di adottare queste soluzioni ottengono un elevato grado di flessibilità dei propri servizi, facilitando notevolmente lo sviluppo di nuove funzionalità, grazie alla presenza di controller esterni a cui vengono demandati gli aspetti di gestione della rete stessa. In uno scenario di questo tipo è fondamentale che gli strumenti volti allo studio e alla sperimentazione di reti software-based siano in grado di stare al passo con i tempi, utilizzando tecnologie all'avanguardia ed accessibili anche agli utenti che si interfacciano per la prima volta con queste metodologie. Perché questo sia possibile è necessario che telecomunicazioni e sviluppo software, aspetti storicamente appartenenti a due mondi dell'informatica paralleli, si uniscano. Ad oggi gli strumenti che permettono di operare su SDN sono innumerevoli, ma spesso accomunati dalla mancanza di qualsivoglia interfaccia grafica, restringendo l'utenza di riferimento ad un gruppo ancor più di nicchia, escludendo gli utilizzatori alle prime armi. L'obiettivo di questo progetto è proporre uno strumento alternativo, basato su Ryu, che permetta all’utente di creare, configurare e gestire secondo le proprie esigenze una rete virtuale, attraverso un’interfaccia grafica e un simulatore interattivo per controllare e visualizzare lo stato dei dispositivi connessi. Infine, verranno analizzati i vantaggi didattici ottenuti dall'impiego dell'applicativo rispetto alle metodologie classiche.
Resumo:
Nel ramo della Information Tecnology, recentemente, nascono sistemi informativi adibiti alla gestione di risorse hardware e software distribuite e visualizzate in rete. Uno degli strumenti più utilizzati e commercializzati per l'utilizzo di tale tipo di tecnologie è rappresentato dal cloud computing. Secondo una ricerca del "Il Sole 24 Ore'' in Italia il 25% delle aziende italiane intende adottare il cloud nei prossimi 12 mesi. E' un mercato da 287 milioni di euro nel 2011, +41% sul 2010, e passerà a 394 milioni nel 2012 per poi risalire a 671 nel 2014. Questa tesi si basa su un lavoro di ricerca precedentemente alla stessa in cui ho esaminato esperienze aziendali o riflessioni di queste ultime sull'applicazione e l'utilizzo della tecnologia cloud come modello di business. Il lavoro si è svolto leggendo ed analizzando due quotidiani italiani (Il Corriere della Sera e il Il Sole 24 Ore), un quotidiano inglese (Financial Times) e un settimanale londinese (The Economist) nell'arco di due anni a questa parte. Attraverso l'analisi degli articoli ottenuti è stata redatta una sintesi degli stessi pervenendo ad una riflessione che ha rappresentato lo spunto di tale tesi. Spesso si discuteva di problemi legati al cloud ma solo in pochi articoli vi era presente una vera e propria case history con analisi di eventuali difficoltà o benefici riscontrati. Da questo l'inizio di tale attività che pone l'obbiettivo di capire, in parte, il perché di così tanta riluttanza verso uno strumento che sembra rappresentare la scelta tecnologicamente più appropriata e strategicamente ottimale. Il cuore della ricerca è rappresentato dalle interviste svolte ad alcune aziende in merito all'utilizzo della "nuvola'' nel loro sistema informatico. Questa tesi si suddividerà: -Descrizione storica della nascita e dello sviluppo del cloud computing -Analisi delle tecnologie attualmente esistenti e dei modelli di distribuzione -Opportunità e minacce legate all'utilizzo di tale tecnologia in un ambiente aziendale -Studio ed analisi di alcuni casi aziendali e del ruolo che svolge l'uso del cloud nel proprio modello di business -Valutazione dell'attuale situazione del cloud computing e delle prospettive future legate all'utilizzo della tecnologia in analisi
Resumo:
In accordo con la filosofia della Software Defined Radio è stato progettato un decoder LDPC software che utilizza una GPU per ottenere prestazioni migliori. Il lavoro, che comprende anche l'encoder e un simulatore di canale AWGN, può essere utilizzato sia per eseguire simulazioni che per elaborare dati in real time. Come caso di studio si sono considerati i codici LDPC dello standard DVB-S2.
Resumo:
Cattura di un segnale AM e FM stereofonico (radio commerciale) mediante chiavetta NooElec R820T dotata di tecnologia Software Defined Radio (SDR). Implementazione di un codice di demodulazione AM e di algoritmi di modulazione/demodulazione FM stereo attraverso l’ambiente di lavoro MATLAB e lo strumento Simulink- Interfacciamento dei codici con la piattaforma Raspberry-Pi fungente da server TCP/IP la quale permetterà la comunicazione tra chiavetta e PC. Ricostruzione del segnale modulante trasmesso
Resumo:
In questi anni, c’è stato un grande sviluppo negli standard wireless nel mondo della televisione, della radio e delle comunicazioni mobili. Questo ha portato con sé problemi di compatibilità tra le reti wireless e ha limitato lo sviluppo di nuove funzionalità e servizi. La Software Defined Radio rappresenta una soluzione di flessibilità per affrontare questa serie di problematiche. In un sistema di comunicazione digitale, le informazioni viaggiano su un canale che è soggetto a rumore ed interferenza; perciò, per garantire robustezza e affidabilità alle applicazioni nella comunicazione digitale, i sistemi richiedono l’uso di codici di correzione degli errori, basati su schemi di codifica di canale. Esistono diverse tipologie di codici per la correzione degli errori, tra le quali il turbo codice, utilizzato nei sistemi LTE. Questo lavoro presenta la progettazione e la successiva ottimizzazione di un turbo encoder per sistemi LTE su una scheda FPGA, la quale, a differenza di altri dispositivi, meglio si presta a questo scopo, grazie alla caratteristica di riprogrammabilità. Dapprima viene presentato un turbo encoder sequenziale, il quale viene ottimizzato creandone una versione parallela. I risultati mostrano che l’architettura parallela presenta prestazioni, in termini di throughput, quattro volte migliori di quella sequenziale, a fronte di un lieve aumento dell’uso delle risorse della scheda. Confrontando questo turbo encoder ottimizzato con un progetto presente in letteratura, si nota che l’efficienza d’area risulta maggiore con un fattore circa pari a 3.
Resumo:
In questa tesi sperimentale si vuole evidenziare le vulnerabilità informatiche dell’architettura di rete TCP/IP. Nella sicurezza informatica spesso si dà grande rilevanza a software come gli antivirus, o ai dispositivi come i firewall, mentre si sottovaluta di mettere in sicurezza l’architettura di rete stessa. Di fatto nonostante un utente possa utilizzare un sistema operativo o un browser ritenuto estremamente sicuro, se l’amministratore di una rete non ha messo in sicurezza la rete stessa, qualunque operazione di protezione del sistema operativo (OS) o del browser risulta vana. Oltre a dimostrare che qualunque OS e browser possa essere facilmente infettato se non è stata messa in sicurezza la rete in cui naviga, si dimostrerà anche che i protocolli ritenuti sicuri come HTTPS non siano esenti da vulnerabilità. Gli attacchi informatici che si andranno a sperimentare fanno parte della tipologia Man In The Middle. L’attaccante sarà inserito all’interno della rete locale, è per questo motivo che il firewall non potrà effettuare qualunque azione di controllo. In una media/grande impresa è abbastanza frequente avere l’accesso al Wi-Fi, ad esempio come cliente nella sala d’aspetto. Spesso questa connessione Wi-Fi non è isolata dalla rete utilizzata dalla stessa azienda. In questa tesi si andranno ad evidenziare le gravi criticità di cui una configurazione del genere è afflitta. In conclusione, dopo aver analizzato le vulnerabilità dell’architettura di rete TCP/IP, si andranno ad analizzare quali funzioni attivare, e come attivarle, all’interno di switch professionali come Aruba 2930F o router board semiprofessionali come il Mikrotik 750, per mettere in sicurezza una rete locale da questo tipo di attacchi informatici.
Resumo:
Il lavoro è stato suddiviso in tre macro-aree. Una prima riguardante un'analisi teorica di come funzionano le intrusioni, di quali software vengono utilizzati per compierle, e di come proteggersi (usando i dispositivi che in termine generico si possono riconoscere come i firewall). Una seconda macro-area che analizza un'intrusione avvenuta dall'esterno verso dei server sensibili di una rete LAN. Questa analisi viene condotta sui file catturati dalle due interfacce di rete configurate in modalità promiscua su una sonda presente nella LAN. Le interfacce sono due per potersi interfacciare a due segmenti di LAN aventi due maschere di sotto-rete differenti. L'attacco viene analizzato mediante vari software. Si può infatti definire una terza parte del lavoro, la parte dove vengono analizzati i file catturati dalle due interfacce con i software che prima si occupano di analizzare i dati di contenuto completo, come Wireshark, poi dei software che si occupano di analizzare i dati di sessione che sono stati trattati con Argus, e infine i dati di tipo statistico che sono stati trattati con Ntop. Il penultimo capitolo, quello prima delle conclusioni, invece tratta l'installazione di Nagios, e la sua configurazione per il monitoraggio attraverso plugin dello spazio di disco rimanente su una macchina agent remota, e sui servizi MySql e DNS. Ovviamente Nagios può essere configurato per monitorare ogni tipo di servizio offerto sulla rete.
Resumo:
Tesi mirata allo studio dei protocolli di routing IP utilizzati per l'inoltro dei pacchetti in una topologia non banale. Sono state utilizzate macchine Linux Raspberry Pi per il loro costo e ingombro per costruire la rete. In particolare, è stata implementata una rete caratterizzata da sette router divisi in tre aree distinte, ai quali sono state connesse sette LAN. Si è installato e utilizzato il software quagga per attivare il protocollo OSPF (Open Shortest Path First). Per limitare i dispositivi fisici si è utilizzato il software Mininet per virtualizzare switch e LAN. Infine, sono stati trattati elementi teorici del routing su Internet, applicati alla rete creata per verificarne il funzionamento.
Resumo:
In questa tesi si è voluto interfacciare dispositivi di nuova generazione (Raspberry Pi), presenti in una topologia di rete già implementata, con dispositivi di vecchia generazione, come Router Cisco e Switch HP. Questi ultimi sono dispositivi fisici, mentre i Raspberry, tramite tool mininet e altre impostazioni, possono generare dispositivi virtuali. Si è quindi applicato un interfacciamento tra le due tipologie di apparati, creando una rete nuova, e adatta come caso a ricoprire le reti attuali, siccome questo è un esempio di come con poche modifiche si può intervenire su qualsiasi rete già operativa. Si sono quindi osservati i criteri generali su cui operano sia i router, che gli switch, e si sono osservati come questi interagiscono con un flusso di dati attraverso vari protocolli, alcuni rifacenti al modello ISO/OSI, altri all'OSPF.
Resumo:
Confronto tra due software specifici per l'analisi di rischio nel trasporto stradale di merci pericolose (TRAT GIS 4.1 e QRAM 3.6) mediante applicazione a un caso di studio semplice e al caso reale di Casalecchio di Reno, comune della provincia di Bologna.
Resumo:
Nel presente lavoro di tesi ci si è occupati dello studio del comportamento idraulico-ambientale della rete di drenaggio a servizio della città di Modena. In particolare si è condotta una valutazione dell’effetto che gli scaricatori della rete fognaria in oggetto hanno sul complesso dei corpi idrici riceventi. Tale lavoro si prefigge anche lo scopo di individuare e dimensionare i più efficaci sistemi di controllo degli sversamenti, operati dagli scaricatori stessi, ed infine supportare analisi costi-benefici in vista della realizzazione delle opere di risanamento ambientale necessarie per ottemperare ai vincoli imposti dalla vigente normativa regionale in merito alla gestione delle acque di prima pioggia (Deliberazione G.R. Emilia Romagna 286/2005). Lo studio si è articolato in fasi successive: • analisi dello stato di fatto; • catalogazione degli scaricatori in esercizio nella rete di drenaggio; • determinazione ed analisi dei bacini idrografici e delle superfici scolanti; • implementazione di un modello numerico della rete di drenaggio; • individuazione e valutazione delle criticità idraulico-ambientali del sistema, mediante simulazioni in continuo delle serie pluviometriche degli anni 2005 e 2006. L’attività che ha portato al conseguimento dei risultati che sono raccolti in questa “nota” è stata svolta in collaborazione con la società HERA Modena s.r.l. a cui compete, fra le altre, la gestione dell’intera rete di drenaggio urbano del Comune di Modena. La fase di analisi dello stato di fatto e delle superfici scolanti afferenti ai singoli sottobacini è stata condotta utilizzando lo strumento GIS Arcview; il quale è di supporto, anche ai fini di un’appropriata definizione delle caratteristiche specifiche del territorio. Lo studio è stato sviluppato mediante la realizzazione di un modello numerico di simulazione quali-quantitativa con l’ausilio del software InfoWorks CS 8.05, distribuito dalla Wallingford Software Ltd UK.