574 resultados para telecomunicazioni reti OpenFlow SDN NFV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last few years there has been a great development of techniques like quantum computers and quantum communication systems, due to their huge potentialities and the growing number of applications. However, physical qubits experience a lot of nonidealities, like measurement errors and decoherence, that generate failures in the quantum computation. This work shows how it is possible to exploit concepts from classical information in order to realize quantum error-correcting codes, adding some redundancy qubits. In particular, the threshold theorem states that it is possible to lower the percentage of failures in the decoding at will, if the physical error rate is below a given accuracy threshold. The focus will be on codes belonging to the family of the topological codes, like toric, planar and XZZX surface codes. Firstly, they will be compared from a theoretical point of view, in order to show their advantages and disadvantages. The algorithms behind the minimum perfect matching decoder, the most popular for such codes, will be presented. The last section will be dedicated to the analysis of the performances of these topological codes with different error channel models, showing interesting results. In particular, while the error correction capability of surface codes decreases in presence of biased errors, XZZX codes own some intrinsic symmetries that allow them to improve their performances if one kind of error occurs more frequently than the others.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a 15 anni fa, era possibile aumentare il numero di transistor su un singolo chip e contemporaneamente la sua frequenza di clock mantenendo la densità di potenza costante. Tuttavia dal 2004 non è più possibile mantenere invariata la potenza dissipata per unità d’area a causa di limitazioni fisiche. Al fine di aumentare le performance dei processori e di impedire una diminuzione delle frequenze di clock, i processori moderni integrano on-die dei Power Controller Subsystems (PCS) come risorsa hardware dedicata che implementa complesse strategie di gestione di temperatura e potenza. In questo progetto di tesi viene progettata l'architettura dell'interfaccia di comunicazione di ControlPULP, un PCS basato su ISA RISC-V, per la connessione verso un processore HPC. Tale interfaccia di comunicaione integra il supporto hardware per lo scambio di messaggi secondo la specifica SCMI. L'interfaccia sviluppata viene successivamente validata attraverso simulazione ed emulazione su supporto hardware FPGA. Tale supporto hardware viene inoltre utilizzato per la caratterizzazione dell'utilizzo di risorse dell'architettura progettata. Oltre allo sviluppo dell'interfaccia hardware viene sviluppato e caratterizzato un firmware per la decodifica dei messaggi SCMI conforme ai requisiti di esecuzione su un sistema real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesi affronta il tema della progettazione del cantiere di messa in sicurezza del Palazzo Gonzaghesco di Vescovato di Portiolo, ed è frutto della collaborazione del laureando con lo studio associato Borra di Mantova. Lo studio si è svolto in diverse fasi. È stata dapprima approfondita la storia dell’edificio storico ripercorrendo le sue fasi costruttive. Quindi si è affrontato il tema dell’analisi diagnostica, che è stata svolta con particolare approfondimento sia sulle strutture che sulle finiture dell’edificio per comprendere quali fossero le condizioni dei vari elementi ed il relativo valore dal punto di vista storico-testimoniale. L’analisi del degrado ha individuato le strutture ammalorate e collabenti dando importanti indicazioni per il cantiere di messa in sicurezza che è stato concordato con la Soprintendenza ai beni Architettonici della Regione Lombardia. La tesi si è quindi concentrata sulla progettazione della vera e propria organizzazione di cantiere, a partire dalle planimetrie della cantierizzazione e della distribuzione degli spazi, le planimetrie esplicative dei rischi presenti, per poi passare al progetto delle opere provvisionali, nonché alla definizione delle loro metodologie di realizzazione. Si è studiato in particolare l’analisi delle lavorazioni in quota, che costituiscono un elemento di notevole complessità, date le dimensioni dell’immobile e le condizioni della copertura. Sono state progettate e comparate tramite analisi SWOT due diverse strategie esecutive, una tramite l’impiego di linee vita e reti anticaduta ed una alternativa che si attua tramite il posizionamento di un sottoponte. L’analisi ha individuato nella seconda ipotesi la strategia più congrua alle necessità operative e di intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avvento dell’Internet of Things, in parallelo con il sempre più diffuso fenomeno della sensorizzazione, ha aperto la strada allo sviluppo di numerose tecnologie, tra le quali sono presenti anche i Digital Twin. Se inizialmente l’idea di Digital Twin era limitata a mantenere una copia virtuale di un oggetto fisico, con il passare del tempo questa visione si è ampliata, permettendo di riprodurre in un ambiente virtuale interi sistemi, come ad esempio città ed ospedali. Questi sistemi sono costituiti da vere e proprie reti di Digital Twin, tra loro connessi attraverso l’uso di relazioni. A questo proposito le sfide sono presenti e numerose: quel che manca è una visione unica e condivisa riguardante l’organizzazione di tali sistemi. Sotto questo aspetto, una delle proposte è il Web of Digital Twin, di cui verrà discusso all’intero della tesi. L’obiettivo di questa tesi è quello di capire come è possibile realizzare ecosistemi di Digital Twin coerenti con i principi del WoDT, attraverso la piattaforma Azure Digital Twin. A tale scopo è anche esposto un caso di studio pratico che comprende la prototipazione di un sistema di questo tipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questa tesi `e l’estensione della conoscenza di un argomento già ampliamente conosciuto e ricercato. Questo lavoro focalizza la propria attenzione su una nicchia dell’ampio mondo della virtualizzazione, del machine learning e delle tecniche di apprendimento parallelo. Nella prima parte verranno spiegati alcuni concetti teorici chiave per la virtualizzazione, ponendo una maggior attenzione verso argomenti di maggior importanza per questo lavoro. La seconda parte si propone di illustrare, in modo teorico, le tecniche usate nelle fasi di training di reti neurali. La terza parte, attraverso una parte progettuale, analizza le diverse tecniche individuate applicandole ad un ambiente containerizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pandemia da COVID-19 ha cambiato le nostre vite obbligandoci a vivere mesi di lockdown, distanziamento sociale ed uso delle mascherine. Il distanziamento sociale e l'uso delle mascherine, anche dopo la prima fase della pandemia, sono state le contromisure principali in quanto permettevano di limitare i contagi permettendo comunque alla gente di uscire di casa. Tutte queste contromisure hanno creato gravi danni all'economia del paese e alla vita personale dei cittadini. Dalla fase iniziale della pandemia si è capito che per gestirla al meglio era necessario effettuare il numero maggiore di tamponi possibili per monitorare al meglio la diffusione del virus ma ciò non era possibile in quanto non esistevano le tecnologie necessarie per testare milioni di persone al giorno. Da questa necessità sono nati i sistemi di Contact Tracing, sistemi che permettono di monitorare in modo anonimo e protetto i contatti sociali delle persone così da capire se sono entrate in contatto con persone infette dal COVID-19 e solo in quel caso effettuare un tampone in modo tale da verificare se sono stati contagiati o meno. Tutti i sistemi di Contact tracing sviluppati ad oggi hanno mostrato problemi relativi alla protezione dei dati, alla scarsa ed inefficace comunicazione e non hanno ridotto al meglio il numero di tamponi effettuati per rilevare realmente coloro che erano stati contagiati avendo quindi uno scarso utilizzo soprattutto a causa della poca fiducia degli utenti riguardo l'utilizzo dei loro dati ed al fatto che dovevano autodichiararsi positivi. Con questa tesi presenterò una nuova tecnica per effettuare il Contact Tracing che combina l'utilizzo del Group Testing all'utilizzo dell'IoT e delle reti per tracciare i contatti tra gli utenti ed il virus chiamata Asynchronous Contact Tracing. Mostrerò come è stato progettato e sviluppato e mostrerò le performance grazie a degli esperimenti reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questo lavoro di tesi consiste nell’analizzare la domanda che il matematico e logico inglese Alan Turing propose di considerare: “Can machines think?”. Il quesito, esaminato attraverso la formulazione del gioco dell’imitazione e ormai ricordato come Test di Turing, è talmente interessante da essere divenuto uno degli argomenti più discussi nell’ambito delle scienze cognitive, della filosofia della mente e dell’informatica. In particolare è stata fondata una disciplina, chiamata intelligenza artificiale o IA, che intende studiare e comprendere se e come un sistema informatico possa essere capace di simulare una mente umana e un suo tipico comportamento. Questa tesi presenta una disamina sull’intelligenza artificiale e sul Test di Turing. Dell’IA si prenderanno in esame alcune definizioni formali della disciplina, le teorie di intelligenza artificiale debole e forte, e in particolare l’esperimento mentale della Stanza Cinese, il machine learning, il deep learning e le reti neurali, alcuni loro esempi di implementazione in diversi ambiti e infine alcune questioni etiche relative all’IA. Successivamente verranno esaminati la descrizione del gioco dell’imitazione, le più importanti critiche ed obiezioni al test di Turing, una variante del test, chiamata Test di Turing Totale, il premio Loebner, le previsioni fatte dal matematico e alcuni tentativi di superamento del test, tra cui l’implementazione dei chatterbot ELIZA, ALICE ed Eugene Goostman. Saranno infine proposte delle conclusioni in merito al lavoro svolto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato vengono analizzati degli scenari orbitali per le comunicazioni interplanetarie che prevedono l’uso di un satellite relay. L’architettura "two leg" considerata permette di avere un data rate di comunicazione più elevato, utilizzando un veicolo spaziale relay che, attraverso un link ottico, riceve dati da una sonda dello spazio profondo (leg-1) e li trasmette in radiofrequenza verso la Terra (leg-2). Lo scopo dell’elaborato è analizzare diverse posizioni in cui si può collocare il satellite relay, tra cui orbita LEO, orbita GEO e punti lagrangiani, trovando per ognuno vantaggi e svantaggi che permettono di capire quale geometria sia la più efficiente. A tal proposito è stata fatta un’analisi degli angoli SDP e SPD per i pianeti Marte, Venere, Nettuno e Urano, che permette di confrontare il loro andamento in un arco di tempo di dieci anni. Infine, l'elaborato presenta uno studio volto ad analizzare i requisiti della progettazione del sistema ottico, affinché esso possa comunicare con una perdita minima di link availability dovuta alla luce solare; anche in questo caso sono stati messi a confronto diversi scenari orbitali in un periodo di tempo di cento anni per capire quale fosse il più vantaggioso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte della tesi analizza il cambiamento della dieta degli italiani nel corso dei decenni, a partire dagli anni del dopoguerra fino al periodo contemporaneo. Il passaggio da un periodo di estrema povertà al boom economico ha permesso ai cittadini di dare sempre più importanza alla qualità del cibo. Con la nascita e lo sviluppo della televisione il popolo ha avuto la possibilità di conoscere le ricette tradizionali di ogni parte dell'Italia, arrivando a costruire una forte identità nazionale legata al mondo della cucina. Le trasmissioni televisive si sono trasformate sia grazie al cambiamento della società e della mentalità degli italiani, sia grazie ai numerosi nuovi canali tematici che sono nati grazie alle reti privati; ad oggi esistono dunque programmi di intrattenimento, pedagogici e show di ogni tipo che mostrano la cucina in tutte le sue sfaccettature. Il cibo e l'alimentazione in televisione sono stati rappresentati anche attraverso gli spot: è stato analizzato come i marchi abbiano inizialmente cercato di rendere attraente un prodotto - anche attraverso l'uso di donne sensuali come volto delle campagne pubblicitarie - fino ad arrivare al voler fidelizzare gli acquirenti veicolando specifici messaggi e valori. Dall'analisi del format Dinner Club è stato dimostrato come nel periodo contemporaneo i programmi abbiano forme e strutture ibride, che possono mescolare il lato pedagogico, riscoprendo il territorio italiano e le sue tradizioni culinarie, la sfida e la competizione tra i concorrenti e la parte legata all'intrattenimento. Nell'ultimo capitolo è stato messo in evidenza come i cuochi, presentatori di queste trasmissioni, stiano diventando sempre più famosi. Sono presenti sia aspetti positivi che negativi riguardo la loro progressiva importanza all'interno della società italiana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio Simultaneous Location and Mapping (SLAM) consists of the simultaneous tracking of the target and estimation of the surrounding environment, to build a map and estimate the target movements within it. It is an increasingly exploited technique for automotive applications, in order to improve the localization of obstacles and the target relative movement with respect to them, for emergency situations, for example when it is necessary to explore (with a drone or a robot) environments with a limited visibility, or for personal radar applications, thanks to its versatility and cheapness. Until today, these systems were based on light detection and ranging (lidar) or visual cameras, high-accuracy and expensive approaches that are limited to specific environments and weather conditions. Instead, in case of smoke, fog or simply darkness, radar-based systems can operate exactly in the same way. In this thesis activity, the Fourier-Mellin algorithm is analyzed and implemented, to verify the applicability to Radio SLAM, in which the radar frames can be treated as images and the radar motion between consecutive frames can be covered with registration. Furthermore, a simplified version of that algorithm is proposed, in order to solve the problems of the Fourier-Mellin algorithm when working with real radar images and improve the performance. The INRAS RBK2, a MIMO 2x16 mmWave radar, is used for experimental acquisitions, consisting of multiple tests performed in Lab-E of the Cesena Campus, University of Bologna. The different performances of Fourier-Mellin and its simplified version are compared also with the MatchScan algorithm, a classic algorithm for SLAM systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent years have witnessed an increasing evolution of wireless mobile networks, with an intensive research work aimed at developing new efficient techniques for the future 6G standards. In the framework of massive machine-type communication (mMTC), emerging Internet of Things (IoT) applications, in which sensor nodes and smart devices transmit unpredictably and sporadically short data packets without coordination, are gaining an increasing interest. In this work, new medium access control (MAC) protocols for massive IoT, capable of supporting a non-instantaneous feedback from the receiver, are studied. These schemes guarantee an high time for the acknowledgment (ACK) messages to the base station (BS), without a significant performance loss. Then, an error floor analysis of the considered protocols is performed in order to obtain useful guidelines for the system design. Furthermore, non-orthogonal multiple access (NOMA) coded random access (CRA) schemes based on power domain are here developed. The introduction of power diversity permits to solve more packet collision at the physical (PHY) layer, with an important reduction of the packet loss rate (PLR) in comparison to the number of active users in the system. The proposed solutions aim to improve the actual grant-free protocols, respecting the stringent constraints of scalability, reliability and latency requested by 6G networks.