988 resultados para telecomunicazioni reti OpenFlow SDN NFV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questa tesi `e l’estensione della conoscenza di un argomento già ampliamente conosciuto e ricercato. Questo lavoro focalizza la propria attenzione su una nicchia dell’ampio mondo della virtualizzazione, del machine learning e delle tecniche di apprendimento parallelo. Nella prima parte verranno spiegati alcuni concetti teorici chiave per la virtualizzazione, ponendo una maggior attenzione verso argomenti di maggior importanza per questo lavoro. La seconda parte si propone di illustrare, in modo teorico, le tecniche usate nelle fasi di training di reti neurali. La terza parte, attraverso una parte progettuale, analizza le diverse tecniche individuate applicandole ad un ambiente containerizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pandemia da COVID-19 ha cambiato le nostre vite obbligandoci a vivere mesi di lockdown, distanziamento sociale ed uso delle mascherine. Il distanziamento sociale e l'uso delle mascherine, anche dopo la prima fase della pandemia, sono state le contromisure principali in quanto permettevano di limitare i contagi permettendo comunque alla gente di uscire di casa. Tutte queste contromisure hanno creato gravi danni all'economia del paese e alla vita personale dei cittadini. Dalla fase iniziale della pandemia si è capito che per gestirla al meglio era necessario effettuare il numero maggiore di tamponi possibili per monitorare al meglio la diffusione del virus ma ciò non era possibile in quanto non esistevano le tecnologie necessarie per testare milioni di persone al giorno. Da questa necessità sono nati i sistemi di Contact Tracing, sistemi che permettono di monitorare in modo anonimo e protetto i contatti sociali delle persone così da capire se sono entrate in contatto con persone infette dal COVID-19 e solo in quel caso effettuare un tampone in modo tale da verificare se sono stati contagiati o meno. Tutti i sistemi di Contact tracing sviluppati ad oggi hanno mostrato problemi relativi alla protezione dei dati, alla scarsa ed inefficace comunicazione e non hanno ridotto al meglio il numero di tamponi effettuati per rilevare realmente coloro che erano stati contagiati avendo quindi uno scarso utilizzo soprattutto a causa della poca fiducia degli utenti riguardo l'utilizzo dei loro dati ed al fatto che dovevano autodichiararsi positivi. Con questa tesi presenterò una nuova tecnica per effettuare il Contact Tracing che combina l'utilizzo del Group Testing all'utilizzo dell'IoT e delle reti per tracciare i contatti tra gli utenti ed il virus chiamata Asynchronous Contact Tracing. Mostrerò come è stato progettato e sviluppato e mostrerò le performance grazie a degli esperimenti reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questo lavoro di tesi consiste nell’analizzare la domanda che il matematico e logico inglese Alan Turing propose di considerare: “Can machines think?”. Il quesito, esaminato attraverso la formulazione del gioco dell’imitazione e ormai ricordato come Test di Turing, è talmente interessante da essere divenuto uno degli argomenti più discussi nell’ambito delle scienze cognitive, della filosofia della mente e dell’informatica. In particolare è stata fondata una disciplina, chiamata intelligenza artificiale o IA, che intende studiare e comprendere se e come un sistema informatico possa essere capace di simulare una mente umana e un suo tipico comportamento. Questa tesi presenta una disamina sull’intelligenza artificiale e sul Test di Turing. Dell’IA si prenderanno in esame alcune definizioni formali della disciplina, le teorie di intelligenza artificiale debole e forte, e in particolare l’esperimento mentale della Stanza Cinese, il machine learning, il deep learning e le reti neurali, alcuni loro esempi di implementazione in diversi ambiti e infine alcune questioni etiche relative all’IA. Successivamente verranno esaminati la descrizione del gioco dell’imitazione, le più importanti critiche ed obiezioni al test di Turing, una variante del test, chiamata Test di Turing Totale, il premio Loebner, le previsioni fatte dal matematico e alcuni tentativi di superamento del test, tra cui l’implementazione dei chatterbot ELIZA, ALICE ed Eugene Goostman. Saranno infine proposte delle conclusioni in merito al lavoro svolto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato vengono analizzati degli scenari orbitali per le comunicazioni interplanetarie che prevedono l’uso di un satellite relay. L’architettura "two leg" considerata permette di avere un data rate di comunicazione più elevato, utilizzando un veicolo spaziale relay che, attraverso un link ottico, riceve dati da una sonda dello spazio profondo (leg-1) e li trasmette in radiofrequenza verso la Terra (leg-2). Lo scopo dell’elaborato è analizzare diverse posizioni in cui si può collocare il satellite relay, tra cui orbita LEO, orbita GEO e punti lagrangiani, trovando per ognuno vantaggi e svantaggi che permettono di capire quale geometria sia la più efficiente. A tal proposito è stata fatta un’analisi degli angoli SDP e SPD per i pianeti Marte, Venere, Nettuno e Urano, che permette di confrontare il loro andamento in un arco di tempo di dieci anni. Infine, l'elaborato presenta uno studio volto ad analizzare i requisiti della progettazione del sistema ottico, affinché esso possa comunicare con una perdita minima di link availability dovuta alla luce solare; anche in questo caso sono stati messi a confronto diversi scenari orbitali in un periodo di tempo di cento anni per capire quale fosse il più vantaggioso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte della tesi analizza il cambiamento della dieta degli italiani nel corso dei decenni, a partire dagli anni del dopoguerra fino al periodo contemporaneo. Il passaggio da un periodo di estrema povertà al boom economico ha permesso ai cittadini di dare sempre più importanza alla qualità del cibo. Con la nascita e lo sviluppo della televisione il popolo ha avuto la possibilità di conoscere le ricette tradizionali di ogni parte dell'Italia, arrivando a costruire una forte identità nazionale legata al mondo della cucina. Le trasmissioni televisive si sono trasformate sia grazie al cambiamento della società e della mentalità degli italiani, sia grazie ai numerosi nuovi canali tematici che sono nati grazie alle reti privati; ad oggi esistono dunque programmi di intrattenimento, pedagogici e show di ogni tipo che mostrano la cucina in tutte le sue sfaccettature. Il cibo e l'alimentazione in televisione sono stati rappresentati anche attraverso gli spot: è stato analizzato come i marchi abbiano inizialmente cercato di rendere attraente un prodotto - anche attraverso l'uso di donne sensuali come volto delle campagne pubblicitarie - fino ad arrivare al voler fidelizzare gli acquirenti veicolando specifici messaggi e valori. Dall'analisi del format Dinner Club è stato dimostrato come nel periodo contemporaneo i programmi abbiano forme e strutture ibride, che possono mescolare il lato pedagogico, riscoprendo il territorio italiano e le sue tradizioni culinarie, la sfida e la competizione tra i concorrenti e la parte legata all'intrattenimento. Nell'ultimo capitolo è stato messo in evidenza come i cuochi, presentatori di queste trasmissioni, stiano diventando sempre più famosi. Sono presenti sia aspetti positivi che negativi riguardo la loro progressiva importanza all'interno della società italiana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio Simultaneous Location and Mapping (SLAM) consists of the simultaneous tracking of the target and estimation of the surrounding environment, to build a map and estimate the target movements within it. It is an increasingly exploited technique for automotive applications, in order to improve the localization of obstacles and the target relative movement with respect to them, for emergency situations, for example when it is necessary to explore (with a drone or a robot) environments with a limited visibility, or for personal radar applications, thanks to its versatility and cheapness. Until today, these systems were based on light detection and ranging (lidar) or visual cameras, high-accuracy and expensive approaches that are limited to specific environments and weather conditions. Instead, in case of smoke, fog or simply darkness, radar-based systems can operate exactly in the same way. In this thesis activity, the Fourier-Mellin algorithm is analyzed and implemented, to verify the applicability to Radio SLAM, in which the radar frames can be treated as images and the radar motion between consecutive frames can be covered with registration. Furthermore, a simplified version of that algorithm is proposed, in order to solve the problems of the Fourier-Mellin algorithm when working with real radar images and improve the performance. The INRAS RBK2, a MIMO 2x16 mmWave radar, is used for experimental acquisitions, consisting of multiple tests performed in Lab-E of the Cesena Campus, University of Bologna. The different performances of Fourier-Mellin and its simplified version are compared also with the MatchScan algorithm, a classic algorithm for SLAM systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent years have witnessed an increasing evolution of wireless mobile networks, with an intensive research work aimed at developing new efficient techniques for the future 6G standards. In the framework of massive machine-type communication (mMTC), emerging Internet of Things (IoT) applications, in which sensor nodes and smart devices transmit unpredictably and sporadically short data packets without coordination, are gaining an increasing interest. In this work, new medium access control (MAC) protocols for massive IoT, capable of supporting a non-instantaneous feedback from the receiver, are studied. These schemes guarantee an high time for the acknowledgment (ACK) messages to the base station (BS), without a significant performance loss. Then, an error floor analysis of the considered protocols is performed in order to obtain useful guidelines for the system design. Furthermore, non-orthogonal multiple access (NOMA) coded random access (CRA) schemes based on power domain are here developed. The introduction of power diversity permits to solve more packet collision at the physical (PHY) layer, with an important reduction of the packet loss rate (PLR) in comparison to the number of active users in the system. The proposed solutions aim to improve the actual grant-free protocols, respecting the stringent constraints of scalability, reliability and latency requested by 6G networks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Associare nomi propri a volti di persona è un compito importante, fondamentale nella quotidianità di tutti i giorni. Nonostante questa operazione avvenga quasi sempre in maniera automatica, essa coinvolge una rete neurale complessa ed articolata. Diversi studi offrono strategie che possono aiutare in questo compito; in particolare, è stato riportato che rafforzare i nomi con stimoli cross-modali, ossia presentando più input sensoriali esterni contemporaneamente, può costituire un vantaggio per il recupero in memoria dei nomi stessi. Lo scopo di questa tesi è stato quello di svolgere un’analisi di sensibilità tramite un modello neuro-computazionale su MatLab di ispirazione biologica. Nello specifico sono stati considerati due macro-network: uno per i volti, l’altro per i nomi propri; quest’ultimo in particolare a sua volta si compone di tre aree uni-sensoriali, ciascuna delle quali corrisponde ad un modo specifico con cui codificare un nome (traccia audio, lip reading, name tag). Questi network sono stati dunque implementati attraverso una configurazione articolata su due strati: si potrebbe infatti pensare alla fase di addestramento, basata su un algoritmo hebbiano, come un primo layer del processo, seguito così da un secondo layer, dato invece dalla fase di utilizzo. Dalle simulazioni svolte sembra emergere che addestrare in maniera efficiente le connessioni fra le aree uni-sensoriali dei nomi, ricreando così un'integrazione multi-sensoriale, sia un fattore fondamentale per favorire non solo il ricordo di un nome in sé, ma anche processi mnemonici-associativi che coinvolgono anche lo stimolo visivo di un volto. Le evidenze prodotte risultano inoltre qualitativamente coerenti con analoghi esperimenti in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il machine learning negli ultimi anni ha acquisito una crescente popolarità nell’ambito della ricerca scientifica e delle sue applicazioni. Lo scopo di questa tesi è stato quello di studiare il machine learning nei suoi aspetti generali e applicarlo a problemi di computer vision. La tesi ha affrontato le difficoltà del dover spiegare dal punto di vista teorico gli algoritmi alla base delle reti neurali convoluzionali e ha successivamente trattato due problemi concreti di riconoscimento immagini: il dataset MNIST (immagini di cifre scritte a mano) e un dataset che sarà chiamato ”MELANOMA dataset” (immagini di melanomi e nevi sani). Utilizzando le tecniche spiegate nella sezione teorica si sono riusciti ad ottenere risultati soddifacenti per entrambi i dataset ottenendo una precisione del 98% per il MNIST e del 76.8% per il MELANOMA dataset

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasformatore è uno degli elementi più importanti di una rete di trasmissione; essendo il tramite fra reti di alta e media tensione, il suo corretto funzionamento garantisce l’alimentazione di tutti i dispositivi e carichi connessi alla linea. Oltre a questo, il trasformatore è anche l’elemento più costoso di tutta la linea elettrica; la sua manutenzione è di vitale importanza per evitare costi elevati per la sostituzione e disagi lungo la linea. Qui entra in gioco il ruolo della diagnostica; attraverso misure periodiche e mirate sul trasformatore è possibile agire tempestivamente ed evitare tutti i fenomeni precedentemente elencati. Nell’elaborato si tratterà l’analisi del trasformatore elettrico trifase durante il suo funzionamento, evidenziando i sottocomponenti e le rispettive criticità; inoltre, verranno mostrate le varie tecniche di diagnostica del trasformatore, in modo tale da poter estrarre un indice legato allo stato di vita, ossia l’Health Index. Ad oggi esistono diverse tecniche di approccio al calcolo dell’Health Index, quella che viene presentata è una tecnica del tutto innovativa, ossia sviluppare una rete neurale artificiale (Artificial Neural Network, ANN) in grado di prevedere lo stato del trasformatore basandosi su misure effettuate sullo stesso. Dunque, verranno presentante le basi per lo sviluppo di una rete neurale, partendo dall’analisi e formattazione dei dati, fino alla fase di ottimizzazione delle prestazioni. Infine, si attraverseranno tutte le fasi intermedie di realizzazione del progetto da cui l’elaborato prende il titolo; osservando l’evoluzione di una rete neurale che si trasforma da un programma scritto in ambiente Python a una applicazione pronta all’uso per gli operatori durante le operazioni di diagnostica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All’interno dell'elaborato verrà approfondito il Servizio Idrico Integrato, in particolare saranno descritti i processi di trattamento dell’acqua dalla captazione fino al rilascio in ambiente e introdotte le Autorità che regolano il Servizio Idrico con la relativa normativa. In particolare, oggetto di questa tesi è l’applicativo Geocall, implementato dalla Direzione Acqua del Gruppo Hera S.p.A. nel 2018, a supporto dei processi di Pronto Intervento e di Conduzione e Manutenzione delle reti e impianti idrici. In seguito alla descrizione delle modalità di gestione di questi processi da parte del Gruppo prima dell’implementazione di Geocall, la piattaforma, messa a confronto con gli strumenti a disposizione del Gruppo prima della sua introduzione, verrà approfondita nelle sue applicazioni e nelle sue funzionalità all’interno dei processi coinvolti dall’analisi, con l’obbiettivo di mettere in luce le differenze con le modalità di gestione passate e in particolare i vantaggi e gli eventuali svantaggi ottenuti con l’utilizzo del nuovo software.