988 resultados para telecomunicazioni reti OpenFlow SDN NFV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Detection, localization and tracking of non-collaborative objects moving inside an area is of great interest to many surveillance applications. An ultra- wideband (UWB) multistatic radar is considered as a good infrastructure for such anti-intruder systems, due to the high range resolution provided by the UWB impulse-radio and the spatial diversity achieved with a multistatic configuration. Detection of targets, which are typically human beings, is a challenging task due to reflections from unwanted objects in the area, shadowing, antenna cross-talks, low transmit power, and the blind zones arised from intrinsic peculiarities of UWB multistatic radars. Hence, we propose more effective detection, localization, as well as clutter removal techniques for these systems. However, the majority of the thesis effort is devoted to the tracking phase, which is an essential part for improving the localization accuracy, predicting the target position and filling out the missed detections. Since UWB radars are not linear Gaussian systems, the widely used tracking filters, such as the Kalman filter, are not expected to provide a satisfactory performance. Thus, we propose the Bayesian filter as an appropriate candidate for UWB radars. In particular, we develop tracking algorithms based on particle filtering, which is the most common approximation of Bayesian filtering, for both single and multiple target scenarios. Also, we propose some effective detection and tracking algorithms based on image processing tools. We evaluate the performance of our proposed approaches by numerical simulations. Moreover, we provide experimental results by channel measurements for tracking a person walking in an indoor area, with the presence of a significant clutter. We discuss the existing practical issues and address them by proposing more robust algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi tratta dell’amplificatore di potenza (PA–Power Amplifier) operante in classe E. Si tratta di un convertitore DC/AC ad elevato rendimento che può trovare impiego in numerose applicazioni in cui il problema della generazione di calore o la necessità di non sprecare energia sono particolarmente stringenti (ad esempio apparati per cui non è previsto un impianto di raffreddamento e/o apparati alimentati a batteria). L’elevato rendimento di un amplificatore operante in classe E deriva dalle specifiche forme d’onda ai capi del dispositivo attivo impiegato, tali per cui la perdita di commutazione durante la fase di accensione dello switch diviene pressoché trascurabile (Zero-Voltage-Switching e Zero-Derivative-Voltage Turn-ON). Il prezzo da pagare per ottenere queste benefiche forme d’onda è quello di avere un valore di cresta della tensione sul dispositivo che commuta assai più elevato del valore medio, coincidente con la tensione di alimentazione DC. In generale si stima una tensione di picco fra le 3 e le 5 volte più elevata della tensione DC, in funzione del Duty-Cycle e dell’assorbimento di corrente sul carico. Occorre poi tenere presente che in condizioni dinamiche (ad esempio qualora si collegasse direttamente l’amplificatore all’alimentazione) potrebbero innescarsi dei transitori tali per cui la tensione di picco ecceda anche il range suddetto. Per questo motivo è bene porre un limite alla massima tensione di picco adottando dei circuiti di protezione del transistore al fine di evitare la sua distruzione per limiti legati alla tensione di breakdown. Questi circuiti sono denominati clamper: in questa tesi valuteremo le modalità con cui si può implementare tale protezione; valuteremo, inoltre, i vantaggi e gli svantaggi derivanti dall’impiego di tali circuiti. Questi clamper sono prevalentemente di tipo dissipativo (Zener); nel corso della tesi si è studiato la realizzazione di un clamper rigenerativo che utilizza un trasformatore, ma si è constatata la irrealizzabilità fisica a causa della inevitabile presenza della induttanza dispersa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During the last few decades an unprecedented technological growth has been at the center of the embedded systems design paramount, with Moore’s Law being the leading factor of this trend. Today in fact an ever increasing number of cores can be integrated on the same die, marking the transition from state-of-the-art multi-core chips to the new many-core design paradigm. Despite the extraordinarily high computing power, the complexity of many-core chips opens the door to several challenges. As a result of the increased silicon density of modern Systems-on-a-Chip (SoC), the design space exploration needed to find the best design has exploded and hardware designers are in fact facing the problem of a huge design space. Virtual Platforms have always been used to enable hardware-software co-design, but today they are facing with the huge complexity of both hardware and software systems. In this thesis two different research works on Virtual Platforms are presented: the first one is intended for the hardware developer, to easily allow complex cycle accurate simulations of many-core SoCs. The second work exploits the parallel computing power of off-the-shelf General Purpose Graphics Processing Units (GPGPUs), with the goal of an increased simulation speed. The term Virtualization can be used in the context of many-core systems not only to refer to the aforementioned hardware emulation tools (Virtual Platforms), but also for two other main purposes: 1) to help the programmer to achieve the maximum possible performance of an application, by hiding the complexity of the underlying hardware. 2) to efficiently exploit the high parallel hardware of many-core chips in environments with multiple active Virtual Machines. This thesis is focused on virtualization techniques with the goal to mitigate, and overtake when possible, some of the challenges introduced by the many-core design paradigm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spectrum sensing su piattaforma software defined radio: Implementazione e test su stick dvb-t

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless Sensor Networks (WSNs) offer a new solution for distributed monitoring, processing and communication. First of all, the stringent energy constraints to which sensing nodes are typically subjected. WSNs are often battery powered and placed where it is not possible to recharge or replace batteries. Energy can be harvested from the external environment but it is a limited resource that must be used efficiently. Energy efficiency is a key requirement for a credible WSNs design. From the power source's perspective, aggressive energy management techniques remain the most effective way to prolong the lifetime of a WSN. A new adaptive algorithm will be presented, which minimizes the consumption of wireless sensor nodes in sleep mode, when the power source has to be regulated using DC-DC converters. Another important aspect addressed is the time synchronisation in WSNs. WSNs are used for real-world applications where physical time plays an important role. An innovative low-overhead synchronisation approach will be presented, based on a Temperature Compensation Algorithm (TCA). The last aspect addressed is related to self-powered WSNs with Energy Harvesting (EH) solutions. Wireless sensor nodes with EH require some form of energy storage, which enables systems to continue operating during periods of insufficient environmental energy. However, the size of the energy storage strongly restricts the use of WSNs with EH in real-world applications. A new approach will be presented, which enables computation to be sustained during intermittent power supply. The discussed approaches will be used for real-world WSN applications. The first presented scenario is related to the experience gathered during an European Project (3ENCULT Project), regarding the design and implementation of an innovative network for monitoring heritage buildings. The second scenario is related to the experience with Telecom Italia, regarding the design of smart energy meters for monitoring the usage of household's appliances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis investigates interactive scene reconstruction and understanding using RGB-D data only. Indeed, we believe that depth cameras will still be in the near future a cheap and low-power 3D sensing alternative suitable for mobile devices too. Therefore, our contributions build on top of state-of-the-art approaches to achieve advances in three main challenging scenarios, namely mobile mapping, large scale surface reconstruction and semantic modeling. First, we will describe an effective approach dealing with Simultaneous Localization And Mapping (SLAM) on platforms with limited resources, such as a tablet device. Unlike previous methods, dense reconstruction is achieved by reprojection of RGB-D frames, while local consistency is maintained by deploying relative bundle adjustment principles. We will show quantitative results comparing our technique to the state-of-the-art as well as detailed reconstruction of various environments ranging from rooms to small apartments. Then, we will address large scale surface modeling from depth maps exploiting parallel GPU computing. We will develop a real-time camera tracking method based on the popular KinectFusion system and an online surface alignment technique capable of counteracting drift errors and closing small loops. We will show very high quality meshes outperforming existing methods on publicly available datasets as well as on data recorded with our RGB-D camera even in complete darkness. Finally, we will move to our Semantic Bundle Adjustment framework to effectively combine object detection and SLAM in a unified system. Though the mathematical framework we will describe does not restrict to a particular sensing technology, in the experimental section we will refer, again, only to RGB-D sensing. We will discuss successful implementations of our algorithm showing the benefit of a joint object detection, camera tracking and environment mapping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'energia solare rientra nel gruppo delle energie rinnovabili, ovvero che provengono da una fonte il cui utilizzo attuale non ne pregiudica la disponibilità nel futuro. L'energia solare ha molti vantaggi, poiché è inesauribile ed è una risorsa d'immediata disponibilità perché giunge attraverso i raggi del sole. La conversione fotovoltaica sfrutta il meccanismo di generazione di carica elettrica prodotto dall'interazione della radiazione luminosa su di un materiale semiconduttore. La necessità di creare energia riducendo al minimo l'impatto ambientale ed il contemporaneo aumento del prezzo di fonti fossili come ad esempio il petrolio ed il carbone (senza trascurare il fatto che le riserve di essi sono, di fatto, esauribili) ha portato un aumento considerevole della produzione di energia elettrica tramite conversione fotovoltaica. Allo stato attuale dell'economia e dei mercati, sebbene il settore fotovoltaico sia in forte crescita, non è esente da un parametro che ne descrive le caratteristiche economiche ed energetiche, il cosiddetto rapporto costo/efficienza. Per efficienza, si intende la quantità di energia elettrica prodotta rispetto alla potenza solare incidente per irraggiamento, mentre per costo si intende quello sostenuto per la costruzione della cella. Ridurre il rapporto costo/efficienza equivale a cercare di ottenere un'efficienza maggiore mantenendo inalterati i costi, oppure raggiungere una medio-alta efficienza ma ridurre in maniera significativa la spesa di fabbricazione. Quindi, nasce la necessità di studiare e sviluppare tecnologie di celle solari all'avanguardia, che adottino accorgimenti tecnologici tali per cui, a parità di efficienza di conversione, il costo di produzione della cella sia il più basso possibile. L'efficienza dei dispositivi fotovoltaici è limitata da perdite ottiche, di ricombinazione di carica e da resistenze parassite che dipendono da diversi fattori, tra i quali, le proprietà ottiche e di trasporto di carica dei materiali, l'architettura della cella e la capacità di intrappolare la luce da parte del dispositivo. Per diminuire il costo della cella, la tecnologia fotovoltaica ha cercato di ridurre il volume di materiale utilizzato (in genere semiconduttore), dal momento in cui si ritiene che il 40% del costo di una cella solare sia rappresentato dal materiale. Il trend che questo approccio comporta è quello di spingersi sempre di più verso spessori sottili, come riportato dalla International Technology Roadmap for Photovoltaic, oppure ridurre il costo della materia prima o del processo. Tra le architetture avanzate di fabbricazione si analizzano le Passivated Emitter and Rear Cell-PERC e le Metal Wrap Through-MWT Cell, e si studia, attraverso simulazioni numeriche TCAD, come parametri geometrici e di drogaggio vadano ad influenzare le cosiddette figure di merito di una cella solare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. Lo scopo che mi propongo con questa tesi è quello quindi di cercare di fare chiarezza in quello che è il mondo del Cloud computing, focalizzandomi particolarmente su quelli che sono i design pattern più utilizzati nello sviluppo di applicazioni di tipo cloud e presentando quelle che oggi rappresentano le principali tecnologie che vengono utilizzate sia in ambito professionale, che in ambito di ricerca, per realizzare le applicazioni cloud, concentrandomi in maniera particolare su Microsoft Orleans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente studio è stato affrontato il problema di effettuare l’acquisizione di impronte digitali mediante la fotocamera di uno Smartphone. Si tratta di un’applicazione potenzialmente molto interessante in quanto l’utilizzo di uno Smartphone renderebbe molto più semplice l’acquisizione delle impronte, non essendo necessari dispositivi specifici come, ad esempio, scanner d’impronte digitali. D’altra parte, l’utilizzo di una fotocamera per l’acquisizione delle impronte introduce diverse problematiche, fra cui individuare l’area del dito corrispondente all'impronta, valutare la qualità di un'immagine e determinare quali minuzie estratte corrispondano effettivamente a quelle di interesse. Questo studio conferma la fattibilità di un sistema del genere che risulta essere in grado di fornire buone prestazioni di riconoscimento biometrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bitcoin è una moneta digitale decentralizzata e parzialmente anonima. Viene scambiata tramite un software open source che utilizza la crittografia per garantire l'integrità e l'autenticità delle transazioni. Permette di inviare denaro digitale in maniera rapida, sicura ed economica attraverso Internet. La tesi si propone di analizzarne il fenomeno, partendo dalla sua storia fino alle possibili evoluzioni future. Vengono introdotte le basi di crittografia per comprenderne i concetti ed i meccanismi di funzionamento. In seguito viene analizzata l'implementazione del software e vengono discussi i principali vantaggi e criticità. La tesi esplora le possibili conseguenze di una sua adozione dal punto di vista economico e politico, e le innovazioni che potrebbe portare al sistema finanziario. Vengono infine mostrati alcuni esempi di software ispirati a Bitcoin che ne estendono ed ampliano le funzionalità nell'ambito dei sistemi distribuiti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel CGR lo stesso cammino può essere assegnato ad una quantità di bundle tale da superare la capacità di uno o più contatti che lo compongono. Lo scopo del mio lavoro di tesi è stato quello di implementare una funzionalità aggiuntiva nel CGR, chiamata Overbooking Management, in grado, se attivata, di rilevare e gestire tale problematica, migliorando dove possibile l’efficienza in termini di tempi di consegna dei dati e di sfruttamento delle risorse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The idea of balancing the resources spent in the acquisition and encoding of natural signals strictly to their intrinsic information content has interested nearly a decade of research under the name of compressed sensing. In this doctoral dissertation we develop some extensions and improvements upon this technique's foundations, by modifying the random sensing matrices on which the signals of interest are projected to achieve different objectives. Firstly, we propose two methods for the adaptation of sensing matrix ensembles to the second-order moments of natural signals. These techniques leverage the maximisation of different proxies for the quantity of information acquired by compressed sensing, and are efficiently applied in the encoding of electrocardiographic tracks with minimum-complexity digital hardware. Secondly, we focus on the possibility of using compressed sensing as a method to provide a partial, yet cryptanalysis-resistant form of encryption; in this context, we show how a random matrix generation strategy with a controlled amount of perturbations can be used to distinguish between multiple user classes with different quality of access to the encrypted information content. Finally, we explore the application of compressed sensing in the design of a multispectral imager, by implementing an optical scheme that entails a coded aperture array and Fabry-Pérot spectral filters. The signal recoveries obtained by processing real-world measurements show promising results, that leave room for an improvement of the sensing matrix calibration problem in the devised imager.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Self-organising pervasive ecosystems of devices are set to become a major vehicle for delivering infrastructure and end-user services. The inherent complexity of such systems poses new challenges to those who want to dominate it by applying the principles of engineering. The recent growth in number and distribution of devices with decent computational and communicational abilities, that suddenly accelerated with the massive diffusion of smartphones and tablets, is delivering a world with a much higher density of devices in space. Also, communication technologies seem to be focussing on short-range device-to-device (P2P) interactions, with technologies such as Bluetooth and Near-Field Communication gaining greater adoption. Locality and situatedness become key to providing the best possible experience to users, and the classic model of a centralised, enormously powerful server gathering and processing data becomes less and less efficient with device density. Accomplishing complex global tasks without a centralised controller responsible of aggregating data, however, is a challenging task. In particular, there is a local-to-global issue that makes the application of engineering principles challenging at least: designing device-local programs that, through interaction, guarantee a certain global service level. In this thesis, we first analyse the state of the art in coordination systems, then motivate the work by describing the main issues of pre-existing tools and practices and identifying the improvements that would benefit the design of such complex software ecosystems. The contribution can be divided in three main branches. First, we introduce a novel simulation toolchain for pervasive ecosystems, designed for allowing good expressiveness still retaining high performance. Second, we leverage existing coordination models and patterns in order to create new spatial structures. Third, we introduce a novel language, based on the existing ``Field Calculus'' and integrated with the aforementioned toolchain, designed to be usable for practical aggregate programming.