77 resultados para Internet-of-Things, Wireless Sensor Network, CoAP
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
Negli ultimi 50 anni Internet è passata da una piccola rete di ricerca, formata da pochi nodi, ad un’infrastruttura globale capace di connettere più di un milione di utenti. La progressiva miniaturizzazione e la riduzione di costi di produzione dei dispositivi elettronici, permette, tuttora, l’estensione della rete a una nuova dimensione: gli oggetti intelligenti. In questi scenari dove le risorse di rete sono spesso proibitive o la mobilità dei nodi è una caratteristica comune, è necessario che sia garantita forte robustezza a transitori di connessione. Lo dimostra uno studio precedente riguardo ad un applicativo d'agricoltura di precisione denominato Agri-Eagle. In esso vengono confrontate due diverse implementazioni utilizzando il framework SMART M3 e MQTT. Il lavoro di tesi in esame ne estende le considerazioni ed esplora vari metodi per conferire robustezza ad applicazioni sviluppati su SMART-M3. Verrà studiata la funzionalità di Lastwill e Testament proprie di MQTT e se ne tenterà una trasposizione nel mondo semantico. Infine verrà modificato il meccanismo di sottoscrizione in modo da renderlo più robusto a cadute di connessione.
Resumo:
La pandemia da COVID-19 ha cambiato le nostre vite obbligandoci a vivere mesi di lockdown, distanziamento sociale ed uso delle mascherine. Il distanziamento sociale e l'uso delle mascherine, anche dopo la prima fase della pandemia, sono state le contromisure principali in quanto permettevano di limitare i contagi permettendo comunque alla gente di uscire di casa. Tutte queste contromisure hanno creato gravi danni all'economia del paese e alla vita personale dei cittadini. Dalla fase iniziale della pandemia si è capito che per gestirla al meglio era necessario effettuare il numero maggiore di tamponi possibili per monitorare al meglio la diffusione del virus ma ciò non era possibile in quanto non esistevano le tecnologie necessarie per testare milioni di persone al giorno. Da questa necessità sono nati i sistemi di Contact Tracing, sistemi che permettono di monitorare in modo anonimo e protetto i contatti sociali delle persone così da capire se sono entrate in contatto con persone infette dal COVID-19 e solo in quel caso effettuare un tampone in modo tale da verificare se sono stati contagiati o meno. Tutti i sistemi di Contact tracing sviluppati ad oggi hanno mostrato problemi relativi alla protezione dei dati, alla scarsa ed inefficace comunicazione e non hanno ridotto al meglio il numero di tamponi effettuati per rilevare realmente coloro che erano stati contagiati avendo quindi uno scarso utilizzo soprattutto a causa della poca fiducia degli utenti riguardo l'utilizzo dei loro dati ed al fatto che dovevano autodichiararsi positivi. Con questa tesi presenterò una nuova tecnica per effettuare il Contact Tracing che combina l'utilizzo del Group Testing all'utilizzo dell'IoT e delle reti per tracciare i contatti tra gli utenti ed il virus chiamata Asynchronous Contact Tracing. Mostrerò come è stato progettato e sviluppato e mostrerò le performance grazie a degli esperimenti reali.
Resumo:
Wireless sensor networks can transform our buildings in smart environments, improving comfort, energy efficiency and safety. Today however, wireless sensor networks are not considered reliable enough for being deployed on large scale. In this thesis, we study the main failure causes for wireless sensor networks, the existing solutions to improve reliability and investigate the possibility to implement self-diagnosis through power consumption measurements on the sensor nodes. Especially, we focus our interest on faults that generate in-range errors: those are wrong readings but belong to the range of the sensor and can therefore be missed by external observers. Using a wireless sensor network deployed in the R\&D building of NXP at the High Tech Campus of Eindhoven, we performed a power consumption characterization of the Wireless Autonomous Sensor (WAS), and studied through some experiments the effect that faults have in the power consumption of the sensor.
Resumo:
This thesis regards the Wireless Sensor Network (WSN), as one of the most important technologies for the twenty-first century and the implementation of different packet correcting erasure codes to cope with the ”bursty” nature of the transmission channel and the possibility of packet losses during the transmission. The limited battery capacity of each sensor node makes the minimization of the power consumption one of the primary concerns in WSN. Considering also the fact that in each sensor node the communication is considerably more expensive than computation, this motivates the core idea to invest computation within the network whenever possible to safe on communication costs. The goal of the research was to evaluate a parameter, for example the Packet Erasure Ratio (PER), that permit to verify the functionality and the behavior of the created network, validate the theoretical expectations and evaluate the convenience of introducing the recovery packet techniques using different types of packet erasure codes in different types of networks. Thus, considering all the constrains of energy consumption in WSN, the topic of this thesis is to try to minimize it by introducing encoding/decoding algorithms in the transmission chain in order to prevent the retransmission of the erased packets through the Packet Erasure Channel and save the energy used for each retransmitted packet. In this way it is possible extend the lifetime of entire network.
Resumo:
This dissertation deals with the development of a project concerning a demonstration in the scope of the Supply Chain 6 of the Internet of Energy (IoE) project: the Remote Monitoring Emulator, which bears my personal contribution in several sections. IoE is a project of international relevance, that means to establish an interoperability standard as regards the electric power production and utilization infrastructure, using Smart Space platforms. The future perspectives of IoE have to do with a platform for electrical power trade-of, the Smart Grid, whose energy is produced by decentralized renewable sources and whose services are exploited primarily according to the Internet of Things philosophy. The main consumers of this kind of smart technology will be Smart Houses (that is to say, buildings controlled by an autonomous system for electrical energy management that is interoperable with the Smart Grid) and Electric Mobility, that is a smart and automated management regarding movement and, overall, recharging of electrical vehicles. It is precisely in the latter case study that the project Remote Monitoring Emulator takes place. It consists in the development of a simulated platform for the management of an electrical vehicle recharging in a city. My personal contribution to this project lies in development and modeling of the simulation platform, of its counterpart in a mobile application and implementation of a city service prototype. This platform shall, ultimately, make up a demonstrator system exploiting the same device which a real user, inside his vehicle, would use. The main requirements that this platform shall satisfy will be interoperability, expandability and relevance to standards, as it needs to communicate with other development groups and to effectively respond to internal changes that can affect IoE.
Resumo:
Con l’avvento dell’Industry 4.0, l’utilizzo dei dispositivi Internet of Things (IoT) è in continuo aumento. Le aziende stanno spingendo sempre più verso l’innovazione, andando ad introdurre nuovi metodi in grado di rinnovare sistemi IoT esistenti e crearne di nuovi, con prestazioni all’avanguardia. Un esempio di tecniche innovative emergenti è l’utilizzo dei Digital Twins (DT). Essi sono delle entità logiche in grado di simulare il reale comportamento di un dispositivo IoT fisico; possono essere utilizzati in vari scenari: monitoraggio di dati, rilevazione di anomalie, analisi What-If oppure per l’analisi predittiva. L’integrazione di tali tecnologie con nuovi paradigmi innovativi è in rapido sviluppo, uno tra questi è rappresentato dal Web of Things (WoT). Il Web of Thing è un termine utilizzato per descrivere un paradigma che permette ad oggetti del mondo reale di essere gestiti attraverso interfacce sul World Wide Web, rendendo accessibile la comunicazione tra più dispositivi con caratteristiche hardware e software differenti. Nonostante sia una tecnologia ancora in fase di sviluppo, il Web of Thing sta già iniziando ad essere utilizzato in molte aziende odierne. L’elaborato avrà come obiettivo quello di poter definire un framework capace di integrare un meccanismo di generazione automatica di Digital Twin su un contesto Web of Thing. Combinando tali tecnologie, si potrebbero sfruttare i vantaggi dell’interoperabilità del Web of Thing per poter generare un Digital Twin, indipendentemente dalle caratteristiche hardware e software degli oggetti da replicare.
Resumo:
Nowadays words like Smart City, Internet of Things, Environmental Awareness surround us with the growing interest of Computer Science and Engineering communities. Services supporting these paradigms are definitely based on large amounts of sensed data, which, once obtained and gathered, need to be analyzed in order to build maps, infer patterns, extract useful information. Everything is done in order to achieve a better quality of life. Traditional sensing techniques, like Wired or Wireless Sensor Network, need an intensive usage of distributed sensors to acquire real-world conditions. We propose SenSquare, a Crowdsensing approach based on smartphones and a central coordination server for time-and-space homogeneous data collecting. SenSquare relies on technologies such as CoAP lightweight protocol, Geofencing and the Military Grid Reference System.
Resumo:
Wireless sensor networks (WSNs) consist of a large number of sensor nodes, characterized by low power constraint, limited transmission range and limited computational capabilities [1][2].The cost of these devices is constantly decreasing, making it possible to use a large number of sensor devices in a wide array of commercial, environmental, military, and healthcare fields. Some of these applications involve placing the sensors evenly spaced on a straight line for example in roads, bridges, tunnels, water catchments and water pipelines, city drainages, oil and gas pipelines etc., making a special class of these networks which we define as a Linear Wireless Network (LWN). In LWNs, data transmission happens hop by hop from the source to the destination, through a route composed of multiple relays. The peculiarity of the topology of LWNs, motivates the design of specialized protocols, taking advantage of the linearity of such networks, in order to increase reliability, communication efficiency, energy savings, network lifetime and to minimize the end-to-end delay [3]. In this thesis a novel contention based Medium Access Control (MAC) protocol called L-CSMA, specifically devised for LWNs is presented. The basic idea of L-CSMA is to assign different priorities to nodes based on their position along the line. The priority is assigned in terms of sensing duration, whereby nodes closer to the destination are assigned shorter sensing time compared to the rest of the nodes and hence higher priority. This mechanism speeds up the transmission of packets which are already in the path, making transmission flow more efficient. Using NS-3 simulator, the performance of L-CSMA in terms of packets success rate, that is, the percentage of packets that reach destination, and throughput are compared with that of IEEE 802.15.4 MAC protocol, de-facto standard for wireless sensor networks. In general, L-CSMA outperforms the IEEE 802.15.4 MAC protocol.
Resumo:
The study is divided into two main part: one focused on the GEO Satellite IoT and the other on the LEO Satellite IoT. Concerning the GEO Satellite IoT, the activity has been developed in the context of EUMETSAT Data Collection Service (DCS) by investigating the performance at the receiver within challenging scenarios. DCS are provided by several GEO Satellite operators, giving almost total coverage around the world. In this study firstly an overview of the DCS end-to-end architecture is given followed by a detailed description of both the tools used for the simulations: the DCP-TST (message generator and transmitter) and the DCP-RX (receiver). After generating several test messages, the performances have been evaluated with the addition of impairments (CW and sweeping interferences) and considerations in terms of BER and Good Messages are produced. Furthermore, a study on the PLL System is also conducted together with evaluations on the effectiveness of tuning the PLL Bw on the overall performance. Concerning the LEO Satellite IoT, the activity was carried out in the framework of the ASI Bidirectional IoT Satellite Service (BISS) Project. The elaborate covers a survey about the possible services that the project can accomplish and a technical analysis on the uplink MA. In particular, the LR-FHSS is proved to be a valid alternative for the uplink through an extensive analysis on its Network capacity and through the study of an analytic model for Success Probability with its Matlab implementation.
Resumo:
L’obiettivo dell’Internet of Things (IoT), come suggerisce il nome, è quello di connettere oggetti (spesso alimentati a batteria) alla rete Internet per poterne avere un controllo da remoto. Lo sviluppo di questa tecnologia prevede la progettazione di dispositivi che abbiano: un basso costo per unità, una durata della batteria sufficientemente lunga (anche dell’ordine di anni) quindi bassi consumi e la possibilità di realizzare un’ampia rete che possa supportare tante unità. Per questo elaborato è stata utilizzata la tecnologia LoRa, creata da Semtech. Essa lavora nelle frequenze ISM designate per le varie zone geografiche del mondo, presenta un Livello Fisico personalizzato ispirato alla modulazione CSS e un Livello MAC che si basa sul protocollo ALOHA puro. Lo scopo di questo elaborato è realizzare delle misure delle prestazioni in ambiente indoor tramite l’utilizzo di due nodi (End Devices) e un gateway. Sono state sviluppate due applicazioni Java per realizzare la comunicazione tra i dispositivi. Le misure sono state realizzate inizialmente con un nodo singolo, per osservarne il tasso di perdita di pacchetti (packet loss rate) e l’attenuazione di potenza sul canale (channel loss). Successivamente sono state inviate trasmissioni da entrambi i nodi, prima separatamente e poi in contemporanea, per valutare l’interferenza tra invii di messaggi con uguali impostazioni nello stesso canale. Per fare ciò è stato utilizzato un modello della comunicazione di canale che tiene conto del path loss e dello shadowing log-normale. I risultati hanno mostrato che con un solo nodo si tratta di una tecnologia affidabile. Per quanto riguarda i risultati delle misure con interferente è emersa una differenza con i valori attesi fino al 20%. Nell’elaborato vengono discussi i risultati ottenuti e possibili sviluppi futuri per questo tipo di sperimentazione.
Resumo:
Nowadays, information security is a very important topic. In particular, wireless networks are experiencing an ongoing widespread diffusion, also thanks the increasing number of Internet Of Things devices, which generate and transmit a lot of data: protecting wireless communications is of fundamental importance, possibly through an easy but secure method. Physical Layer Security is an umbrella of techniques that leverages the characteristic of the wireless channel to generate security for the transmission. In particular, the Physical Layer based-Key generation aims at allowing two users to generate a random symmetric keys in an autonomous way, hence without the aid of a trusted third entity. Physical Layer based-Key generation relies on observations of the wireless channel, from which harvesting entropy: however, an attacker might possesses a channel simulator, for example a Ray Tracing simulator, to replicate the channel between the legitimate users, in order to guess the secret key and break the security of the communication. This thesis work is focused on the possibility to carry out a so called Ray Tracing attack: the method utilized for the assessment consist of a set of channel measurements, in different channel conditions, that are then compared with the simulated channel from the ray tracing, to compute the mutual information between the measurements and simulations. Furthermore, it is also presented the possibility of using the Ray Tracing as a tool to evaluate the impact of channel parameters (e.g. the bandwidth or the directivity of the antenna) on the Physical Layer based-Key generation. The measurements have been carried out at the Barkhausen Institut gGmbH in Dresden (GE), in the framework of the existing cooperation agreement between BI and the Dept. of Electrical, Electronics and Information Engineering "G. Marconi" (DEI) at the University of Bologna.
Resumo:
Recent years have witnessed an increasing evolution of wireless mobile networks, with an intensive research work aimed at developing new efficient techniques for the future 6G standards. In the framework of massive machine-type communication (mMTC), emerging Internet of Things (IoT) applications, in which sensor nodes and smart devices transmit unpredictably and sporadically short data packets without coordination, are gaining an increasing interest. In this work, new medium access control (MAC) protocols for massive IoT, capable of supporting a non-instantaneous feedback from the receiver, are studied. These schemes guarantee an high time for the acknowledgment (ACK) messages to the base station (BS), without a significant performance loss. Then, an error floor analysis of the considered protocols is performed in order to obtain useful guidelines for the system design. Furthermore, non-orthogonal multiple access (NOMA) coded random access (CRA) schemes based on power domain are here developed. The introduction of power diversity permits to solve more packet collision at the physical (PHY) layer, with an important reduction of the packet loss rate (PLR) in comparison to the number of active users in the system. The proposed solutions aim to improve the actual grant-free protocols, respecting the stringent constraints of scalability, reliability and latency requested by 6G networks.
Resumo:
Pervasive and distributed Internet of Things (IoT) devices demand ubiquitous coverage beyond No-man’s land. To satisfy plethora of IoT devices with resilient connectivity, Non-Terrestrial Networks (NTN) will be pivotal to assist and complement terrestrial systems. In a massiveMTC scenario over NTN, characterized by sporadic uplink data reports, all the terminals within a satellite beam shall be served during the short visibility window of the flying platform, thus generating congestion due to simultaneous access attempts of IoT devices on the same radio resource. The more terminals collide, the more average-time it takes to complete an access which is due to the decreased number of successful attempts caused by Back-off commands of legacy methods. A possible countermeasure is represented by Non-Orthogonal Multiple Access scheme, which requires the knowledge of the number of superimposed NPRACH preambles. This work addresses this problem by proposing a Neural Network (NN) algorithm to cope with the uncoordinated random access performed by a prodigious number of Narrowband-IoT devices. Our proposed method classifies the number of colliding users, and for each estimates the Time of Arrival (ToA). The performance assessment, under Line of Sight (LoS) and Non-LoS conditions in sub-urban environments with two different satellite configurations, shows significant benefits of the proposed NN algorithm with respect to traditional methods for the ToA estimation.