911 resultados para Iot,Robustezza,SMARTM3,Lastwill,Publish,Subscribe,Contesto Semantico,Dependability,TCP
Resumo:
Il lavoro affronta le problematiche emerse per gli obbligazionisti subordinati a seguito dall'applicazione nel contesto italiano della nuova disciplina in materia di gestione delle crisi bancarie. Nella prima parte del lavoro sono stati analizzati gli orientamenti della Commissione europea in merito ai criteri adottati per valutare la compatibilità dell’intervento pubblico nel settore bancario e la loro evoluzione; sono inoltre illustrati i nuovi strumenti introdotti per gestire le crisi degli istituti creditizi operanti sul mercato unico. Nella seconda parte del lavoro, lo studio si è concentrato sull’analisi dello strumento obbligazionario e, in particolar modo, delle obbligazioni bancarie subordinate, in quanto, in caso di crisi dell’istituto di credito emittente, i sottoscrittori di questo strumento saranno – verosimilmente – la prima categoria di creditori chiamata a sopportare i costi della ristrutturazione. L’ultima parte del lavoro è dedicata all’esame del grado e di tutela offerto dall’ordinamento italiano ai creditori coinvolti nei dissesti di alcune banche italiane. Oltre alle decisioni adottate dalla magistratura italiana in merito, l’analisi ha riguardato anche le misure di indennizzo adottate dal legislatore a tutela dei risparmiatori danneggiati dalla crisi degli istituti in cui investirono.
Resumo:
Obiettivo di questo elaborato è fornire alle aziende operanti sul mercato nella realtà industriale, una trattazione dei temi relativi alla standardizzazione e ottimizzazione dei processi di produzione, didatticamente semplice e fortemente orientata all’applicazione, centrata sui criteri di ricerca della massima efficienza tecnica ed economica del prodotto. La trattazione, corredata, ovunque possibile, di approcci quantitativi supportati da idonei strumenti matematici, vuole offrire per ogni tipo di azienda che operi sul mercato una traccia semplice e chiara in merito ad un tema estremamente attuale, relativo all'ottimizzazione e standardizzazione del processo produttivo, per salvaguardare il proprio vantaggio competitivo e aumentare la robustezza e capacità di far fronte a ogni tipo di minaccia esterna e/o interna potenzialmente verificabile in futuro. Infatti, il prodotto finale di tale attività di analisi, volta alla riduzione degli sprechi, mantenendo fisso il prezzo di vendita si tramuta quindi in un incremento dei margini di ricavo su ogni unità di vendita. Da ultimo, con la parte finale dell’elaborato è mia intenzione veicolare e far comprendere l’importanza e i vantaggi connessi all'introduzione ponderata dell’automazione anche all'interno di un contesto aziendale con lavorazioni altamente specifiche e variegate. È fondamentale per la sopravvivenza delle aziende nel contesto competitivo globale automatizzare le lavorazioni ripetitive a bassa creazione di valore aggiunto, realizzando in questo modo economie di scala. La manodopera specializzata deve essere razionalizzata e utilizzata esclusivamente per le lavorazioni complesse, distintive e rappresentative della grande competenza e affidabilità proprie dell’industria italiana.
Resumo:
Negli ultimi decenni i polimeri coniugati, grazie alla loro peculiarità di essere dei semiconduttori organici, hanno attirato l’attenzione della ricerca scientifica, e tra questi composti rientrano i politiofeni. Versatilità, robustezza chimica strutturale e fluorescenza sono alcune delle proprietà che caratterizzano tali composti e che hanno permesso di esplorare nuovi materiali da un punto di vista scientifico e tecnologico. Recentemente molto interessanti sono risultate essere le nanoparticelle politiofeniche poiché permettono di modulare le proprietà chimico-fisiche dei relativi polimeri, ampliandone le potenzialità a trovare applicazione in molteplici dispositivi elettronici, tra cui le celle solari (CS) organiche. Infatti, molto attivo è l’interesse della comunità scientifica per ottimizzare questi dispositivi ricercando nuovi prodotti che soddisfino diversi requisiti, come riduzione dell’impatto ambientale, la facilità di preparazione e compatibilità con substrati flessibili. In tale contesto, uno degli obiettivi della ricerca attualmente si focalizza sulla preparazione di nuovi accettori da usare in CS organiche alternativi ai derivati fullerenici, i quali presentano diversi svantaggi. Alla luce dei più recenti risultati si è visto che i politiofeni push-pull, caratterizzati dall’alternanza di gruppi accettori (A) e gruppi donatori (D), hanno una notevole potenzialità a rimpiazzare tali materiali e ad essere usati come accettori non-fullerenici. Infatti, questi hanno permesso di ottenere buoni risultati in termini di conversioni ed efficienze delle celle fotovoltaiche. Lo scopo di questo lavoro di tesi è sintetizzare sei nuovi polimeri a base tiofenica (quattro con sequenza A-D e due con sequenza A-A) per studiarne le possibili applicazioni come materiali accettori non-fullerenici e la loro organizzazione in strutture ordinate di nanoparticelle.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Embedding intelligence in extreme edge devices allows distilling raw data acquired from sensors into actionable information, directly on IoT end-nodes. This computing paradigm, in which end-nodes no longer depend entirely on the Cloud, offers undeniable benefits, driving a large research area (TinyML) to deploy leading Machine Learning (ML) algorithms on micro-controller class of devices. To fit the limited memory storage capability of these tiny platforms, full-precision Deep Neural Networks (DNNs) are compressed by representing their data down to byte and sub-byte formats, in the integer domain. However, the current generation of micro-controller systems can barely cope with the computing requirements of QNNs. This thesis tackles the challenge from many perspectives, presenting solutions both at software and hardware levels, exploiting parallelism, heterogeneity and software programmability to guarantee high flexibility and high energy-performance proportionality. The first contribution, PULP-NN, is an optimized software computing library for QNN inference on parallel ultra-low-power (PULP) clusters of RISC-V processors, showing one order of magnitude improvements in performance and energy efficiency, compared to current State-of-the-Art (SoA) STM32 micro-controller systems (MCUs) based on ARM Cortex-M cores. The second contribution is XpulpNN, a set of RISC-V domain specific instruction set architecture (ISA) extensions to deal with sub-byte integer arithmetic computation. The solution, including the ISA extensions and the micro-architecture to support them, achieves energy efficiency comparable with dedicated DNN accelerators and surpasses the efficiency of SoA ARM Cortex-M based MCUs, such as the low-end STM32M4 and the high-end STM32H7 devices, by up to three orders of magnitude. To overcome the Von Neumann bottleneck while guaranteeing the highest flexibility, the final contribution integrates an Analog In-Memory Computing accelerator into the PULP cluster, creating a fully programmable heterogeneous fabric that demonstrates end-to-end inference capabilities of SoA MobileNetV2 models, showing two orders of magnitude performance improvements over current SoA analog/digital solutions.
Resumo:
In recent years, IoT technology has radically transformed many crucial industrial and service sectors such as healthcare. The multi-facets heterogeneity of the devices and the collected information provides important opportunities to develop innovative systems and services. However, the ubiquitous presence of data silos and the poor semantic interoperability in the IoT landscape constitute a significant obstacle in the pursuit of this goal. Moreover, achieving actionable knowledge from the collected data requires IoT information sources to be analysed using appropriate artificial intelligence techniques such as automated reasoning. In this thesis work, Semantic Web technologies have been investigated as an approach to address both the data integration and reasoning aspect in modern IoT systems. In particular, the contributions presented in this thesis are the following: (1) the IoT Fitness Ontology, an OWL ontology that has been developed in order to overcome the issue of data silos and enable semantic interoperability in the IoT fitness domain; (2) a Linked Open Data web portal for collecting and sharing IoT health datasets with the research community; (3) a novel methodology for embedding knowledge in rule-defined IoT smart home scenarios; and (4) a knowledge-based IoT home automation system that supports a seamless integration of heterogeneous devices and data sources.
Resumo:
Nowadays, cities deal with unprecedented pollution and overpopulation problems, and Internet of Things (IoT) technologies are supporting them in facing these issues and becoming increasingly smart. IoT sensors embedded in public infrastructure can provide granular data on the urban environment, and help public authorities to make their cities more sustainable and efficient. Nonetheless, this pervasive data collection also raises high surveillance risks, jeopardizing privacy and data protection rights. Against this backdrop, this thesis addresses how IoT surveillance technologies can be implemented in a legally compliant and ethically acceptable fashion in smart cities. An interdisciplinary approach is embraced to investigate this question, combining doctrinal legal research (on privacy, data protection, criminal procedure) with insights from philosophy, governance, and urban studies. The fundamental normative argument of this work is that surveillance constitutes a necessary feature of modern information societies. Nonetheless, as the complexity of surveillance phenomena increases, there emerges a need to develop more fine-attuned proportionality assessments to ensure a legitimate implementation of monitoring technologies. This research tackles this gap from different perspectives, analyzing the EU data protection legislation and the United States and European case law on privacy expectations and surveillance. Specifically, a coherent multi-factor test assessing privacy expectations in public IoT environments and a surveillance taxonomy are proposed to inform proportionality assessments of surveillance initiatives in smart cities. These insights are also applied to four use cases: facial recognition technologies, drones, environmental policing, and smart nudging. Lastly, the investigation examines competing data governance models in the digital domain and the smart city, reviewing the EU upcoming data governance framework. It is argued that, despite the stated policy goals, the balance of interests may often favor corporate strategies in data sharing, to the detriment of common good uses of data in the urban context.
Resumo:
Agricultural techniques have been improved over the centuries to match with the growing demand of an increase in global population. Farming applications are facing new challenges to satisfy global needs and the recent technology advancements in terms of robotic platforms can be exploited. As the orchard management is one of the most challenging applications because of its tree structure and the required interaction with the environment, it was targeted also by the University of Bologna research group to provide a customized solution addressing new concept for agricultural vehicles. The result of this research has blossomed into a new lightweight tracked vehicle capable of performing autonomous navigation both in the open-filed scenario and while travelling inside orchards for what has been called in-row navigation. The mechanical design concept, together with customized software implementation has been detailed to highlight the strengths of the platform and some further improvements envisioned to improve the overall performances. Static stability testing has proved that the vehicle can withstand steep slopes scenarios. Some improvements have also been investigated to refine the estimation of the slippage that occurs during turning maneuvers and that is typical of skid-steering tracked vehicles. The software architecture has been implemented using the Robot Operating System (ROS) framework, so to exploit community available packages related to common and basic functions, such as sensor interfaces, while allowing dedicated custom implementation of the navigation algorithm developed. Real-world testing inside the university’s experimental orchards have proven the robustness and stability of the solution with more than 800 hours of fieldwork. The vehicle has also enabled a wide range of autonomous tasks such as spraying, mowing, and on-the-field data collection capabilities. The latter can be exploited to automatically estimate relevant orchard properties such as fruit counting and sizing, canopy properties estimation, and autonomous fruit harvesting with post-harvesting estimations.
Resumo:
La ricerca si propone di fornire un contributo allo studio del diritto penale dell’ambiente, prendendo in considerazione la disciplina penalistica che rileva nel caso di offesa – effettiva o potenziale – delle acque marine. Nello specifico – in ragione dei sempre più frequenti casi di inquinamento e disastro ambientale causati dalle immissioni di sostanze tossiche nelle acque marine, riconducibili alle attività di impresa ed alla navigazione – l’obiettivo del lavoro è quello di soffermarsi, partendo dalla dimensione internazionale ed europea del fenomeno, sulle disposizioni penali vigenti nel nostro ordinamento a salvaguardia delle risorse naturali marine, sulle modalità con cui le stesse sono tipizzate e sui possibili autori di tali reati, valutando – in termini più generali – se sia veramente effettivo l’attuale impianto nazionale di tutela oppure se non sia necessario ripensare il ruolo del diritto penale in tale settore. Per ampliare il contesto dell’indagine, verrà presa in considerazione la corrispondente disciplina francese, spagnola e statunitense; tale scelta si fonda sulla circostanza che i tre più significativi disastri ambientali marini della storia moderna si sono verificati rispettivamente a largo delle coste bretoni (petroliera Erika), galiziane (nave Prestige) e della Louisiana (piattaforma petrolifera Deep Water Horizon).
Resumo:
The Internet of Things (IoT) has grown rapidly in recent years, leading to an increased need for efficient and secure communication between connected devices. Wireless Sensor Networks (WSNs) are composed of small, low-power devices that are capable of sensing and exchanging data, and are often used in IoT applications. In addition, Mesh WSNs involve intermediate nodes forwarding data to ensure more robust communication. The integration of Unmanned Aerial Vehicles (UAVs) in Mesh WSNs has emerged as a promising solution for increasing the effectiveness of data collection, as UAVs can act as mobile relays, providing extended communication range and reducing energy consumption. However, the integration of UAVs and Mesh WSNs still poses new challenges, such as the design of efficient control and communication strategies. This thesis explores the networking capabilities of WSNs and investigates how the integration of UAVs can enhance their performance. The research focuses on three main objectives: (1) Ground Wireless Mesh Sensor Networks, (2) Aerial Wireless Mesh Sensor Networks, and (3) Ground/Aerial WMSN integration. For the first objective, we investigate the use of the Bluetooth Mesh standard for IoT monitoring in different environments. The second objective focuses on deploying aerial nodes to maximize data collection effectiveness and QoS of UAV-to-UAV links while maintaining the aerial mesh connectivity. The third objective investigates hybrid WMSN scenarios with air-to-ground communication links. One of the main contribution of the thesis consists in the design and implementation of a software framework called "Uhura", which enables the creation of Hybrid Wireless Mesh Sensor Networks and abstracts and handles multiple M2M communication stacks on both ground and aerial links. The operations of Uhura have been validated through simulations and small-scale testbeds involving ground and aerial devices.
Resumo:
In recent years, we have witnessed the growth of the Internet of Things paradigm, with its increased pervasiveness in our everyday lives. The possible applications are diverse: from a smartwatch able to measure heartbeat and communicate it to the cloud, to the device that triggers an event when we approach an exhibit in a museum. Present in many of these applications is the Proximity Detection task: for instance the heartbeat could be measured only when the wearer is near to a well defined location for medical purposes or the touristic attraction must be triggered only if someone is very close to it. Indeed, the ability of an IoT device to sense the presence of other devices nearby and calculate the distance to them can be considered the cornerstone of various applications, motivating research on this fundamental topic. The energy constraints of the IoT devices are often in contrast with the needs of continuous operations to sense the environment and to achieve high accurate distance measurements from the neighbors, thus making the design of Proximity Detection protocols a challenging task.
Resumo:
Massive Internet of Things is expected to play a crucial role in Beyond 5G (B5G) wireless communication systems, offering seamless connectivity among heterogeneous devices without human intervention. However, the exponential proliferation of smart devices and IoT networks, relying solely on terrestrial networks, may not fully meet the demanding IoT requirements in terms of bandwidth and connectivity, especially in areas where terrestrial infrastructures are not economically viable. To unleash the full potential of 5G and B5G networks and enable seamless connectivity everywhere, the 3GPP envisions the integration of Non-Terrestrial Networks (NTNs) into the terrestrial ones starting from Release 17. However, this integration process requires modifications to the 5G standard to ensure reliable communications despite typical satellite channel impairments. In this framework, this thesis aims at proposing techniques at the Physical and Medium Access Control layers that require minimal adaptations in the current NB-IoT standard via NTN. Thus, firstly the satellite impairments are evaluated and, then, a detailed link budget analysis is provided. Following, analyses at the link and the system levels are conducted. In the former case, a novel algorithm leveraging time-frequency analysis is proposed to detect orthogonal preambles and estimate the signals’ arrival time. Besides, the effects of collisions on the detection probability and Bit Error Rate are investigated and Non-Orthogonal Multiple Access approaches are proposed in the random access and data phases. The system analysis evaluates the performance of random access in case of congestion. Various access parameters are tested in different satellite scenarios, and the performance is measured in terms of access probability and time required to complete the procedure. Finally, a heuristic algorithm is proposed to jointly design the access and data phases, determining the number of satellite passages, the Random Access Periodicity, and the number of uplink repetitions that maximize the system's spectral efficiency.
Resumo:
Questa ricerca ha l’obiettivo di confrontare le politiche linguistiche in Italia e in Cina, due Paesi multilingue, con particolare attenzione alla legislazione riguardante le lingue comuni. Nella prima parte della tesi viene descritta e confrontata la situazione sociolinguista dei due Paesi, dal punto di vista sia diacronico sia sincronico, permettendo così di tracciare un quadro generale della panoramica sociolinguistica, la quale costituisce il fondamento per analizzare le politiche linguistiche adottate. La seconda parte della tesi descrive e analizza rispettivamente la legislazione linguistica sulla lingua comune dei due Paesi, mostrando la diversità e le caratteristiche delle pratiche legislative di Cina e Italia su questo tema. L’ultima parte della tesi presenta un confronto tra le legislazioni linguistiche sulle lingue comuni da diverse prospettive, individuando e discutendo differenze e punti in comune. La tesi si conclude con un’analisi delle motivazioni che spingono la Cina e l’Italia ad adottare scelte differenti, mettendo in luce la diversità delle politiche linguistiche e la complessità dei fattori che le determinano.
Resumo:
La tesi che qui si presenta muove dall’osservazione della collezione dei Frammenti conservata presso l’Archivio di Stato di Modena, fornendo un'analisi dettagliata della sua storia archivistica fin dalle origini e dei percorsi di ricerca esplorati fino ad oggi. Un censimento condotto durante la ricerca ha inoltre rivelato circa 50 nuovi frammenti latini riutilizzati nei registri dell'Archivio Estense, che permangono in situ. Un notevole numero di frammenti dell'ASMo proviene dalle legature dei volumi del complesso archivistico estense, il quale, coprendo il periodo 1317-1797, costituisce il più ampio fondo dell'Archivio di Stato di Modena. Diversamente dalle ricerche precedenti dedicate a frammenti specifici, questa tesi adotta uno sguardo olistico, esplorando le testimonianze frammentarie legate a un medesimo contesto di riutilizzo. Il nucleo centrale si concentra sulla metodologia adoperata per ricostruire le 'provenienze archeologiche', con un focus sul riutilizzo nei registri dell'Archivio Estense. La tesi include frammenti documentari, spesso trascurati, offrendo nuove prospettive sullo studio del fenomeno del riuso, soprattutto nei domini estensi. Questo approccio sottolinea inoltre l’interdisciplinarietà intrinseca agli studi dedicati ai frammenti di manoscritti, già considerati prevalentemente secondo un’ottica paleografica e codicologica e qui sottoposti anche a un’indagine dal punto di vista dell’archivistica e della diplomatica. La tesi comprende un catalogo parziale dei frammenti pergamenacei latini provenienti dall'Archivio Estense, costruito adottando il modello di scheda descrittiva del database digitale Fragmentarium. L'analisi comprende identificazione, datazione, localizzazione dei frammenti, cui si aggiungono aspetti materiali e storico-contestuali del riuso, e il catalogo riferisce, in alcuni casi, la ricostruzione di membra disiecta. Parallelamente, si è avviato un progetto pilota per la digitalizzazione dei frammenti dell'ASMo in collaborazione con il Centro Studi ARCE dell'Università di Bologna. La tesi include una relazione sulle attività svolte, con riflessioni sulle metodologie adottate durante il progetto di digitalizzazione.