902 resultados para interfaccia,rover,monitoraggio,connettività,programmazione
Resumo:
Existing bridges built in the last 50 years face challenges due to states far different than those envisaged when they were designed, due to increased loads, ageing of materials, and poor maintenance. For post-tensioned bridges, the need emerged for reliable engineering tools for the evaluation of their capacity in case of steel corrosion due to lack of mortar injection. This can lead to sudden brittle collapses, highlighting the need for proper maintenance and monitoring. This thesis proposes a peak strength model for corroded strands, introducing a “group coefficient” that aims at considering corrosion variability in the wires constituting the strands. The application of the introduced model in a deterministic approach leads to the proposal of strength curves for corroded strands, which represent useful engineering tools for estimating their maximum strength considering both geometry of the corrosion and steel material parameters. Together with the proposed ultimate displacement curves, constitutive laws of the steel material reduced by the effects of corrosion can be obtained. The effects of corroded strands on post-tensioned beams can be evaluated through the reduced bending moment-curvature diagram accounting for these reduced stress-strain relationships. The application of the introduced model in a probabilistic approach allows to estimate peak strength probability functions and consecutive design-oriented safety factors to consider corrosion effects in safety assessment verifications. Both approaches consider two procedures that are based on the knowledge level of the corrosion in the strands. On the sidelines of this main research line, this thesis also presents a study of a seismic upgrading intervention of a case-study bridge through HDRB isolators providing a simplified procedure for the identification of the correct device. The study also investigates the effects due to the variability of the shear modulus of the rubber material of the HDRB isolators on the structural response of the isolated bridge.
Resumo:
The severe accidents deriving from the impact of natural events on industrial installations have become a matter of growing concern in the last decades. In the literature, these events are typically referred to as Natech accidents. Several peculiarities distinguish them from conventional industrial accidents caused by internal factors, such as the possible occurrence of multiple simultaneous failures, and the enhanced probability of cascading events. The research project provides a comprehensive overview of Natech accidents that occurred in the Chemical and Process Industry, allowing for the identification of relevant aspects of Natech events. Quantified event trees and probability of ignition are derived from the collected dataset, providing a step forward in the quantitative risk assessment of Natech accidents. The investigation of past Natech accidents also demonstrated that wildfires may cause technological accidents. Climate change and global warming are promoting the conditions for wildfire development and rapid spread. Hence, ensuring the safety of industrial facilities exposed to wildfires is paramount. This was achieved defining safety distances between wildland vegetation and industrial equipment items. In addition, an innovative methodology for the vulnerability assessment of Natech and Domino scenarios triggered by wildfires was developed. The approach accounted for the dynamic behaviour of wildfire events and related technological scenarios. Besides, the performance of the emergency response and the related intervention time in the case of cascading events caused by natural events were evaluated. Overall, the tools presented in this thesis represent a step forward in the Quantitative Risk Assessment of Natech accidents. The methodologies developed also provide a solid basis for the definition of effective strategies for risk mitigation and reduction. These aspects are crucial to improve the resilience of industrial plants to natural hazards, especially considering the effects that climate change may have on the severity of such events.
Resumo:
This dissertation aims at developing advanced analytical tools able to model surface waves propagating in elastic metasurfaces. In particular, four different objectives are defined and pursued throughout this work to enrich the description of the metasurface dynamics. First, a theoretical framework is developed to describe the dispersion properties of a seismic metasurface composed of discrete resonators placed on a porous medium considering part of it fully saturated. Such a model combines classical elasticity theory, Biot’s poroelasticity and an effective medium approach to describe the metasurface dynamics and its coupling with the poroelastic substrate. Second, an exact formulation based on the multiple scattering theory is developed to extend the two-dimensional classical Lamb’s problem to the case of an elastic half-space coupled to an arbitrary number of discrete surface resonators. To this purpose, the incident wavefield generated by a harmonic source and the scattered field generated by each resonator are calculated. The substrate wavefield is then obtained as solutions of the coupled problem due to the interference of the incident field and the multiple scattered fields of the oscillators. Third, the above discussed formulation is extended to three-dimensional contexts. The purpose here is to investigate the dynamic behavior and the topological properties of quasiperiodic elastic metasurfaces. Finally, the multiple scattering formulation is extended to model flexural metasurfaces, i.e., an array of thin plates. To this end, the resonant plates are modeled by means of their equivalent impedance, derived by exploiting the Kirchhoff plate theory. The proposed formulation permits the treatment of a general flexural metasurface, with no limitation on the number of plates and the configuration taken into account. Overall, the proposed analytical tools could pave the way for a better understanding of metasurface dynamics and their implementation in engineered devices.
Resumo:
Growing need for infrastructure has led to expanding research on advances in road pavement materials. Finding solutions that are sustainable, environmentally friendly and cost-efficient is a priority. Focusing such efforts on low-traffic and rural roads can contribute with a significant progress in the vital circulatory system of transport for rural and agricultural areas. An important alternative material for pavement construction is recycled aggregates from solid wastes, including waste from civil engineering activities, mainly construction and demolition. A literature review on studies is made; it is performed a planned set of laboratory testing procedures aimed to fully characterize and assess the potential in-situ mechanical performance and chemical impact. Furthermore, monitoring the full-scale response of the selected materials in a real field construction site, including the production, laying and compaction operations. Moreover, a novel single-phase solution for the construction of semi-flexible paving layers to be used as alternative material to common concrete and bituminous layers is experimented and introduced, aiming the production and laying of a single-phase laid material instead of a traditional two phases grouted macadam. Finally, on a parallel research work for farming pavements, the possible use of common geotechnical anti-erosive products for the improvement of soil bearing capacity of paddock areas in cattle husbandries of bio-farms is evaluated. this thesis has clearly demonstrated the feasibility of using the sustainable recycled aggregates for low-traffic rural roads and the pavements of farming and agriculture areas. The pavement layers constructed with recycled aggregates provided satisfying performance under heavy traffic conditions in experimental pavements. This, together with the fact that these aggregates can be available in most areas and in large quantities, provides great impetus towards shifting from traditional materials to more sustainable alternatives. The chemical and environmental stability of these materials proves their soundness to be utilized in farming environments.
Resumo:
Spectral sensors are a wide class of devices that are extremely useful for detecting essential information of the environment and materials with high degree of selectivity. Recently, they have achieved high degrees of integration and low implementation cost to be suited for fast, small, and non-invasive monitoring systems. However, the useful information is hidden in spectra and it is difficult to decode. So, mathematical algorithms are needed to infer the value of the variables of interest from the acquired data. Between the different families of predictive modeling, Principal Component Analysis and the techniques stemmed from it can provide very good performances, as well as small computational and memory requirements. For these reasons, they allow the implementation of the prediction even in embedded and autonomous devices. In this thesis, I will present 4 practical applications of these algorithms to the prediction of different variables: moisture of soil, moisture of concrete, freshness of anchovies/sardines, and concentration of gasses. In all of these cases, the workflow will be the same. Initially, an acquisition campaign was performed to acquire both spectra and the variables of interest from samples. Then these data are used as input for the creation of the prediction models, to solve both classification and regression problems. From these models, an array of calibration coefficients is derived and used for the implementation of the prediction in an embedded system. The presented results will show that this workflow was successfully applied to very different scientific fields, obtaining autonomous and non-invasive devices able to predict the value of physical parameters of choice from new spectral acquisitions.
Resumo:
INTRODUZIONE - La presente ricerca è incentrata sul monitoraggio dell’efficacia dei progetti di Educazione Avventura con adolescenti difficili, in particolare del progetto “Lunghi cammini educativi”. A partire da un’analisi della letteratura sull’educazione esperienziale nature-based e in particolare sull’Adventure Education con adolescenti difficili, è stata progettata una rilevazione empirica attraverso cui sperimentare un metodo di monitoraggio finalizzato a cogliere la dimensione processuale (che nella ricerca nell’ambito resta spesso inesplorata, poiché sono maggiormente diffusi i metodi di monitoraggio cosiddetti “black-box”), utilizzando un sistema integrato di diverse tecniche di rilevazione. Le due principali domande che hanno guidato la ricerca sono state: 1.Quali processi educativi significativi si innescano e possono essere osservati durante l’esperienza? 2.Il metodo dell’intervista camminata, integrato ad altri metodi, è utile per individuare e monitorare questi processi? METODO - Collocandosi all’interno di un framework metodologico qualitativo (influenzato da riflessioni post-qualitative, paradigma delle mobilità e sguardo fenomenologico), la ricerca prende la forma di uno studio di caso singolo con due unità di analisi, e prevede la triangolazione di diversi metodi di raccolta dei dati: analisi documentale; osservazione partecipante nei cammini e nelle riunioni di équipe; interviste (prima, durante, dopo il cammino) con differenti tecniche: camminata, “image-elicited”, tradizionale, online. RISULTATI - L’analisi tematica abduttiva delle interviste e delle osservazioni conferma quanto già evidenziato dalla letteratura circa la centralità della dilatazione del campo d’esperienza e del lavoro su alcune life skills (in particolare, competenze personali e growth mindset). Emergono anche alcuni key findings inattesi: il notevole “peso” dello stile educativo dell’accompagnatore; la “scoperta” del ruolo della quotidianità all’interno dell’esperienza straordinaria; la necessità di consapevolezza riguardo al potenziale educativo dell’ambiente (naturale e/o antropizzato), per una maggiore intenzionalità nelle scelte strategiche di cammino. L’intervista camminata, nonostante alcuni limiti, si conferma come metodo effettivamente utile a cogliere la dimensione processuale, e coerente con il contesto indagato.
Resumo:
The Internet of Things (IoT) has grown rapidly in recent years, leading to an increased need for efficient and secure communication between connected devices. Wireless Sensor Networks (WSNs) are composed of small, low-power devices that are capable of sensing and exchanging data, and are often used in IoT applications. In addition, Mesh WSNs involve intermediate nodes forwarding data to ensure more robust communication. The integration of Unmanned Aerial Vehicles (UAVs) in Mesh WSNs has emerged as a promising solution for increasing the effectiveness of data collection, as UAVs can act as mobile relays, providing extended communication range and reducing energy consumption. However, the integration of UAVs and Mesh WSNs still poses new challenges, such as the design of efficient control and communication strategies. This thesis explores the networking capabilities of WSNs and investigates how the integration of UAVs can enhance their performance. The research focuses on three main objectives: (1) Ground Wireless Mesh Sensor Networks, (2) Aerial Wireless Mesh Sensor Networks, and (3) Ground/Aerial WMSN integration. For the first objective, we investigate the use of the Bluetooth Mesh standard for IoT monitoring in different environments. The second objective focuses on deploying aerial nodes to maximize data collection effectiveness and QoS of UAV-to-UAV links while maintaining the aerial mesh connectivity. The third objective investigates hybrid WMSN scenarios with air-to-ground communication links. One of the main contribution of the thesis consists in the design and implementation of a software framework called "Uhura", which enables the creation of Hybrid Wireless Mesh Sensor Networks and abstracts and handles multiple M2M communication stacks on both ground and aerial links. The operations of Uhura have been validated through simulations and small-scale testbeds involving ground and aerial devices.
Resumo:
The Structural Health Monitoring (SHM) research area is increasingly investigated due to its high potential in reducing the maintenance costs and in ensuring the systems safety in several industrial application fields. A growing demand of new SHM systems, permanently embedded into the structures, for savings in weight and cabling, comes from the aeronautical and aerospace application fields. As consequence, the embedded electronic devices are to be wirelessly connected and battery powered. As result, a low power consumption is requested. At the same time, high performance in defects or impacts detection and localization are to be ensured to assess the structural integrity. To achieve these goals, the design paradigms can be changed together with the associate signal processing. The present thesis proposes design strategies and unconventional solutions, suitable both for real-time monitoring and periodic inspections, relying on piezo-transducers and Ultrasonic Guided Waves. In the first context, arrays of closely located sensors were designed, according to appropriate optimality criteria, by exploiting sensors re-shaping and optimal positioning, to achieve improved damages/impacts localisation performance in noisy environments. An additional sensor re-shaping procedure was developed to tackle another well-known issue which arises in realistic scenario, namely the reverberation. A novel sensor, able to filter undesired mechanical boundaries reflections, was validated via simulations based on the Green's functions formalism and FEM. In the active SHM context, a novel design methodology was used to develop a single transducer, called Spectrum-Scanning Acoustic Transducer, to actively inspect a structure. It can estimate the number of defects and their distances with an accuracy of 2[cm]. It can also estimate the damage angular coordinate with an equivalent mainlobe aperture of 8[deg], when a 24[cm] radial gap between two defects is ensured. A suitable signal processing was developed in order to limit the computational cost, allowing its use with embedded electronic devices.
Resumo:
This Thesis wants to highlight the importance of ad-hoc designed and developed embedded systems in the implementation of intelligent sensor networks. As evidence four areas of application are presented: Precision Agriculture, Bioengineering, Automotive and Structural Health Monitoring. For each field is reported one, or more, smart device design and developing, in addition to on-board elaborations, experimental validation and in field tests. In particular, it is presented the design and development of a fruit meter. In the bioengineering field, three different projects are reported, detailing the architectures implemented and the validation tests conducted. Two prototype realizations of an inner temperature measurement system in electric motors for an automotive application are then discussed. Lastly, the HW/SW design of a Smart Sensor Network is analyzed: the network features on-board data management and processing, integration in an IoT toolchain, Wireless Sensor Network developments and an AI framework for vibration-based structural assessment.
Resumo:
Imaging technologies are widely used in application fields such as natural sciences, engineering, medicine, and life sciences. A broad class of imaging problems reduces to solve ill-posed inverse problems (IPs). Traditional strategies to solve these ill-posed IPs rely on variational regularization methods, which are based on minimization of suitable energies, and make use of knowledge about the image formation model (forward operator) and prior knowledge on the solution, but lack in incorporating knowledge directly from data. On the other hand, the more recent learned approaches can easily learn the intricate statistics of images depending on a large set of data, but do not have a systematic method for incorporating prior knowledge about the image formation model. The main purpose of this thesis is to discuss data-driven image reconstruction methods which combine the benefits of these two different reconstruction strategies for the solution of highly nonlinear ill-posed inverse problems. Mathematical formulation and numerical approaches for image IPs, including linear as well as strongly nonlinear problems are described. More specifically we address the Electrical impedance Tomography (EIT) reconstruction problem by unrolling the regularized Gauss-Newton method and integrating the regularization learned by a data-adaptive neural network. Furthermore we investigate the solution of non-linear ill-posed IPs introducing a deep-PnP framework that integrates the graph convolutional denoiser into the proximal Gauss-Newton method with a practical application to the EIT, a recently introduced promising imaging technique. Efficient algorithms are then applied to the solution of the limited electrods problem in EIT, combining compressive sensing techniques and deep learning strategies. Finally, a transformer-based neural network architecture is adapted to restore the noisy solution of the Computed Tomography problem recovered using the filtered back-projection method.
Resumo:
Introduzione: L’intervento di Fontan comporta un aumento istantaneo della pressione venosa centrale che causa, nel medio-lungo termine, una forma di epatopatia specifica detta FALD. Il monitoraggio della FALD è complesso ma potrebbe consentire di bloccarne o rallentarne l’insorgenza. Lo studio ha valutato l’efficacia delle modalità di monitoraggio non invasivo. Materiale e metodi: Sei pazienti (età media 24 anni) operati presso l’IRCCS Azienda Ospedaliero Universitaria di Bologna sono stati sottoposti a RMN 4D-Flow e ad Ecodoppler epatico. Sono stati raccolti i dati anagrafici, morfologici, anamnestici e i markers sierologici per il calcolo degli scores MELD-XI, APRI, FIB4, i valori di Shear Stress assiale e circonferenziale e gli indici di pulsatilità e resistenza delle arterie epatica e renale. Risultati: Il tempo trascorso tra la Fontan e lo studio è stato di 17,8 anni. Età media alla Fontan 6,8 anni. Tutti i pazienti avevano un quadro compatibile con epatopatia. I markers sierologici e gli scores MELD-XI,APRI e FIB4 si sono dimostrati di scarsa utilità. All’ecografia tutti i pazienti avevano ecostruttura irregolare, splenomegalia e valori elevati di pulsatilità e resistenza dell’arteria epatica e splenica. La rigidità epatica media è stata di 12,4 Kpa. Alla RMN 4DF lo Shear stress assiale è stato massimo a livello del condotto (0,16 Pa) e minimo a livello delle vene sovra epatiche (0,05 Pa). Lo Shear Stress si è mostrato massimo nei pazienti con emodinamica sfavorevole e peggior quadro ecografico addominale, evidenziando aree di inefficienza energetica. Conclusioni: La combinazione delle diagnostiche di imaging non invasive potrebbe rivelarsi adeguata per il monitoraggio della FALD. In particolare, la RMN 4D Flow potrebbe rivelare aree di inefficienza energetica predisponenti alla FALD. Questo potrebbe indirizzare in modo specifico la terapia dei pazienti operati o addirittura indurre la modifica del disegno della Fontan verso forme più efficienti.
Resumo:
La tesi propone un'analisi del Fascicolo Sanitario Elettronico. Il Fascicolo Sanitario Elettronico è uno strumento che, con la telemedicina e le tecnologie ITC, conforma la Sanità Digitale. La sua funzione principale è l'archiviazione di dati e documenti sanitari, ma l'essere una sorta di digitalizzazione delle cartelle cliniche è solo uno dei compiti dell'FSE, la sua utilità comprende una serie di servizi che mirano a facilitare il tracciamento e monitoraggio degli eventi medici che sperimentano i cittadini. Grazie all'FSE è possibile che medici ed operatori sanitari presso diversi ospedali e cliniche possano apprendere l'intera storia clinica del paziente con un click. Nel 2020, con la diffusione del coronavirus, sono stati evidenziati diversi dei problemi che già erano stati riscontrati nel funzionamento dell'FSE, dunque questo documento si pone l'obiettivo di presentare questa tecnologia, il suo funzionamento attuale, le problematiche, e gli obiettivi che mirano al suo miglioramento. Da qualche anno, diversi paesi in giro per il mondo, si sono interessati nello sviluppo di questa tecnologia, con lo scopo di modernizzare e migliorare la salute pubblica, ma, in seguito alla diffusione della pandemia, il fascicolo si è ritrovato al centro dell'attenzione dell'universo sanitario, perciò la decisione di trattare questo tema attualissimo.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
Il Covid-19 ha obbligato a riorganizzare le attività didattiche in base alle esigenze connesse al contenimento dei contagi. Nell’affrontare l’emergenza, i dispositivi elettronici e la connettività sono risultati fondamentali per la sostituzione della didattica in presenza con quella a distanza. L’impatto è stato critico, ma ha costretto anche i più scettici a adeguare la propria offerta formativa, per rispondere alle necessità emerse e per non interrompere la relazione educativa e il processo di apprendimento attivato con i propri alunni. Ciò ha rappresentato un punto di rottura ma anche di svolta per il sistema scolastico, che ha dovuto riconoscere la centralità degli strumenti tecnologici nell’attivazione di ambienti digitali per l’apprendimento, in grado di coinvolgere e connettere insegnanti e studenti anche fuori dall’aula. Questo ha ridotto il divario tra generazioni, inducendo molti docenti a sperimentare le nuove tecnologie con più naturalezza, accelerando il cambiamento già prefigurato nel PNSD e nelle Raccomandazioni Europee. Per orientare le nuove generazioni all’uso consapevole delle nuove tecnologie, la mediazione didattica operata dal docente assume un ruolo centrale per facilitare gli apprendimenti, affiancando i new media a quelli tradizionali. A tal proposito la scelta degli approcci pedagogici e delle metodologie didattiche si rivela essenziale, quindi sono stati esaminati gli apporti che possono fornire le varie teorie e studi per strutturare la propria proposta didattica. Sono stati presi in esame alcuni strumenti digitali in grado di attivare strategie didattiche innovative e inclusive, che ho sperimentato nel percorso universitario e messo in atto durante il tirocinio. In quest’ottica, tenendo conto del contesto scolastico di riferimento, del curricolo verticale esplicitato nel PTOF e dei bisogni educativi degli alunni, sono state proposte due UA in una classe terza della scuola secondaria di primo grado Carlo Pepoli di Bologna.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.