1000 resultados para modellazione e simulazione, reti wireless, qualità del servizio, protocollo MAC
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
L'elaborato in questione fa riferimento all’implementazione di un codice di simulazione gara, tenutasi all'Autodromo di Imola, di un veicolo solare applicato al caso Italian Solar Challenge. Per avere la possibilità di effettuare scelte strategiche sulla conduzione di gara, si è voluto creare un programma che fosse in grado di modellare: il veicolo designato per questa competizione, la produzione di energia generata dai pannelli solari, il comportamento della batteria; inoltre, che permettesse anche di integrare il regolamento per la restituzione del punteggio finale, di considerare il tracciato nel quale la competizione si svolge e di aver un tempo di calcolo limitato e contemporaneamente avere un’adeguata accuratezza.
Resumo:
Le fibre ottiche sono materiali costituiti al loro interno da fibre di vetro o filamenti polimerici. Esse attualmente trovano grande impiego nel campo della telecomunicazione, ma è assai importante lo sviluppo che stanno ottenendo nel campo del monitoraggio strutturale. L’obiettivo del lavoro descritto in questo elaborato finale è di riuscire a sviluppare un programma in grado di computare una simulazione analitico-parametrica riguardante i segnali restituiti da un sensore in fibra ottica. In particolare, sono stati creati due codici (Codice 1 e Codice 2) per sostenere un Codice Esistente. Quest’ultimo prende in input dei dati sperimentali che, invece di essere ottenuti da prove in laboratorio, sono prodotti in uscita dal Codice 1, il quale simula prove a fatica o statiche in provini di diverso materiale. Attraverso l’analisi di questi dati, il codice finale crea delle curve probabilistiche in grado di asserire con quanta probabilità e con quale confidenza è possibile valutare i risultati esplicitati dallo strumento di rilevazione, che in questo caso è un sensore in fibra ottica. D’altra parte, il Codice 2 analizza le conseguenze nella Probability of Detection e confidenza al variare dei parametri maggiormente influenti nel modello.
Resumo:
Nel seguente elaborato viene ripercorso il lavoro svolto per la progettazione di un box batterie in materiale composito e in particolare il relativo sistema di fissaggio al telaio che verrà utilizzato per l’auto solare Emilia 5. Questo prototipo di veicolo, che viene sviluppato dai membri del team Onda Solare presso l’azienda Metal TIG a Castel San Pietro Terme (BO), è un’auto completamente elettrica che sfrutta l’energia solare attraverso pannelli fotovoltaici e la cui propulsione è garantita dalla sola energia accumulata nelle batterie. Emilia 5 gareggerà all’evento World Solar Challenge 2023 in Australia, competizione riservata alle auto solari che vede impegnati teams da tutto il mondo. L’elaborato mostra inizialmente la modellazione geometrica tridimensionale delle parti sviluppata attraverso il software Solidworks, analizzandone i dettagli funzionali. In seguito, tramite il software Ansys Workbench, vengono eseguite simulazioni agli elementi finiti verificando che i componenti, considerati in alluminio, rispondano correttamente ai carichi imposti. Per ultimo, vengono menzionati i materiali compositi in fibra di carbonio e si analizza la sequenza di laminazione relativa alla scatola delle batterie. I risultati ottenuti saranno utilizzati dal team Onda Solare come punto di riferimento per la realizzazione dei componenti di Emilia 5.
Resumo:
L'elaborato di tesi affronta le tematiche legate al rilievo tridimensionale di un'opera idraulica storica, georeferenziato nel proprio contesto territoriale per supportare applicazioni di gestione, manutenzione e protezione civile. Si illustrano le tecniche geomatiche adottate e la loro integrazione, evidenziando in particolare le procedure adottate nella elaborazione della nuvola di punti derivante dalla fusione di rilievi fotogrammetrici e con laser a scansione. Sono infine presentati alcuni dei prodotti realizzati.
Resumo:
Abstract Background: La spondilite anchilosante (SA) è una patologia reumatica cronica infiammatoria. Provoca dolore e rigidità diffusi, con localizzazione principalmente al rachide lombo sacrale, ed impatta gravemente la qualità. Il trattamento d’elezione è di tipo farmacologico, ma viene raccomandato parallelamente un trattamento di tipo fisioterapico, nonostante non sia chiaro se risulta efficace nel migliorare la qualità della vita. Obbiettivo: L’obbiettivo di questo studio è quello di verificare l’efficacia del trattamento riabilitativo sulla qualità della vita nei soggetti affetti da spondilite anchilosante. Materiali e Metodi: Lo studio è un Trial Clinico Controllato Randomizzato, monocentrico, in doppio cieco, condotto presso l’Unità Operativa Complessa di Medicina Riabilitativa (UOCMR) Presidio S. Alvisi dell’Azienda USL di Imola, dal 29 Aprile 2021 ed attualmente ancora in corso. 36 partecipanti sono stati suddivisi in due gruppi: 19 nel gruppo di controllo hanno ricevuto il solo trattamento farmacologico, 17 nel gruppo sperimentale hanno ricevuto in aggiunta il trattamento fisioterapico. Risultati: Dai dati analizzati si evince un miglioramento statisticamente significativo della scala ASQoL nel breve termine (P=0.031), ma non nel lungo termine (P=0.058). Inoltre, in tutto il campione emerge un miglioramento statisticamente significativo dei valori di BASDAI (P<0.001) e BASFI (P<0.001), senza riscontrare differenze statisticamente significative fra il gruppo di controllo e il gruppo di trattamento. Conclusioni: Il trattamento riabilitativo è efficace nel migliorare la qualità della vita dei soggetti con SA nel breve termine, ma non sembra determinare un miglioramento nel lungo termine. Ulteriori studi sono necessari per approfondire l’efficacia della riabilitazione sulla qualità della vita.
Resumo:
Background. La sclerosi multipla (SM) è una malattia neurodegenerativa che colpisce il sistema nervoso centrale. I sintomi si manifestano prima dei 55 anni di età, possono essere molto diversi tra loro. Al momento non esiste una cura definitiva, ma sono disponibili tecniche riabilitative che modificano il suo andamento, tra cui la riabilitazione equestre, che consiste in attività svolte con l'aiuto del cavallo a fini di cura. Obiettivi. Lo scopo di questo studio è quello di indagare l’efficacia della riabilitazione equestre sui parametri funzionali del cammino e la qualità della vita in persone con SM. Metodi. Le banche dati visionate per questo studio sono state PUBMED, PEDro, Cochrane Central Register of Controlled Trial, Web of Science e Scopus. Nella revisione sono stati inclusi i Randomized Controlled Trial (RCT) che indagavano i parametri funzionali del cammino e la qualità della vita; articoli che esaminavano soggetti con sclerosi multipla senza limiti di età e sesso, in lingua inglese, pubblicati tra il 2010 e il 2020 e di cui era reperibile il full text. Risultati. Gli studi inclusi sono stati quattro RCT. Gli outcome indagati sono stati i parametri funzionali del cammino e la qualità della vita. In ogni studio esaminato si osserva un miglioramento significativo per ogni misura di outcome, in particolare la qualità della vita. Conclusioni. Ogni studio ha evidenziato come la riabilitazione equestre abbia influito positivamente sul decorso della SM. Riguardo i trial clinici esaminati, il numero esiguo dei partecipanti ai singoli studi, la durata eterogenea delle sessioni, l’impossibilità di disporre della descrizione della seduta, l’utilizzo di scale differenti per ogni studio e l’aver considerato parametri diversi per valutare uno stesso outcome non permettono di avere risultati estendibili a tutta la popolazione. Risulta necessario un ulteriore approfondimento in merito per comprendere la reale efficacia della riabilitazione equestre.
Resumo:
I recenti sviluppi nel campo dell’intelligenza artificiale hanno permesso una più adeguata classificazione del segnale EEG. Negli ultimi anni è stato dimostrato come sia possibile ottenere ottime performance di classificazione impiegando tecniche di Machine Learning (ML) e di Deep Learning (DL), facendo uso, per quest’ultime, di reti neurali convoluzionali (Convolutional Neural Networks, CNN). In particolare, il Deep Learning richiede molti dati di training mentre spesso i dataset per EEG sono limitati ed è difficile quindi raggiungere prestazioni elevate. I metodi di Data Augmentation possono alleviare questo problema. Partendo da dati reali, questa tecnica permette, la creazione di dati artificiali fondamentali per aumentare le dimensioni del dataset di partenza. L’applicazione più comune è quella di utilizzare i Data Augmentation per aumentare le dimensioni del training set, in modo da addestrare il modello/rete neurale su un numero di campioni più esteso, riducendo gli errori di classificazione. Partendo da questa idea, i Data Augmentation sono stati applicati in molteplici campi e in particolare per la classificazione del segnale EEG. In questo elaborato di tesi, inizialmente, vengono descritti metodi di Data Augmentation implementati nel corso degli anni, utilizzabili anche nell’ambito di applicazioni EEG. Successivamente, si presentano alcuni studi specifici che applicano metodi di Data Augmentation per migliorare le presentazioni di classificatori basati su EEG per l’identificazione dello stato sonno/veglia, per il riconoscimento delle emozioni, e per la classificazione di immaginazione motoria.
Resumo:
Le aree poste in prossimità di rilevati arginali si trovano esposte ad un rischio idraulico residuale, associato a possibili eventi di piena eccezionali o al cedimento del sistema arginale. La previsione, mitigazione e prevenzione delle conseguenze connesse a questi possibili fenomeni, nonché la loro gestione in tempo reale, rappresentano sfide complesse per le autorità competenti. In questo contesto, l'obiettivo della presente attività di tesi è stato quello di predisporre una metodologia semplificata che, in caso di eventi di piena, potesse offrire una valutazione speditiva del volume esondabile da una ipotetica rotta arginale, senza ricorrere alla modellistica numerica per la quale sono richiesti dati e tempi non sempre disponibili. La metodologia proposta stima un idrogramma sintetico, associato al volume esondabile da una breccia arginale. Le variabili richieste in input sono: l’ipotetica posizione della rotta ed il carico idraulico su di essa (funzione dell’approfondimento della rotta stessa). Lo sviluppo si è basato su dati di scenari di allagamento (con tempo di ritorno 100 anni) associati a brecce analizzate sul fiume Reno mediante modellazione mono- e bi-dimensionale. Gli scenari di allagamento derivanti dagli idrogrammi sintetici sono stati quindi confrontati con le aree di allagamento conseguenti alle rotte precedentemente simulate, in modo da valutarne la corretta riproduzione. I risultati evidenziano una buona riproduzione delle dinamiche e dell’estensione massima degli allagamenti nel caso della stima dell’idrogramma di esondazione semplificato, facendo pertanto apparire la procedura proposta come un valido strumento a sostegno della gestione emergenziale.
Resumo:
In questa tesi è stata analizzata attraverso una modellazione numerica tramite Xbeach la batimetria delle coste di Cesenatico Ponente e la sua modifica dopo eventi meteomarini del clima tipico della durata di 12 ore. Verrà analizzata in primis l'area di studio attraverso la descrizione delle caratteristiche e delle opere presenti, si delineeranno quali funzioni vengono adottate nel modello e seguiranno poi le spiegazioni di tutti i passi svolti e quali parametri sono stati utilizzati per lanciare una simulazione. Infine, verranno mostrati e commentati i risultati più significativi.
Resumo:
Il presente elaborato analizza le rese del sistema di interpretazione automatica WT2 Plus di Timekettle in un reale contesto didattico. Nello specifico, sono state condotte tre sperimentazioni presso l’Accademia Europea di Manga utilizzando due modalità di interpretazione supportate dal dispositivo. L’obiettivo è valutare la qualità di un sistema di interpretazione automatica in un contesto reale, dato che allo stato attuale mancano studi che valutino la performance di questi dispositivi nei reali contesti per i quali sono stati sviluppati. Il primo capitolo ripercorre la storia dell’interpretazione automatica, cui fa seguito la spiegazione della tecnologia alla base dei sistemi disponibili sul mercato, di cui poi si presenta lo stato dell’arte. Successivamente si delinea in breve il prossimo passaggio evolutivo nell’interpretazione automatica e si analizzano tre casi studio simili a quello proposto. Il capitolo si conclude con l’approccio scelto per valutare la performance del dispositivo. Il secondo capitolo, dedicato alla metodologia, si apre con una panoramica su WT2 Plus e sull’azienda produttrice per poi descrivere il metodo usato nelle sperimentazioni. Nello specifico, le sperimentazioni sono state condotte durante alcune delle attività previste nel normale svolgimento delle lezioni presso l’Accademia Europea di Manga con il coinvolgimento di uno studente anglofono e di due membri del personale accademico. I dati raccolti sono analizzati e discussi rispettivamente nei capitoli 3 e 4. I risultati ottenuti sembrano suggerire che il dispositivo non sia, allo stato attuale, compatibile con un reale contesto didattico, per via del quasi mancato funzionamento di una delle modalità prescelte, per il servizio di interpretazione, che risulta ancora troppo letterale, la monotonia dell’intonazione della voce automatica e infine per la traduzione quasi completamente errata della terminologia tecnica.
Resumo:
The participation in the Language Toolkit program—a joint initiative of the Department of Interpretation and Translation of Forlì (University of Bologna) and the Chamber of Commerce of Romagna—led to the creation of this dissertation. This program aims to support the internationalization of SMEs while also introducing near-graduates to a real professional context. The author collaborated on this project with Leonori, a company that produces and sells high jewelry products online and through retailers. The purpose of this collaboration is to translate and localize a part of the company website from Italian into Chinese, so as to facilitate their internationalization process to Chinese-speaking countries. This dissertation is organized according to the usual stages a translator goes through when carrying out a translation task. First and foremost, however, it was necessary to provide a theoretical background pertaining to the topics of the project. Specifically, the first chapter introduces the Language Toolkit program, the concept of internationalization and the company itself. The second chapter is dedicated to the topic of inverse translation, including the advantages and disadvantages of this practice. The third chapter highlights the main features of localization, with a particular emphasis on web localization. The fourth chapter deals with the analysis of the source text, according to the looping model developed by Nord (1991). The fifth chapter describes in detail the methods implemented for the creation of the language resources i.e., two comparable monolingual corpora and a termbase, which were built ad hoc for this specific project. In the sixth chapter all the translation strategies that were implemented are outlined, providing some examples from the source text. The final chapter describes the revision process, which occurred both during and after the translation phase.
Resumo:
I sistemi di comunicazione 6G si prevede che soddisfino requisiti più stringenti rispetto alle reti 5G in termini di capacità di trasmissione, affidabilità, latenza, copertura, consumo energetico e densità di connessione. I miglioramenti che si possono ottenere agendo solo sugli end-points dell'ambiente wireless potrebbero non essere sufficienti per adempiere a tali obiettivi. Performance migliori potrebbero invece essere raggiunte liberandosi del postulato che fissa l'ambiente di propagazione come elemento incontrollabile. In questo panorama spicca una tecnologia recente che prende il nome di Reconfigurable Intelligent Surface (RIS) e che si pone l'obiettivo di rendere personalizzabile l'ambiente di propagazione wireless attraverso elaborazioni quasi passive di segnale. Una RIS è una superficie sottile ingegnerizzata al fine di possedere proprietà che le permettono di controllare dinamicamente le onde elettromagnetiche attraverso, ad esempio, la riflessione, rifrazione e focalizzazione del segnale. Questo può portare alla realizzazione del cosiddetto Smart Radio Environment (SRE), ovvero un ambiente di propagazione che non è visto come entità aleatoria incontrollabile, ma come parametro di design che svolge un ruolo fondamentale nel processo di ottimizzazione della rete. Nel presente elaborato, partendo da un modello macroscopico del comportamento di una RIS sviluppato dal gruppo di ricerca di propagazione e integrato all'interno di un simulatore di ray tracing, si effettua uno studio di coperture wireless con l'ausilio di RIS in semplici scenari indoor di riferimento.
Resumo:
Gli UAV, o meglio conosciuti come ‘droni’, sono aeromobili a pilotaggio remoto il cui utilizzo si estende dal settore militare a quello civile. Quest’ultimi, possono essere attrezzati con numerosi dispositivi accessori, come ad esempio disturbatori di frequenze. La simbiosi UAV-jammer attacca le comunicazioni wireless tramite interferenze a radiofrequenza, per degradare o interrompere il servizio offerto dalle reti. Questo elaborato, si concentra sull’analisi di algoritmi di localizzazione passiva, per stimare la posizione dell’UAV e interrompere l’interferenza. Inizialmente, viene descritto il segnale emesso dall’UAV, che utilizza lo standard di comunicazione 802.11a. A seguire, dato che la localizzazione passiva si basa sulle misure TDOA rilevate da una stazione di monitoraggio a terra, vengono presentati tre algoritmi di stima TDOA, tra i quali fast TDOA, adaptive threshold-based first tap detection e un algoritmo sviluppato per i nuovi sistemi GNSS. Successivamente, vengono esaminati tre algoritmi di localizzazione passiva, che sfruttano il principio dei minimi quadrati (LS), ovvero il CTLS, LCLS e CWLS. Infine, le prestazioni degli algoritmi di localizzazione vengono valutate in un ambiente di simulazione realistico, con canale AWGN o con canale ITU Extended pedestrian A.