480 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
Il CoViD-19, infezione dell’apparato respiratorio causata dal virus SARS-COV-2, può indurre una congestione polmonare acuta caratterizzata da dispnea, bassa saturazione di ossigeno e, spesso, infiltrazioni di liquido nei polmoni. In letteratura sono presenti diversi studi sul monitoraggio della congestione polmonare, seppur di diversa eziologia, per mezzo del segnale di bioimpedenza transtoracica. Questa grandezza quantifica la resistenza opposta dai tessuti al passaggio di una minima corrente alternata che diminuisce in relazione al maggiore contenuto di liquido nel tessuto polmonare patologico. Il monitoraggio remoto dello stato polmonare del paziente CoViD-19 mediante bioimpedenza transtoracica rappresenterebbe una soluzione ottimale in termini di pervasività, semplicità di sistema, sicurezza dal contagio e non invasività. Questo studio, inquadrato in un più ampio progetto regionale, MySIGN, si pone come obiettivo quello di caratterizzare il funzionamento di una scheda prototipale e individuare il setup sperimentale più idoneo per l’acquisizione dei segnali ECG e di bioimpedenza. Per confermare le ipotesi sulla variazione di impedenza è stato scelto come gold standard un sistema commerciale (Edema Guard Monitor) del quale sono state valutate la ripetibilità e sensibilità nell’effettuare misure di impedenza. Vengono perciò riportate le principali soluzioni progettuali per l’acquisizione dei segnali bioimpedenziometrici ed elettrocardiografici, le relative elaborazioni e gli algoritmi che permettono di ricavare stime di frequenza respiratoria, battito cardiaco e intervallo QT. Tali informazioni saranno poi integrate con misure di temperatura ed SpO2 in modo tale da fornire al personale sanitario una panoramica completa dello stato del paziente. La scheda di acquisizione verrà integrata nel dispositivo di telemonitoraggio del progetto MySIGN, il quale sarà impiegato in uno studio di sperimentazione clinica e successivamente andrà incontro all’iter di marcatura CE.
Resumo:
L’attuale panorama motoristico, fortemente guidato dalle normative, prevede l’implementazione di diverse tecnologie che hanno lo scopo di migliorare l’efficienza del motore e ridurre le emissioni di inquinanti e per le quali risulta necessario una corretta progettazione dei condotti di aspirazione. Lo sviluppo ottimale dei condotti risulta un compromesso tra obiettivi contrastanti e in termini matematici si tratta di un’ottimizzazione multiobiettivo. Le simulazioni CFD e gli algoritmi genetici sono stati applicati con successo allo studio di questi problemi, ma la combinazione di questi elementi risulta notevolmente dispendiosa in termini di tempo, in quanto sarebbero necessarie un alto numero di simulazioni. Per ridurre i tempi di calcolo, un set di simulazioni CFD pu`o essere pi`u convenientemente utilizzato per istruire una rete neurale, che una volta opportunamente istruita pu`o essere usata per prevedere gli output delle simulazioni in funzione dei parametri di progetto durante l’ottimizzazione con l’algoritmo genetico, operando quella che viene chiamata una ottimizzazione virtuale. In questa tesi, viene mostrata una metodologia numerica per l’ottimizzazione multi-obiettivo dei condotti di aspirazione, basata su un modello CAD a geometria variabile, le simulazioni fluidodinamiche tridimensionali e una rete neurale combinata con un algoritmo genetico.
Resumo:
La colonna vertebrale è la principale sede di metastasi, le quali possono alterare la normale distribuzione dei tessuti ossei e ridurre la capacità della vertebra di sostenere carichi. L’instabilità spinale causata dalle metastasi, tuttavia, è di difficile determinazione. La caratterizzazione meccanica delle vertebre metastatiche permetterebbe di identificare e, di conseguenza trattare, quelle ad alto rischio di frattura. In questo studio, ho valutato il comportamento meccanico a rottura di vertebre umane affette da metastasi misurando in vitro il campo di deformazione. Undici provini, costituiti da due vertebre centrali, una metastatica e una sana, sono stati preparati e scansionati applicando carichi graduali di compressione in una micro-tomografia computerizzata (μCT). Le deformazioni principali sono state misurate attraverso un algoritmo globale di Digital Volume Correlation (DVC) e successivamente sono state analizzate. Lo studio ha rivelato che le vertebre con metastasi litiche raggiungono deformazioni maggiori delle vertebre sane. Invece, le metastasi miste non assicurano un comportamento univoco in quanto combinano gli effetti antagonisti delle lesioni litiche e blastiche. Dunque la valutazione è stata estesa a possibili correlazioni tra il campo di deformazione e la microstruttura della vertebra. L'analisi ha identificato le regioni in cui parte la frattura (a più alta deformazione), senza identificare, in termini microstrutturali, una zona preferenziale di rottura a priori. Infatti, alcune zone con un pattern trabecolare denso, presunte più rigide, hanno mostrato deformazioni maggiori di quelle dei tessuti sani, sottolineando l’importanza della valutazione della qualità del tessuto osseo. Questi risultati, generalizzati su un campione più ampio, potrebbero essere utilizzati per implementare nuovi criteri negli attuali sistemi di valutazione dell'instabilità spinale.
Resumo:
La Brain Computer Interface, con l’acronimo BCI, è un mezzo per la comunicazione tra cervello e macchina. La comunicazione si basa sulla emanazione di segnali elettrici del cervello che vengono rilevati da un dispositivo, il quale invia i segnali digitalizzati ad un elaboratore. I segnali elettrici, chiamati EEG, permettono al cervello di regolare la comunicazione tra le diverse cellule neurali. La BCI intercetta questi segnali e, previa elaborazione, permette di ottenere diversi diagrammi, detti metriche, per poter misurare, sotto svariati aspetti, il funzionamento del cervello. Le ricerche scientifiche sulle EEG hanno rilevato una correlazione tra i segnali elettrici nel cervello di un soggetto con il suo livello di performance e stato emotivo. È quindi possibile comprendere, tramite una serie di parametri, come la mente dei soggetti reagisce a stimoli esterni di svariata tipologia durante lo svolgimento di un’attività. L’elaboratore, che riceve il segnale dalla BCI, è il componente che si occupa di trasformare i segnali elettrici, generati dal cervello e digitalizzati, in risultati facilmente interpretabili dall’utente. Elaborare i segnali EEG in tempo reale porta a dover utilizzare algoritmi creati appositamente per questo scopo e specifici perle metriche preposte. Lo scopo di questa tesi è quello di presentare un progetto sullo sviluppo della fase di smistamento dei dati ricevuti dall’elaboratore. Nel contempo si fornirà una conoscenza scientifica minima per comprendere le scelte fatte. Tale progetto è stato reso possibile dalla collaborazione con l’azienda Vibre, che si dedica allo sviluppo di un sistema comprendente BCI ed elaboratore.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
Il seguente elaborato di tesi è finalizzato allo studio, alla preparazione e alla caratterizzazione di campioni geopolimerici sintetizzati in laboratorio. I geopolimeri sono materiali allumino silicatici a matrice polimerica ottenuti, attraverso un trattamento termico a bassa temperatura (generalmente inferiore ai 150-200°C), da una polvere reattiva a composizione prevalentemente allumino silicatica, e un attivatore alcalino, che può essere sotto forma di soluzione o di polvere. Questi materiali innovativi, presentano una versatilità notevole per quanto riguarda le applicazioni potenziali. Infatti, avendo proprietà termiche, meccaniche e chimico-fisiche ottimali possono essere impiegati in differenti settori produttivi e/o industriali, dal settore edile e delle grandi opere fino a quello aeronautico e automobilistico . I materiali geopolimerici sono utilizzati in molteplici campi d’applicazione perché risultano essere economicamente vantaggiosi e relativamente semplici da produrre. In questo lavoro di tesi sono stati prodotti differenti campioni a matrice geopolimerica, utilizzando diversi materiali come precursori e due tipologie di attivatore alcalino. Sui campioni geopolimerici realizzati sono state effettuate numerose analisi: XRD, SEM, analisi dell'andamento interno della temperatura dei campioni durante il trattamento termico in incubatore a 80°C, e infine anche delle prove meccaniche preliminari di compressione verticale, investigando il comportamento di alcuni campioni geopolimerici rappresentativi una volta sottoposti a una pressione assiale di 30 MPa, 60 MPa e 90 MPa, per una durata compresa tra le 24 e le 48 ore, a carico costante.
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
L'oggetto della tesi è la modellazione numerica di pali di fondazione per turbine eoliche in ambiente offshore. Il metodo di modellazione comprende l'interpretazione di prove CPT per l'estrapolazione dei parametri geotecnici del terreno, la creazione di un modello dell'interazione tra struttura e terreno tramite il software agli elementi finiti Abaqus, la sua verifica, l'ottimizzazione dell'estensione del modello del terreno e della mesh e la simulazione numerica del comportamento di pali caricati assialmente in compressione. Grazie al confronto con i risultati di test su modelli fisici, eseguiti nel laboratorio dell'istituto Fraunhofer IWES di Hannover, di tre pali aventi la stessa geometria ma installati in punti con diverse condizioni di compattazione della sabbia, è stata possibile la messa a punto di una strategia di simulazione più accurata possibile e la sua validazione. A conclusione del lavoro è stato eseguito un esempio di design di una fondazione jacket per una turbina eolica offshore.
Resumo:
Il riconoscimento delle condizioni del manto stradale partendo esclusivamente dai dati raccolti dallo smartphone di un ciclista a bordo del suo mezzo è un ambito di ricerca finora poco esplorato. Per lo sviluppo di questa tesi è stata sviluppata un'apposita applicazione, che combinata a script Python permette di riconoscere differenti tipologie di asfalto. L’applicazione raccoglie i dati rilevati dai sensori di movimento integrati nello smartphone, che registra i movimenti mentre il ciclista è alla guida del suo mezzo. Lo smartphone è fissato in un apposito holder fissato sul manubrio della bicicletta e registra i dati provenienti da giroscopio, accelerometro e magnetometro. I dati sono memorizzati su file CSV, che sono elaborati fino ad ottenere un unico DataSet contenente tutti i dati raccolti con le features estratte mediante appositi script Python. A ogni record sarà assegnato un cluster deciso in base ai risultati prodotti da K-means, risultati utilizzati in seguito per allenare algoritmi Supervised. Lo scopo degli algoritmi è riconoscere la tipologia di manto stradale partendo da questi dati. Per l’allenamento, il DataSet è stato diviso in due parti: il training set dal quale gli algoritmi imparano a classificare i dati e il test set sul quale gli algoritmi applicano ciò che hanno imparato per dare in output la classificazione che ritengono idonea. Confrontando le previsioni degli algoritmi con quello che i dati effettivamente rappresentano si ottiene la misura dell’accuratezza dell’algoritmo.
Resumo:
In these last years a great effort has been put in the development of new techniques for automatic object classification, also due to the consequences in many applications such as medical imaging or driverless cars. To this end, several mathematical models have been developed from logistic regression to neural networks. A crucial aspect of these so called classification algorithms is the use of algebraic tools to represent and approximate the input data. In this thesis, we examine two different models for image classification based on a particular tensor decomposition named Tensor-Train (TT) decomposition. The use of tensor approaches preserves the multidimensional structure of the data and the neighboring relations among pixels. Furthermore the Tensor-Train, differently from other tensor decompositions, does not suffer from the curse of dimensionality making it an extremely powerful strategy when dealing with high-dimensional data. It also allows data compression when combined with truncation strategies that reduce memory requirements without spoiling classification performance. The first model we propose is based on a direct decomposition of the database by means of the TT decomposition to find basis vectors used to classify a new object. The second model is a tensor dictionary learning model, based on the TT decomposition where the terms of the decomposition are estimated using a proximal alternating linearized minimization algorithm with a spectral stepsize.
Resumo:
The idea behind the project is to develop a methodology for analyzing and developing techniques for the diagnosis and the prediction of the state of charge and health of lithium-ion batteries for automotive applications. For lithium-ion batteries, residual functionality is measured in terms of state of health; however, this value cannot be directly associated with a measurable value, so it must be estimated. The development of the algorithms is based on the identification of the causes of battery degradation, in order to model and predict the trend. Therefore, models have been developed that are able to predict the electrical, thermal and aging behavior. In addition to the model, it was necessary to develop algorithms capable of monitoring the state of the battery, online and offline. This was possible with the use of algorithms based on Kalman filters, which allow the estimation of the system status in real time. Through machine learning algorithms, which allow offline analysis of battery deterioration using a statistical approach, it is possible to analyze information from the entire fleet of vehicles. Both systems work in synergy in order to achieve the best performance. Validation was performed with laboratory tests on different batteries and under different conditions. The development of the model allowed to reduce the time of the experimental tests. Some specific phenomena were tested in the laboratory, and the other cases were artificially generated.
Resumo:
Agricultural techniques have been improved over the centuries to match with the growing demand of an increase in global population. Farming applications are facing new challenges to satisfy global needs and the recent technology advancements in terms of robotic platforms can be exploited. As the orchard management is one of the most challenging applications because of its tree structure and the required interaction with the environment, it was targeted also by the University of Bologna research group to provide a customized solution addressing new concept for agricultural vehicles. The result of this research has blossomed into a new lightweight tracked vehicle capable of performing autonomous navigation both in the open-filed scenario and while travelling inside orchards for what has been called in-row navigation. The mechanical design concept, together with customized software implementation has been detailed to highlight the strengths of the platform and some further improvements envisioned to improve the overall performances. Static stability testing has proved that the vehicle can withstand steep slopes scenarios. Some improvements have also been investigated to refine the estimation of the slippage that occurs during turning maneuvers and that is typical of skid-steering tracked vehicles. The software architecture has been implemented using the Robot Operating System (ROS) framework, so to exploit community available packages related to common and basic functions, such as sensor interfaces, while allowing dedicated custom implementation of the navigation algorithm developed. Real-world testing inside the university’s experimental orchards have proven the robustness and stability of the solution with more than 800 hours of fieldwork. The vehicle has also enabled a wide range of autonomous tasks such as spraying, mowing, and on-the-field data collection capabilities. The latter can be exploited to automatically estimate relevant orchard properties such as fruit counting and sizing, canopy properties estimation, and autonomous fruit harvesting with post-harvesting estimations.
Resumo:
I giacimenti di cinabro (±stibina) del M.te Amiata costituiscono un distretto minerario di importanza mondiale, con una produzione storica totale che supera le 117 kt di Hg, prodotte tra il 1850 e il 1982. Nell’area del distretto minerario si trova l’omonimo sistema geotermico, con 6 impianti per la produzione di energia elettrica che producono 121MW equivalenti di energia. Lo scopo di questa tesi è di individuare e di verificare correlazioni esistenti tra la peculiare distribuzione N-S delle mineralizzazioni a cinabro, le manifestazioni geotermiche e l’assetto strutturale che caratterizza il distretto cinabrifero e il sistema geotermico. Le correlazioni sono state individuate attraverso l’applicazione di algoritmi Machine Learning (ML), utilizzando Scikit-learn, ad un dataset bidimensionale, costruito con applicazioni GIS per contenere tutti i dati geologici-giacimentologici reperiti in letteratura riguardo al distretto amiatino. È stato costruito un modello tridimensionale dell’area di studio basato sulla produzione di quattro solidi che raggruppano le formazioni geologiche presenti nell’area sulla base delle loro caratteristiche geoidrologiche. Sulla base dei risultati ottenuti si può affermare che le tecniche di ML si sono dimostrate utili nell’identificare correlazioni tra i diversi fattori geologico-strutturali che caratterizzano il sistema geotermico del M.te Amiata; la peculiare distribuzione spaziale N-S dei giacimenti del distretto dipende dalla combinazione di un sistema di faglie e di pieghe; i modelli di regressione basati su alberi decisionali (CatBoost e Random Forest) sono complessivamente più performanti e geologicamente significativi. Questo lavoro suggerisce che il ML rappresenta uno strumento in grado di suggerire nuove e poco sperimentate relazioni tra elementi geologici-giacimentologici di un’area complessa come un sistema geotermico ed è in grado di guidare eventuali fasi successive di studi geologici complessi.
Resumo:
La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.