22 resultados para Rilevamento pedoni, Pattern recognition, Descrittori di tessitura, Classificatori
Resumo:
This thesis work has been developed in collaboration between the Department of Physics and Astronomy of the University of Bologna and the IRCCS Rizzoli Orthopedic Institute during an internship period. The study aims to investigate the sensitivity of single-sided NMR in detecting structural differences of the articular cartilage tissue and their correlation with mechanical behavior. Suitable cartilage indicators for osteoarthritis (OA) severity (e.g., water and proteoglycans content, collagen structure) were explored through four NMR parameters: T2, T1, D, and Slp. Structural variations of the cartilage among its three layers (i.e., superficial, middle, and deep) were investigated performing several NMR pulses sequences on bovine knee joint samples using the NMR-MOUSE device. Previously, cartilage degradation studies were carried out, performing tests in three different experimental setups. The monitoring of the parameters and the best experimental setup were determined. An NMR automatized procedure based on the acquisition of these quantitative parameters was implemented, tested, and used for the investigation of the layers of twenty bovine cartilage samples. Statistical and pattern recognition analyses on these parameters have been performed. The results obtained from the analyses are very promising: the discrimination of the three cartilage layers shows very good results in terms of significance, paving the way for extensive use of NMR single-sided devices for biomedical applications. These results will be also integrated with analyses of tissue mechanical properties for a complete evaluation of cartilage changes throughout OA disease. The use of low-priced and mobile devices towards clinical applications could concern the screening of diseases related to cartilage tissue. This could have a positive impact both economically (including for underdeveloped countries) and socially, providing screening possibilities to a large part of the population.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
Hand gesture recognition based on surface electromyography (sEMG) signals is a promising approach for the development of intuitive human-machine interfaces (HMIs) in domains such as robotics and prosthetics. The sEMG signal arises from the muscles' electrical activity, and can thus be used to recognize hand gestures. The decoding from sEMG signals to actual control signals is non-trivial; typically, control systems map sEMG patterns into a set of gestures using machine learning, failing to incorporate any physiological insight. This master thesis aims at developing a bio-inspired hand gesture recognition system based on neuromuscular spike extraction rather than on simple pattern recognition. The system relies on a decomposition algorithm based on independent component analysis (ICA) that decomposes the sEMG signal into its constituent motor unit spike trains, which are then forwarded to a machine learning classifier. Since ICA does not guarantee a consistent motor unit ordering across different sessions, 3 approaches are proposed: 2 ordering criteria based on firing rate and negative entropy, and a re-calibration approach that allows the decomposition model to retain information about previous sessions. Using a multilayer perceptron (MLP), the latter approach results in an accuracy up to 99.4% in a 1-subject, 1-degree of freedom scenario. Afterwards, the decomposition and classification pipeline for inference is parallelized and profiled on the PULP platform, achieving a latency < 50 ms and an energy consumption < 1 mJ. Both the classification models tested (a support vector machine and a lightweight MLP) yielded an accuracy > 92% in a 1-subject, 5-classes (4 gestures and rest) scenario. These results prove that the proposed system is suitable for real-time execution on embedded platforms and also capable of matching the accuracy of state-of-the-art approaches, while also giving some physiological insight on the neuromuscular spikes underlying the sEMG.
Resumo:
La conoscenza del regime dei deflussi di un corso d’acqua è uno strumento imprescindibile in diverse applicazioni tecniche, dalla progettazione di opere idrauliche alla calibrazione di modelli afflussi-deflussi. Tuttavia, poiché questa informazione non è sempre disponibile, si sono sviluppati in letteratura metodi regionali in grado di trasferire il dato di portata disponibile su sezioni idrologicamente simili alla sezione di interesse. Nel presente lavoro di Tesi, è stato sviluppato un algoritmo di generazione di serie di deflussi sintetici per sezioni non strumentate a partire da serie osservate in sezioni ad esse sincrone nei deflussi. L’algoritmo sfrutta una curva di durata regionale relativa al sito di interesse, stimata attraverso il metodo della portata indice: la portata indice è valutata da un modello multiregressivo mentre la curva regionale adimensionale è ottenuta dalle osservazioni di portata in sezioni strumentate, applicando il criterio della Regione di Influenza. La tecnica è stata verificata su una sezione dell’asta principale del Fiume Marecchia (nell’Italia settentrionale), caratterizzata da limitate osservazioni idrometriche, sfruttando i dati osservati su bacini orientali della Regione Emilia-Romagna. Per l’applicazione del metodo del deflusso indice, si è reso necessario anche il reperimento di indici morfologici e climatici, estraendo solo quelli più rappresentativi del dataset. Inoltre, vista la brevità degli eventi di piena nel bacino del Marecchia, si è messa a punto una procedura per discretizzare a passo orario le portate ricostruite degli eventi più significativi, sulla base delle osservazioni orarie nei bacini strumentati. L’algoritmo mostra buone prestazioni nel replicare le portate osservate, specialmente le piene, mentre sottostima le portate medio-basse. L’accordo tra osservazioni e simulazioni si è rivelato pienamente soddisfacente per la sezione del Fiume Marecchia considerata nelle indagini.
Resumo:
Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.
Resumo:
La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.
Resumo:
Il Genius Loci, affrontato nelle sue caratteristiche e analizzato tra la perdita e la riscoperta del luogo, è il filo conduttore per la rilettura di un percorso, che si snoda attraverso le esperienze didattiche progettuali maturate durante il corso di studi. L’analisi del concetto di luogo avviene secondo la lettura data dagli architetti che in particolare ne hanno promosso il confronto, Aldo Rossi e Christian Norberg-Schulz, nella loro interpretazione volta alla riscoperta della memoria del luogo e dell’identificazione con esso. Se da una parte c’è una valutazione della sedimentazione storica, individuata come memoria imprescindibile; dall’altra c’è un apprezzamento delle caratteristiche intrinseche del sito, che ne costituiscono la sua identità. Il confronto con alcuni scritti di Umberto Cao e Franco Purini ha permesso di concludere un lungo discorso, riallacciandolo al dibattito culturale che aveva suscitato. Per avvicinarci a questo concetto di rispetto del luogo e alla sua valorizzazione si sono presentati due progetti, che ne rappresentano da una parte la piena realizzazione e dall’altra il fallimento e questi sono il Centro culturale Jean-Marie Tjibaou a Nouméa in Nuova Caledonia di Renzo Piano ed il progetto Nexus di un complesso di abitazioni a Fukuoka, in Giappone, coordinato da Arata Isozaky. I progetti maturati durante le esperienze didattiche e presentati per un confronto sul tema sono: Un giardino in forma di teatro, progettato per il quadrilatero di Cervia, con la professoressa Maura Savini; Tre edifici per uffici e pubblici esercizi, realizzati all’interno di un intervento di gruppo più ampio, sulla Vena Mazzarini, a Cesenatico, affrontati con il professor Jose’ Charters Monteiro; un Edificio per il rilevamento delle acque, in prossimità di Kleve, in Germania, realizzato durante il periodo Erasmus, svoltosi presso la Fachhochschule di Colonia, con il professor Hannes Hermanns.