999 resultados para Catene di Markov, MCMC, Algoritmo di Hastings-Metropolis, Campionamento di Gibbs


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel presente lavoro viene descritto come è stata ottimizzata, a livello software e hardware, la procedura di controllo della pressione in uno strumento manometrico utilizzato per la misura della quantità di idrogeno assorbita e desorbita da parte di metalli. Dopo una breve introduzione sulle caratteristiche dell'idrogeno che lo rendono così appetibile dal punto di vista energetico, viene esposta la teoria alla base del processo di formazione di idruri metallici. Vengono dunque descritte le due principali tecniche di caratterizzazione di questi sistemi, ovvero le cinetiche e le isoterme pressione-composizione (PCI), e il metodo di misura adottato, ovvero quello volumetrico. Successivamente si passa alla descrizione delle componenti hardware del sistema, per poi soffermarsi sull'analisi dettagliata dell'algoritmo del software implementato, spiegando i problemi affrontati e le soluzioni adottate, riportando anche alcune formule utili ricorrenti. Infine, vengono esposti i risultati ottenuti da misure di cinetiche e PCI per il sistema MgH2 (idruro di magnesio).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Con questo lavoro si studia l'argomento della dimensione di un insieme parzialmente ordinato P, introdotta nel 1941 da Dushnik e Miller, tramite diagrammi di Hasse, in modo da avere una visione geometrica di un concetto algebrico. Il Teorema di Szpilrajn permette di linearizzare un qualsiasi insieme parzialmente ordinato P: questo anticipa la definizione di dimensione, siccome tutte le linearizzazioni sono realizzatori: le loro coppie comuni sono presenti anche in P. La dimensione viene definita come il minimo numero cardinale m di realizzatori per P. Vengono rivisti alcuni dei risultati già pubblicati da M. Barnabei, F. Bonetti e R. Pirastu e ripresi da M. Silimbani nella sua Tesi di Dottorato: ci si concentra sulla dimensione 2 in cui può essere definito un etichettamento doppio, che si può utilizzare per avere un algoritmo poco costoso atto a sapere se un insieme parzialmente ordinato ha dimensione 2 : esso pone le basi per una corrispondenza biunivoca tra un insieme parzialmente ordinato di cardinalità n dotato di un etichettamento doppio e l'insieme delle permutazioni su n elementi. Infine viene spiegato un altro modo per scoprire se un insieme parzialmente ordinato P ha dimensione al massimo 2 servendosi del solo diagramma di Hasse: ciò succede se e solo se il grafo di inconfrontabilità di P ammette un orientamento transitivo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il riconoscimento di impronte digitali viene largamente utilizzato in molteplici ambiti, dai sistemi di sicurezza alle applicazioni forensi. La maggior parte dei sistemi automatici di riconoscimento si basa sull'estrazione e il confronto delle minuzie nelle impronte digitali, ma l’accuratezza di queste operazioni peggiora sensibilmente in presenza di impronte di scarsa qualità, fino ad arrivare anche a compromettere il riconoscimento stesso. In questo lavoro di tesi ci si è posto come obiettivo il miglioramento delle prestazioni di un algoritmo di estrazione delle minuzie, attraverso l’utilizzo di varie tecniche per l’analisi di qualità locale delle impronte digitali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’oggetto della presente tesi di laurea magistrale consiste nello studio di polimeri coniugati nella catena principale, per una loro applicazione come materiali fotoattivi in celle fotovoltaiche. In particolare, sono stati sintetizzati e caratterizzati politiofeni tioalchil sostituiti, funzionalizzati in posizione 3-3' con catene alchiliche di diversa lunghezza e grado di ramificazione (tra cui una chirale), al fine di studiarne l'effetto sulle proprietà ottiche ed elettriche del materiale. I polimeri ottenuti sono stati caratterizzati mediante tecniche spettroscopiche (1H-NMR, UV-PL), cromatografia a permeazione su gel (GPC), analisi termiche (DSC, TGA) e misure elettrochimiche (voltammetria ciclica). Il comportamento chiro-ottico del campione chirale è stato inoltre valutato tramite misure di dicroismo circolare. Si è infine testata l’efficienza delle celle fotovoltaiche ottenute utilizzando i polimeri sintetizzati come materiale fotoattivo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi è il risultato dell’attività di tirocinio svolta presso Ecor Research, su una tematica proposta da un cliente, più precisamente Tetra Pak. Si progettano nuove soluzioni per un meccanismo estrattore di pacchetti preformati all’interno di un macchina automatica riempitrice di liquido per il confezionamento continuo in ambiente asettico. L’estrattore è posto in seguito all’organo che forma i pacchetti preformati e deve aumentare la velocità degli stessi in modo tale da permettere lo scarto dei danneggiati, in corrispondenza della massima produttività della macchina. Lo scarto avviene tramite uno scivolo che si frappone al moto del pacchetto nel caso esso sia danneggiato, non appena è avvenuta l’estrazione. Quindi, senza la presenza dell’estrattore, il sistema di scarto non ha una adeguata finestra temporale in cui agire. In seguito i pacchetti non danneggiati entrano nel successivo organo macchina dove vengono riferiti e distanziati per le successive lavorazioni. Le nuove soluzioni sono sviluppate su un certo formato di pacchetto, per il quale risultano disponibili spazi minori per l’implementazione dell’estrattore. Si è affrontato il problema costruendo un modello cinetostatico dell’estrattore, ricavando le specifiche di progetto attraverso contatti con il cliente e attraverso l’analisi della soluzione esistente. A causa dei limitati ingombri a disposizione per l’implementazione dell’estrattore, si divide il problema in due parti, progettando ed analizzando per ognuna un ampio ventaglio di soluzioni, tra le quali anche sistemi articolati, introducendo in seguito parametri di valutazione per scegliere le migliori. Si va poi a comporre le parti del problema a seconda delle proprie affinità ottenendo le soluzioni complete e scegliendo le più adatte al caso in esame. Infine si valuta la flessibilità delle soluzioni scelte verificando l’adattabilità ad un differente formato di pacchetto. Si individuano 2 soluzioni, tramite cinghie sincrone e quadrilatero articolato

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di Tesi è stato incentrato sul dimensionamento di un sistema wireless epidermico abile a monitorare parametri fisiologici. La fase iniziale del lavoro è stata spesa per indagare le varie tipologie di sorgenti utili ad effettuare Energy Harvesting in contesti applicativi biomedicali, ed analizzare lo stato dell’arte in merito ai sistemi miniaturizzati, passivi, interfacciabili alla superficie corporea, configurabili nel settore di ricerca e-skin. Il corpo centrale del lavoro è stato quello di dimensionare un nuovo sistema wireless epidermico, energeticamente autonomo. Tale sistema è stato strutturato in tre catene costitutive. La prima di queste definita di Energy Harvesting e storage, presenta una cella solare, un boost converter –charger per il management della potenza ed una thin film battery come elemento di storage. La seconda catena è configurabile come quella di ricezione, in cui l’elemento cruciale è una Wake-Up Radio (WUR), la cui funzione è quella di abilitare il sistema di misura costituito da Microcontroller e sensore solo quando un Reader comunicherà la corretta sequenza di bit abilitanti alla lettura. La presente scelta ha mostrato vantaggi in termini di ridotti consumi. La terza ed ultima catena del sistema per mezzo di Microcontrollore e Transceiver consentirà di trasmettere via RF il dato letto al Reader. Una interfaccia grafica utente implementata in Matlab è stata ideata per la gestione dei dati. La sezione ultima della Tesi è stata impostata analizzando i possibili sviluppi futuri da seguire, in particolare integrare il sistema completo utilizzando un substrato flessibile così come il Kapton e dotare il sistema di sensoristica per misure biomediche specialistiche per esempio la misura del SpO2.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro di tesi si è analizzato il problema di creare un sistema di assistenza allo shopping integrabile in applicazioni e-commerce web e mobile sviluppate con le tecnologie messe a disposizione da Marketcloud, ovvero un progetto che punta a fornire strumenti per la realizzazione, la manutenzione, la gestione, la diffusione e la pubblicizzazione di tali applicazioni limitando i costi e le problematiche di sviluppo a carico delle aziende che intendono fornire servizi di e-commerce. Dopo aver discusso gli aspetti principali del progetto Marketcloud, sono state analizzate le necessità delle aziende interessate allo sviluppo del sistema di assistenza in esame, così come le aspettative degli utenti (i clienti) finali, ed è stato discusso perché fosse necessario e preferibile, nel caso in esame, non utilizzare soluzioni già presenti sul mercato. Infine, è stata progettata ed implementata un’applicazione web che includesse tale sistema e che fosse immediatamente integrabile tra i servizi già sviluppati da Marketcloud, testandone risultati, prestazioni, problemi e possibili sviluppi futuri. Al termine del lavoro di implementazione, il sistema e l'applicazione garantiscono all'utente finale l'utilizzo di tre funzioni: ricerca per categoria, ricerca libera, recommendation di prodotti. Per gestire la ricerca libera, è stato implementato un sistema di filtri successivi, ed una rete neurale multi-livello dotata di un opportuno algoritmo di machine learning per poter apprendere dalle scelte degli utenti; per la recommendation di prodotti, è stato utilizzato un sistema di ranking (classificazione). Le prestazioni della rete neurale sono state oggetto di attenta analisi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.