690 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro ha l’obbiettivo di valutare i risultati ottenuti su campioni stratificati sabbia/argilla attraverso l’applicazione della risonanza magnetica nucleare e di confrontare la risposta ottenuta tramite uno strumento di misura di laboratorio con quella di una sonda geofisica normalmente utilizzata per le analisi in pozzo. Tale lavoro si è reso necessario per comprendere le cause per cui la sonda CMR-Tool realizzata da Schlumberger non sia in grado di mettere in evidenza la stratificazione sabbia/argilla che caratterizza il bacino sedimentario dell’Adriatico in cui è presente un importante bacino di coltivazione di gas naturale. La tipica risposta NMR su una formazione stratificata sabbia/argilla è costituita da una distribuzione bimodale dei tempi di rilassamento che la sonda suddetta, nel caso specifico, non è in grado di produrre. Pertanto, per conoscere le cause per cui tale bimodalità della distribuzione non si presenti, è stato necessario confrontare i risultati derivanti dalla sonda CMR-Tool e quelli ottenuti con un rilassometro a basso campo (0,2T) presente nei laboratori LAGIRN della Facoltà di Ingegneria di Bologna. Le misure sono state eseguite su diversi campioni, stratificati e non, realizzati ad hoc con conformazioni diverse per i due strumenti. Si sono inoltre eseguite misure su 4 sabbie a diversa granulometria, per valutare l’andamento dei tempi di rilassamento in funzione della dimensione dei grani. A tal fine, il lavoro di tesi si struttura in cinque capitoli principali. Nei primi due capitoli si sono discusse in breve le metodologie e le tecniche di valutazione delle georisorse fluide e si sono introdotti i principi fisici della risonanza magnetica nucleare ed i meccanismi che regolano tale fenomeno nei mezzi porosi. Nel terzo e quarto capitolo sono descritte le applicazioni petrofisiche, le tecniche e le metodologie di indagine comunemente usate allo scopo di ricavare alcune grandezze fisiche di interesse e gli strumenti adoperati per ottenere le misure geofisiche in pozzo. Nell’ultimo capitolo sono invece esposti, in maniera completa e schematica, le prove sperimentali eseguite sia presso il laboratorio LAGIRN dell’Università di Bologna e presso quello Schlumberger di Pescara. Nella sua impostazione, il lavoro è stato sviluppato per essere studiato e compreso in maniera chiara, cercando di rendere la lettura la più semplice possibile, in relazione con la complessità caratteristica del fenomeno NMR. I risultati ottenuti hanno una valenza importante e di estrema attualità nell’ambito della valutazione delle georisorse fluide ed arricchiscono ancor di più le conoscenze riguardanti le applicazioni delle tecniche a risonanza magnetica nucleare sui mezzi porosi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In molti settori della ricerca in campo biologico e biomedico si fa ricorso a tecniche di High Throughput Screening (HTS), tra cui studio dei canali ionici. In questo campo si studia la conduzione di ioni attraverso una membrana cellulare durante fenomeni che durano solo alcuni millisecondi. Allo scopo sono solitamente usati sensori e convertitori A/D ad elevata velocità insieme ad opportune interfacce di comunicazione, ad elevato bit-rate e latenza ridotta. In questa tesi viene descritta l'implementazione di un modulo VHDL per la trasmissione di dati digitali provenienti da un sistema HTS attraverso un controller di rete integrato dotato di un'interfaccia di tipo Ethernet, individuando le possibili ottimizzazioni specifiche per l'applicazione di interesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si occupa dello studio del fenomeno di condensazione di Bose-Einstein sia da un punto di vista teorico che, in maniera più accennata, da quello pratico-sperimentale; risulta pertanto strutturato in due parti. La prima è incentrata sull'analisi prettamente teorico-matematica dell'argomento, e si apre con l'introduzione dell'opportuno apparato formale atto alla trattazione della statistica quantistica; a tal proposito vengono definiti gli operatori di densità. Quindi viene affrontato il problema dell'indistinguibilità degli enti quantistici e del conseguente carattere di simmetria delle funzioni d'onda, individuando così la differenza tra particelle fermioniche e bosoniche. Di queste ultime vengono largamente studiate la statistica cui essere rispondono e le loro principali caratteristiche termodinamiche. Infine, viene analizzato il caso specifico del gas ideale di Bose, trattato nei limiti del continuo e termodinamico; è nel corso di questa trattazione che emerge il fenomeno di transizione chiamato condensazione di Bose-Einstein, di cui vengono ampiamente studiate le proprietà. La seconda parte, invece, è volta all'analisi delle tecniche sperimentali utilizzate per la realizzazione della condensazione, in particolare le trappole ottiche di dipolo; dopo averne studiato le caratteristiche, vengono illustrate alcune tecniche di raffreddamento di atomi intrappolati. Il lavoro si conclude con la trattazione delle principali tecniche diagnostiche e di riconoscimento del condensato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo di questa tesi è quello di studiare le tecnologie e i metodi necessari alla simulazione degli effetti audio lineari, normalmente utilizzati per strumenti a corda elettrici, ed implementarla sullo smartphone. I vantaggi di questa idea sono evidenti nella versatilità e nella comodidi utilizzo, rispetto ai classici dispositivi impiegati dai musicisti (come gli effetti a pedali). Per fare ciò è necessaria la conoscenza delle tecniche di rappresentazione digitale di un segnale, come la trasformata di Fourier, il processo di campionamento e la trasformata Z, esposte nel Capitolo 1. Il Capitolo 2 continua l’introduzione trattando dei metodi utilizzati per creare effetti audio lineari tramite lo studio dei filtri FIR e IIR. Nel capitolo 3 sarà disponibile una classificazione degli effetti più utilizzati, seguiti dal procedimento di sviluppo di due sistemi: un equalizzatore a 10 bande e un delay, che saranno implementati nello smartphone. L’ultimo Capitolo, il quarto, spiega come è sviluppato il progetto, perché iOS è l’unico sistema operativo che permetta di farlo, ed indica le principali classi che necessitano di essere utilizzate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi dell'introduzione di tecniche additive nel processo produttivo di airbox nel settore automotive, attraverso lo studio della tecnologia additiva e delle principali tecniche che ne fanno parte. Valutazione delle capacità delle tecniche additive per confrontarle con tecniche di produzione tradizionale, attraverso l'analisi prestazionale, dei costi e dei tempi di produzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grande sviluppo a cui stiamo assistendo negli ultimi anni nell'ambito delle tecnologie mobile e del wearable computing apre le porte a scenari innovativi e interessanti per quanto riguarda sistemi distribuiti collaborativi. Le persone possono sempre più facilmente cooperare e scambiarsi informazioni grazie a queste nuove tecnologie e si può pensare allo sviluppo di sistemi che permettano forme molto avanzate di collaborazione facendo leva sull'aspetto hands-free, ovvero sulla possibilità di utilizzare dispositivi che liberino le mani, come i moderni smart-glasses. Per lo sviluppo di tali sistemi è necessario però studiare nuove tecniche e architetture, in quanto gli strumenti ad oggi a disposizione a supporto della realtà aumentata non sembrano essere del tutto adeguati per tale scopo. Infatti piattaforme come Wikitude o Layar, seppure offrano potenti tecniche di riconoscimento di markers e immagini e di rendering, non offrono quella dinamicità fondamentale per un sistema distribuito collaborativo. Questo scritto ha lo scopo di esplorare questi aspetti mediante l'ideazione, l'analisi, la progettazione e la prototipazione di un semplice caso di studio ispirato a sistemi collaborativi distribuiti basati su realtà aumentata. In particolare in questo lavoro si porrà l'attenzione sul livello delle comunicazioni e delle infrastrutture di rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sistema di segnalazione automatica posti auto su strada. Implementato per Android con tecniche di apprendimento automatico supervisionato e Bluetooth per realizzare un'applicazione Context-Aware.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato illustra una possibile soluzione al problema della correzione del movimento respiratorio in dati ecografici di perfusione epatica per la valutazione della pressione portale. La tecnica proposta si basa sul segnale monogenico e sull’informazione di fase dell’immagine. Inizialmente sono stati presentati gli strumenti atti alla valutazione della vascolaritá epatica, con una particolare focalizzazione sulle tecniche non invasive per diagnosticare l’ipertensione portale. Tra di esse l’ecografia con mezzo di contrasto si impone come uno dei metodi più efficaci e soprattutto meno invasivi. In seguito è stato presentato un recente studio secondo cui, tramite l’elaborazione delle curve di enhancement ottenute dalla sequenza ecografica, è possibile stimare dei parametri correlati al valore di pressione portale. Tuttavia, durante l’esecuzione dell’esame ecografico, i movimenti respiratori del paziente non sempre consentono una corretta valutazione di tali parametri. In questa tesi è stata indagata la possibilità di compensare questi artefatti mediante l'applicazione di una metodo di tracking basato sul vincolo di conservazione della fase dell'immagine. Il metodo è stato testato qualitativamente su sequenze di immagini ecografiche acquisite all’ospedale di Barcellona e all’ospedale Sant’Orsola di Bologna, con risultati promettenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notizie riguardanti scandali relativi al utilizzo inappropriato di contrassegni per disabili sono all’ordine del giorno. Situazioni meno popolari dal punto di vista mediatico, ma altrettanto gravi a livello sociale coinvolgono tutti quegli individui che si prodigano a falsificare contrassegni oppure ad utilizzarli anche in mancanza del disabile, eventualmente anche successivamente al decesso del medesimo. Tutto questo va inevitabilmente a discapito di tutti coloro che hanno reale diritto e necessità di usufruire delle agevolazioni. Lo scopo di questa tesi è quindi quello di illustrare un possibile sistema per contrastare e possibilmente debellare questo malcostume diffusissimo in Italia. La proposta è quella di dematerializzare il pass cartaceo sostituendolo con un equiva- lente elettronico, temporaneo e associato non più ad una targa, ma all’individuo stesso. Per farlo si ricorrerà all’uso di tecniche di autenticazione attraverso sistemi biometrici, quali il riconoscimento facciale, vocale, di espressioni facciali e gestures.