272 resultados para lente pericentrica, calibrazione ottica Python, OpenCV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le colate detritiche sono manifestazioni parossistiche con trasporto impulsivo di sedimenti lungo la rete idrografica minore che presentano un elevato potere distruttivo. In questo lavoro di tesi si è cercato di descrivere inizialmente le caratteristiche tipiche delle colate di detrito, e le condizioni climatiche e geomorfologiche che tendono a favorirne l’innesco. Verranno poi analizzati, i casi relativi all’Appennino bolognese, prendendo come riferimento le colate rapide di detrito avvenute in località Serraglio (Baragazza) nei pressi del comune di Castiglione dei Pepoli. Nello specifico verrà indagato il fenomeno avvenuto il 31/01/2014, per il quale sono stati effettuati numerosi rilievi morfometrici che hanno portato ad individuare una geometria di dettaglio del canale di flusso e della nicchia di frana, per poter ricostruire i volumi di materiale mobilizzato. In contemporanea alle misure morfometriche si sono effettuate delle indagini sismiche volte a stimare lo spessore della coltre di alterazione presente all’interno del canale prima dell’evento, e a monte della nicchia di frana. Successivamente si è cercato di correlare le misure H/V con le prove MASW effettuate ,senza successo, ciò è probabilmente dovuto dalla difficoltà di indagare spessori così sottili con le MASW. Perciò utilizzando le indagini H/V si è tentato di ricostruire il modello geologico – tecnico alla scala del versante. Infine si è cercato di modellizzare il fenomeno utilizzando il software Dan-W con il quale si sono testati vari modelli reologici fra i quali si sono dimostrati più realistici, in riferimento al caso in esame, il modello frizionale ed il modello di Voellmy. Per questi due modelli è stata quindi effettuata la calibrazione dei parametri, in riferimento dei quali si è visto che, con il modello di Voellmy si è ottenuto un buon valore della distanza percorsa dalla colata, ma una stima delle velocità abbastanza elevate. Il modello frizionale invece ha portato ad una buona stima degli spessori dei depositi, ma sottostimando la distanza che avrebbe potuto percorrere la colata se non avesse incontrato ostacoli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grazie al continuo affinamento dell'elettronica di consumo e delle tecnologie di telecomunicazione, ad oggi sempre più "cose" sono dotate di capacità sensoriali, computazionali e comunicative, si parla così di Internet delle cose e di oggetti "smart". Lo scopo di questo elaborato è quello di approfondire e illustrare questo nuovo paradigma nell'ambito dell'automotive, evidenziandone caratteristiche, potenzialità e limiti. Ci riferiremo quindi più specificatamente al concetto di Internet dei veicoli per una gestione ottimale della mobilità su strada. Parleremo di questa tecnologia non solo per il supporto che può dare alla guida manuale, ma anche in funzione del concetto di guida autonoma, di come quest'ultima beneficerà di un'interconnessione capillare di tutti gli utenti, i veicoli e le infrastrutture presenti sulla strada, il tutto in un'ottica cooperativa. Illustreremo quali sono le principali sfide per raggiungere uno scenario del genere e quali potrebbero essere le implicazioni più rilevanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo del progetto è stato quello di realizzare ed analizzare aggregati artificiali creati attraverso geopolimerizzazione e macro-incapsulazione di paraffina in aggregati leggeri espansi, discutendo i loro possibili impieghi nelle pavimentazioni stradali. Dopo un'accurata calibrazione delle miscele geopolimeriche, sono stati realizzati degli aggregati artificiali, in seguito caratterizzati in accordo con la norma UNI EN 10343, con l'intento di sostituire materiali stradali vergini. Contemporaneamente, sono stati prodotti aggregati leggeri impregnati di paraffina (PCM), in grado di cambiare fase una volta raggiunti all'incirca i 3 °C, e successivamente rivestiti da due strati di resina poliestere e polvere di granito, denominati PLA: sfruttandone le proprietà termiche, si è valutato il loro possibile utilizzo come soluzione anti-icing. L’ultima fase della ricerca è stata incentrata nella realizzazione di aggregati geopolimerici espansi e molto porosi che potessero contenere una elevata quantità di PCM, sostituendo l'argilla espansa utilizzata nella produzione degli PLA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro verra presentata la realizzazione e la caratterizzazione di transistor organici basati su un polimero conduttore, il poli(3,4-etilenediossitiofene) polistirene sulfonato, o PEDOT:PSS. Tali transistor rientrano nella categoria degli OECT o transistor elettrochimici organici e hanno la capacita di poter rilevare ed analizzare sostanze chimiche di diverso genere presenti in soluzione. I dispositivi implementati in questa tesi sono stati ottenuti tramite la deposizione del materiale organico conduttivo su substrato tessile al fine di creare un device completamente integrabile in un capo di abbigliamento o in un qualsiasi utilizzo in campo tessile. In particolare questi transistor sono stati studiati per la rilevazione di sostanze quali acido ascorbico, dopamina e adrenalina. Gli ultimi due analiti sono di importanza particolare poiche facenti parte della famiglia dei neurotrasmettitori. Inoltre in questa tesi sono stati creati fili di cotone conduttivi, sempre tramite l'utilizzo di PEDOT:PSS. Tali fili infatti sono risultati ottimi candidati per il trasporto di un segnale elettrico e per questo sono stati implementati nella costruzione di un OECT. La realizzazione dei fili conduttivi potra permettere un ulteriore avanzamento nella completa integrabilita dell'elettronica con il settore tessile. Una peculiarita aggiuntiva di questo lavoro e stata quella di utilizzare il sudore artificiale come elettrolita, oltre al normale PBS che costituisce ormai uno standard in questo tipo di ricerche. L'utilizzo del sudore artificiale rientra nell'ottica futura di un utilizzo di questi sensori come rilevatori di sostanze chimiche emesse dal corpo umano sfruttabili diversi ambiti, ovvero dall'attivita sportiva alla prevenzione, in ambito medico, di diverse malattie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnica olografica venne introdotta nel 1948 da Denis Gabor. Creò la parola holography combinando tra loro le parole greche holos, che vuol dire tutto, e graphein, che invece vuol dire scrivere. Con il termine olografia si intende le registrazione e la ricostruzione dell'ampiezza e della fase di un'onda. La prima si ricava dalle informazioni contenute nell'intensità delle frange luminose che costituiscono l'immagine di diffrazione, mentre la seconda si ottiene dalla distanza delle stesse. L'immagine di diffrazione non è altro che il prodotto dell'interferenza tra l'onda oggetto e l'onda di riferimento, che viene registrato solitamente su una lastra olografica o una pellicola, che si presenta come un susseguirsi di frange chiare e scure molto sottili, tanto da non essere visibili a occhio nudo a causa delle alte frequenze spaziali. Questa immagine riproduce l'oggetto se illuminato con un fascio luminoso simile all'onda di riferimento. Negli anni a seguire si sviluppò molto velocemente la tecnologia alla base dei computer che permise di trasferire sia il processo di registrazione che quello di ricostruzione su tali dispositivi. Un passo avanti venne fatto con l’introduzione dei Charged Coupled Devices (CCD) nella registrazione diretta di ologrammi, ad opera di Schnars e Juptner, con i quali venne eliminato definitivamente ogni tipo di passaggio fotografico intermedio. L'intero procedimento numerico di registrazione e ricostruzione venne riconosciuto in seguito come Olografia Digitale, e i suoi vantaggi rispetto all'olografia ottica erano ben chiari e ne permisero un largo impiego: dall'interferometria alla shearografia alla fotografia speckle. Questa tesi ha l'obiettivo di mostrare un'applicazione dell'olografia ottica e di infine tentare un primo approccio all'olografia digitale per mezzo di acquisizioni di figure di diffrazione attraverso un CCD e di simulazioni di generazione e ricostruzione di ologrammi su dispositivi elettronici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La possibilità di monitorare l’attività degli utenti in un sistema domotico, sia considerando le azioni effettuate direttamente sul sistema che le informazioni ricavabili da strumenti esterni come la loro posizione GPS, è un fattore importante per anticipare i bisogni e comprendere le preferenze degli utenti stessi, rendendo sempre più intelligenti ed autonomi i sistemi domotici. Mentre i sistemi attualmente disponibili non includono o non sfruttano appieno queste potenzialità, l'obiettivo di sistemi prototipali sviluppati per fini di ricerca, quali ad esempio Home Manager, è invece quello di utilizzare le informazioni ricavabili dai dispositivi e dal loro utilizzo per abilitare ragionamenti e politiche di ordine superiore. Gli obiettivi di questo lavoro sono: - Classificare ed elencare i diversi sensori disponibili al fine di presentare lo stato attuale della ricerca nel campo dello Human Sensing, ovvero del rilevamento di persone in un ambiente. - Giustificare la scelta della telecamera come sensore per il rilevamento di persone in un ambiente domestico, riportando metodi per l’analisi video in grado di interpretare i fotogrammi e rilevare eventuali figure in movimento al loro interno. - Presentare un’architettura generica per integrare dei sensori in un sistema di sorveglianza, implementando tale architettura ed alcuni algoritmi per l’analisi video all’interno di Home Manager con l’aiuto della libreria OpenCV .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.