759 resultados para elaborazione di immagini metodi di segmentazione filtri per immagini
Resumo:
In questo elaborato di tesi ci si è occupati di riprogettare la testata del motore bicilindrico Twin Air del gruppo Fiat. La testata viene ridisegnata al fine di poter destinare questo motore, particolarmente leggero flessibile e dai bassi consumi, ad un uso aeronautico. In questa tesi si è appunto realizzata una nuova testata inserendovi 3 valvole, due di aspirazione e una di scarico, e 2 iniettori per cilinrdo. Una volta completato il disegno sono stati realizzati diversi test attraverso un software di simulazione. In particolare ci si è accertati che la camera di combustione realizzata possa resistere alle alte pressioni e temperature in gioco e che i fluidi scorrano al meglio all'interno dei condotti. Si sono utilizzati i risultati ottenuti per riprogettare iterattivamente la testa ed arrivare a un risultato finale soddisfacente.
Resumo:
Con il termine "Mobile-Health" si intende l’uso di tecnologie mobili in ambito medico-sanitario. Questa tesi si propone di fornire un quadro generale di come i sistemi di Mobile-Health possano aiutare nell'assistenza e nel monitoraggio della gravidanza. Attraverso l'analisi delle ricerche effettuate in questo campo, e lo studio dei sistemi attualmente utilizzati in ambito ospedaliero, si cerca di valutare se effettivamente questo tipo di tecnologie può fornire un contributo significativo nell'assistere le donne incinte. Viene trattato il tema del Self-Management che riguarda appunto l'auto-gestione della propria condizione di salute attraverso l’uso di tecnologie mobili. Vengono introdotti problemi e complicazioni della gravidanza e i corrispettivi trattamenti. Si analizzano studi e ricerche che riguardano dispositivi e software per le donne incinte, compreso il tema delle “app mediche”. Infine, grazie al contributo delle dottoresse Iliana Colonna e Marina Carfagna (coordinatrici ostetriche negli ospedali di Rimini e Cesena), si presenta una panoramica sull’attuale uso di tecnologie nei reparti ospedalieri di ostetricia.
Resumo:
Lo studio intrapreso si è posto come obiettivo la caratterizzazione dal punto di vista elettrico dei materiali coinvolti nella realizzazione di accessori per applicazioni in HVDC, in particolare mescole isolanti, semiconduttive e varioresistive. La necessità di un lavoro di questo tipo viene giustificata dalla costante espansione dei sistemi in DC nella trasmissione dell’energia elettrica, i quali presentano caratteristiche fisiche che si differenziano sensibilmente da quelle tipiche dei tradizionali sistemi in AC, dunque richiedono componenti e materiali opportunamente progettati per garantire condizioni di servizio sicure e affidabili. L’obiettivo della trattazione consiste nello studio di analogie e differenze tra le proprietà elettriche fornite da prove su diverse configurazioni di provini, nella fattispecie di tipo piano e cilindrico cavo. In primo luogo si studiano i provini di tipo piano al fine di ricavare informazioni basilari sul materiale e sulla mescola che lo costituisce e di prendere decisioni relative al proseguimento dei test. Dopo aver effettuato un sufficiente numero di test su varie tipologie di provini piani e aver riconosciuto le mescole più performanti dal punto di vista elettrico, meccanico e termico, si procede alla realizzazione di provini cilindrici stampati, su cui si intraprendono le medesime misure effettuate per la configurazione piana. Questa seconda fase di caratterizzazione è fondamentale, in quanto consente di verificare che le proprietà già studiate su piastra si conservino in una geometria molto più simile a quella assunta dal prodotto finale evitando di sostenere costi onerosi per la produzione di un accessorio full-size. Il lavoro è stato svolto nel laboratorio elettrico di alta tensione della divisione R&D del gruppo Prysmian di Milano, leader mondiale nella produzione di sistemi in cavo per alte e altissime tensioni.
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Questa tesi si pone come obiettivo di arricchire l’applicazione per dispositivi Android creata da OpenTripPlanner, aggiungendo funzionalità di navigazione aumentata, rendendola utilizzabile da Smart Glasses. L’utente sarà guidato a passo a passo nel percorso grazie a informazioni visive e uditive sulle direzioni da prendere. L’applicazione può essere personalizzata per l’utente che la sta utilizzando grazie alla possibilità di inserire le proprie generalità e informazioni, utili per calcolare le calorie bruciate dall’utente durante il tragitto. All’applicazione l’utente può anche connettere, tramite Bluetooth, un mi band. In questo modo, una volta raggiunta la destinazione prescelta l’utente può avere informazioni sul numero di passi effettuati durante il tragitto e le calorie bruciate.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.
Resumo:
In questa tesi è descritto il lavoro svolto presso un'azienda informatica locale, allo scopo di ricerca ed implementazione di un algoritmo per individuare ed offuscare i volti presenti all'interno di video di e-learning in ambito industriale, al fine di garantire la privacy degli operai presenti. Tale algoritmo sarebbe stato poi da includere in un modulo software da inserire all'interno di un applicazione web già esistente per la gestione di questi video. Si è ricercata una soluzione ad hoc considerando le caratteristiche particolare del problema in questione, studiando le principali tecniche della Computer Vision per comprendere meglio quale strada percorrere. Si è deciso quindi di implementare un algoritmo di Blob Tracking basato sul colore.
Docudipity: estensione di un ambiente per esplorare tendenze nella scrittura di articoli scientifici
Resumo:
In questa tesi verrà mostrato un sistema innovativo, finalizzato a supportare l’esplorazione e l’analisi di collezioni di articoli scientifici. Il nome stesso, DocuDipity, deriva dall’unione di "Document" e "Serendipity", cioè fare scoperte inattese sui documenti e in particolare sul modo in cui i sono scritti. Grazie a DocuDipity è possibile individuare particolare proprietà degli articoli, ad esempio la distribuzione delle citazioni o dei contributi di autori diversi, senza l’obbligo di sfogliare pagina per pagina gli articoli.
Resumo:
I neutroni possono essere classificati in base all'energia e per anni lo studio sui neutroni si è focalizzato verso le basse energie, ottenendo informazioni fondamentali sulle reazioni nucleari. Lo studio per i neutroni ad alta energia (E >20 MeV) ha ultimamente suscitato un vivo interesse, poiché i neutroni hanno un ruolo fondamentale in una vasta gamma di applicazioni: in campo medico, industriale e di radioprotezione. Tuttavia le informazioni sperimentali (sezioni d'urto) in nostro possesso, in funzione dell'energia dei neutroni, sono limitate, considerando che richiedono la produzione di fasci con un ampio spettro energetico e delle tecniche di rivelazione conforme ad essi. La rivelazione dei neutroni avviene spesso attraverso il processo di scintillazione che consiste nell'eccitazione e diseccitazione delle molecole che costituiscono il rivelatore. Successivamente, attraverso i fotomoltiplicatori, la luce prodotta viene raccolta e convertita in impulsi energetici che vengono registrati ed analizzati. Lo scopo di questa tesi è quello di testare quale sia la migliore configurazione sperimentale di un rivelatore costituito da scintillatori e fotomoltiplicatori per quanto riguarda la raccolta di luce, utilizzando una simulazione Monte Carlo per riprodurre le proprietà ottiche di un rivelatore per misure di flusso di un rivelatore ad alta energia.
Resumo:
In quest'elaborato si risolve il problema di Cauchy-Dirichlet per l'equazione del calore, prendendo come oggetto d'esame una sbarra omogenea. Nel primo capitolo si studiano le serie di Fourier reali a partire dalle serie trigonometriche; vengono dati, poi, i principali risultati di convergenza puntuale, uniforme ed in L^2 e si discute l'integrabilità termine a termine di una serie di Fourier. Il secondo capitolo tratta la convergenza secondo Cesàro, le serie di Fejèr ed i principali risultati di convergenza di queste ultime. Nel terzo, ed ultimo, capitolo si risolve il Problema di Cauchy-Dirichlet, distinguendo i casi in cui il dato iniziale sia di classe C^1 o solo continuo; nel secondo caso si propone una risoluzione basata sulle serie di Fejér e sul concetto di barriera ed una utilizzando il nucleo di Green per l'equazione del calore.
Resumo:
La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.
Resumo:
L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.