998 resultados para Immagini Analisi Tomosintesi CUDA Ricostruzione Qualità


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato presenta e discute le osservazioni svolte durante il rilevamento geologico dell’area di Passo Rolle, compilate in una carta geologica corredata di due sezioni geologiche, e alcune ricostruzioni del paleosforzo elaborate a partire dall’evidenza mesostrutturale della deformazione fragile che caratterizza l’area. Queste analisi consentono una migliore comprensione della sequenza litostratigrafica permo-triassica delle Dolomiti e forniscono informazioni sull’evoluzione strutturale della zona. La stratigrafia affiorante rappresenta un intervallo temporale che si estende dal Permiano, con il Piastrone Porfirico Atesino, le Arenarie di Val Gardena e la Formazione a Bellerophon, fino al tetto del Triassico inferiore, con la Formazione di Werfen. La sequenza è tagliata da un fascio di faglie normali subverticali orientate NNW-SSE che ribassano le unità triassiche ad est rispetto alle unità permiane ad ovest. Queste strutture appartengono alla Linea di Passo Rolle, una faglia plurichilometrica orientata N-S, tagliata dal Sovrascorrimento neogenico della Valsugana. La faglia di Passo Rolle si localizzò inizialmente nel Permiano ed è stata successivamente riattivata nel Mesozoico e nel Cenozoico. Dalla carta e dalle sezioni geologiche prodotte risulta evidente tale riattivazione. Sulla base di analisi mesostrutturali sono state identificate due fasi deformative che hanno coinvolto l’area: entrambi transpressive con direzione di raccorciamento principale NNW-SSE e WNW-ESE. Il software Wintensor ha permesso una ricostruzione quantitativa dei regimi dei paleosforzi, sia in termini di tensore di stress ridotto che di magnitudo relativa. Conoscendo la deformazione post-collisionale neoalpina che ha caratterizzato il settore orientale delle Alpi Meridionali e sulla base delle osservazioni durante il rilevamento geologico, è stato possibile collegare le evidenze misurate con le fasi deformative Valsuganese (Miocene) e Schio-Vicenza (Messiniano-Pliocene).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di tesi, inserito nel contesto degli studi sugli effetti dei cambiamenti climatici, si basa sull’utilizzo di dati radar derivanti dalla piattaforma satellitare Sentinel-1 (missione spaziale dell’Agenzia Spaziale Europea, inserita all’interno del progetto Copernicus) e mareografici, e ha l’obiettivo di verificare (e quindi validare) l’affidabilità dei dati Sentinel-1 per il monitoraggio della velocità e delle dinamiche di scioglimento del ghiacciaio Harald Moltke (Groenlandia) e la relazione con i fenomeni di distaccamento del suo fronte (eventi di “ice-calving”). Il monitoraggio del ghiacciaio e lo studio di questi ultimi eventi sono tra le tematiche legate al cambiamento climatico toccate dal progetto MACMAP (“A Multidisciplinary Analysis of Climate change indicators in the Mediterranean And Polar regions”, PI. A. Guarnieri, INGV) finanziate dell’istituto Nazionale di Geofisica e Vulcanologia. Per ottenere i campi di velocità del ghiacciaio sono stati utilizzati due dataset di immagini satellitari SAR (Sentinel-1) e, questi, elaborati con tecnica Offset tracking: il primo elaborato dal programma PROMICE e il secondo processato appositamente per questo lavoro con il tool SNAP (SentiNel Applications Platform, tool opensource creato dall’Agenzia Spaziale Europea, ESA). Per relazionare i fenomeni di calving con l’andamento della velocità del ghiacciaio sono stati integrati dati mareografici forniti dall’istituto INGV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La lesione del midollo spinale (LM) è una complessa condizione fisica che racchiude in sé sfide di carattere biomedico nonché etico-giuridico. La complessità della LM nonché la diversificazione delle esperienze dei singoli soggetti affetti da LM rendono questo un topic di grande interesse per la ricerca biomedicale, in relazione a nuovi metodi di cura e di riabilitazione dei soggetti. In particolare, la sinergia tra i saperi medico, informatici e ingegneristici ha permesso di sviluppare nuove tecnologie di comunicazione e di controllo neurologico e motorio che, capaci di sopperire a deficit cerebrali e/o motori causati da LM, consentono ai pazienti di avere una qualità di vita sensibilmente migliore, anche in termini di autonomia. Tra queste nuove tecnologie assistive primeggiano per efficacia e frequenza di utilizzo le Brain Computer Interfaces (BCI), strumenti ingegneristici che, attraverso la misurazione e l’analisi di segnali provenienti dall’attività cerebrale, traducono il segnale registrato in specifici comandi, rappresentando per l’utente con LM un canale di comunicazione con l’ambiente esterno, alternativo alle normali vie neurali. In questo elaborato l’analisi di due sperimentazioni, una su scimmia l’altra su uomo, entrambi affetti da LM, con differenti sistemi di monitoraggio dell’attività neurale, ha permesso di evidenziare un limite della ricerca sul topic: nonostante i promettenti risultati ottenuti su primati non umani, il carattere invasivo del sistema BCI–EES rende difficile traslare la sperimentazione su uomo. La sperimentazione su LM pone delle sfide anche dal punto di vista etico: sebbene siano auspicati lo sviluppo e l’applicazione di metodi alternativi alla sperimentazione animale, l’impiego di primati non umani appare ancora una scelta obbligata nel campo della ricerca di soluzioni terapeutiche finalizzate al ripristino della funzione locomotoria, per via della stretta affinità in termini di conformazione fisica, genetica e anatomica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel TCR - Termina container Ravenna, è importante che nel momento di scarico del container sul camion non siano presenti persone nell’area. In questo elaborato si descrive la realizzazione e il funzionamento di un sistema di allarme automatico, in grado di rilevare persone ed eventualmente interrompere la procedura di scarico del container. Tale sistema si basa sulla tecnica della object segmentation tramite rimozione dello sfondo, a cui viene affiancata una classificazione e rimozione delle eventuali ombre con un metodo cromatico. Inoltre viene identificata la possibile testa di una persona e avendo a disposizione due telecamere, si mette in atto una visione binoculare per calcolarne l’altezza. Infine, viene presa in considerazione anche la dinamica del sistema, per cui la classificazione di una persona si può basare sulla grandezza, altezza e velocità dell’oggetto individuato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La miscelazione di sistemi gas-liquido all’interno di recipienti meccanicamente agitati ritrova molte applicazioni industriali. I recipienti meccanicamente agitati rappresentano la scelta più conveniente poiché consentono una dispersione ottimale della fase dispersa all’interno della fase continua ed uno scambio di materia e di calore efficiente. I parametri chiave sono il consumo di potenza, l’hold-up di gas ed il regime gas-impeller. La fase sperimentale è stata sviluppata mediante l’utilizzo di un reattore pilota operante con tre turbine Rushton. Il consumo di potenza è stato valutato ed i risultati ottenuti dalle analisi di laboratorio sono stati confrontati con la correlazione empirica di Warmoeskerken (1986). Le tecniche impiegate in passato per la caratterizzazione dei sistemi gas-liquido sono caratterizzate da diversi svantaggi quali la possibilità di essere utilizzate solo per lo studio di sistemi trasparenti, l’intrusività ed i costi alti. Attualmente, la tomografia a resistenza elettrica (ERT) è una delle tecniche di ispezione più utilizzate grazie alla sua potenzialità di fornire informazioni qualitative e quantitativi. Uno degli obiettivi di questo lavoro di tesi è quello di validare una metodologia da seguire per la caratterizzazione dei sistemi gas-liquido. L’ERT è stata utilizzata per la valutazione dell’hold-up di gas e per l’identificazione del regime instaurato all’interno dell’apparecchiatura. I risultati sono stati confrontati con le valutazioni visive e le correlazioni proposte dalla letteratura. La strumentazione dell’ERT comprende un sistema di sensori, un sistema di acquisizione dati (DAS) ed un computer sul quale è installato il software per la ricostruzione dell’immagine, il quale, generalmente, è basato sull’algoritmo linear back - projection. Ulteriore obiettivo di questo lavoro di tesi è quello di investigare sulla convenienza di adoperare un software più sofisticato per la ricostruzione dell’immagine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nellâ analisi del segnale EEG, sono di particolare interesse i potenziali evento correlato (ERP), che descrivono la risposta cerebrale in seguito alla presentazione di stimoli o eventi esterni o interni. Questi potenziali non sono immediatamente visibili sul tracciato EEG grezzo, ed è necessario, oltre ad unâ��accurata fase di preprocessing, mediare (averaging) i segnali di molti trial ripetuti per visualizzare tali risposte nel tempo. Questo studio ha posto l' attenzione sugli ERP visuomotori generati in un compito di center-out reaching, che prevede il raggiungimento di uno tra cinque target, ognuno associato ad un LED, mediante il braccio dominante, con una tempistica scandita dalla presentazione di due stimoli visivi: lo stimolo preparatorio ¸ (che indica il target) e lo stimolo imperativo (che dà il via libera al movimento). I segnali ERP, ottenuti mediante la tecnica dellâ averaging, sono stati analizzati sia a livello di scalpo, considerando i segnali di elettrodo, sia a livello di corteccia, dopo risoluzione del problema inverso, e considerando rappresentazioni prima a livello di singoli dipoli corticali e quindi di intere regioni corticali (ROI). Inoltre, è stata applicato un metodo di deep learning (rete neurale convoluzionale) per decodificare il segnale EEG a livello di singolo trial, ovvero classificare il target coinvolto nello specifico trial. La decodifica è stata applicata sia ai segnali di scalpo sia ai segnali delle ROI corticali. Complessivamente i risultati mostrano ERP ben visibili a livello di scalpo e legati sia a processing visivo che motorio. Gli ERP a livello di ROI corticali sono più rumorosi e sembrano cogliere meno processing motorio rispetto al visivo, presumibilmente anche in conseguenza di alcune scelte metodologiche nella ricostruzione di segnali di ROI. In linea con questo, le performance di decodifica sono migliori a livello di scalpo che di ROI corticali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo stabilimento forlivese di Bonfiglioli S.p.A., centrale nella produzione di riduttori epicicloidali per macchine mobili, escavatori, turbine eoliche e mobilità elettrica, è un elemento fondamentale per il successo dell’azienda che da anni è leader di mercato nella produzione di motoriduttori, azionamenti e inverter per numerosi settori. Questo fa sì che tale impianto sia da tempo oggetto di importanti investimenti per incrementare la produttività, migliorare la logistica interna, soddisfare standard di sicurezza e qualità di prodotto e di processo sempre più alti. Il presente elaborato si inserisce tra le attività di efficientamento dei flussi logistici di stabilimento e punta a valutare la possibilità di ricollocamento di un’isola robotizzata per montaggio di kit planetario all’interno del macro-reparto di assemblaggio, in previsione di investimenti attuali e futuri che ridisegneranno lo scenario produttivo interno. Per valutare la convenienza di spostamento è stata eseguita un’analisi costi-benefici, confrontando l’ubicazione attuale e un’alternativa possibile, condivisa con i responsabili dell’ente di ingegneria di processo, prendendo in esame i vantaggi che questa seconda porterebbe. È inoltre stato fatto un primo dimensionamento di massima (e cautelativo) per un’eventuale creazione di un supermarket per i kit montati dalla cella in esame. Scopo principale dell’elaborato oltre a quello di mettere in luce i miglioramenti possibili dei flussi logistici interni grazie allo spostamento di tale isola, è anche quello di portare una metodologia di analisi che possa poi essere riutilizzata e migliorata per progetti di relayout futuri a più ampio respiro, in un’ottica sempre più “Lean”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo dell' elaborato è quello di tracciare un quadro del fenomeno del branded entertainment e condurre un'analisi quantitativa e qualitativa di quattro programmi di Warner Bros. Discovery. Una prima fase è dedicata alla ricostruzione storica e normativa del branded entertainment, all'individuazione di una sua definizione e delle metodologie per la sua valutazione. La seconda parte del lavoro si concentra, invece, sugli aspetti pratici del fenomeno: i player che svolgono un ruolo nei processi produttivi, le modalità di creazione e produzione dei programmi e le tipologie di prodotti. L'ultima fase è interamente dedicata all'analisi quantitativa di quattro programmi branded di Warner Bros. Discovery e all'analisi qualitativa di uno di questi, per poterne valutare i risultati nel mercato televisivo italiano odierno.

Relevância:

20.00% 20.00%

Publicador: