465 resultados para metodi level set segmentazione immagini di nevi immagini mediche regolarizzazione
Resumo:
La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.
Resumo:
Questo lavoro di tesi ha riguardato lo studio e la caratterizzazione, sia sensoriale che strumentale, di dodici campioni di salame, prodotti utilizzando carne di suino convenzionale o di Mora Romagnola, con lo scopo di evidenziare le differenze esistenti tra i due tipi di prodotto e, nel contempo, discriminare i prodotti ottenuti con carne di Mora Romagnola, da quelli simili, ma meno pregiati, disponibili sul mercato. In particolare, la caratterizzazione sensoriale è stata condotta tramite l’applicazione dell’analisi quantitativo-descrittiva (QDA®), mediante la quale è stato definito il profilo sensoriale dei campioni oggetto di studio. A supporto della messa a punto del profilo sensoriale del prodotto, sullo stesso gruppo di campioni, è stata effettuata un’analisi strumentale, avvalendosi dell’utilizzo di un “occhio elettronico” in grado di effettuare, in tempi estremamente rapidi, un’analisi dell’apparenza del prodotto tramite l’acquisizione di immagini, successivamente elaborate. I dati ottenuti dall’analisi sensoriale e strumentale, elaborati statisticamente con l’utilizzo di tecniche di analisi multivariata, hanno evidenziato come i campioni di Mora Romagnola presentassero una maggiore variabilità rispetto a quelli prodotti con carne di suino convenzionale. Nello specifico, i campioni di Mora Romagnola sono risultati essere maggiormente caratterizzati dagli attributi di “stagionatura” e “speziatura” e da tonalità più scure rispetto ai salami ottenuti mediante carne di suino convenzionale, più descritti da una nota olfattiva acidula e da un’elevata omogeneità di distribuzione del grasso. L’approccio seguito, fondato sulla correlazione dei dati sensoriali e strumentali, rappresenta, quindi, uno strumento potenzialmente utile non solo in un’ottica di caratterizzazione e discriminazione della qualità degli alimenti, ma anche in un’ottica di valorizzazione dei prodotti tipici, fornendo informazioni utili per generare una maggiore consapevolezza nei consumatori in merito alla scelta dei prodotti, ad esempio durante la fase di acquisto.
Resumo:
Abbiamo investigato con metodologie geofisiche del tutto non invasive un settore della necropoli etrusca di Monterozzi, Tarquinia (VT). Le tecniche utilizzate, per l'accertamento di camere sepolcrali nel sottosuolo, sono state il GPR e la geoelettrica. Dalla campagna effettuata nel mese di giugno 2016 è emerso che: I) le camere mortuarie, scavate direttamente nella roccia calcarenitica, si possono suddividere in superficiali (profondità maggiore di 2 m e comprendenti un dromos di accesso) e profonde (profondità maggiore di 5 m e di dimensioni maggiori rispetto alle prime); II) il metodo GPR permette un'elevata risoluzione delle strutture nascoste a scapito della profondità di investigazione, inoltre è affetto da disturbo proveniente da artefatti antropici posti in superficie; III) il metodo resistivo adottato permette esplorazioni profonde e risulta molto potente nella localizzazione delle cavità sepolte; IV) le strutture archeologiche nel sottosuolo producono sulla superficie topografica delle forme ben riconoscibili per il diverso contenuto in umidità rispetto all'intorno, di ausilio quindi al presente studio è stata l’analisi delle immagini da satellite di Google Earth; V) l'approccio di lavoro che ha combinato le due diverse metodologie sia tra loro sia con le immagini digitali risulta molto vantaggioso ai fini della presente ricerca.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
Resumo:
Nell' elaborato vengono descritti gli studi conseguiti sia a livello internazionale che nazionale riguardanti la sostenibilità e i consumi energetici dell' ambiente costruito, passando dai problemi di occupazione, crescita economica e riduzione di emissioni di gas ad effetto serra, proseguendo poi con gli obiettivi da adottare in termini anche di circular economy e industria 4.0 per arrivare ad un unico grande scenario, ovvero quello della Riqualificazione Energetica degli Edifici.
Resumo:
Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.
Resumo:
In questo lavoro di tesi è stato analizzato il sistema convettivo a mesoscala (Mesoscale Convective System (MCS)) del 05/09/2015, abbattutosi sui golfi di Gaeta e di Napoli, sulla stessa città di Napoli e sull'entroterra irpino, scaricando una notevole quantità di fulmini e chicchi di grandine di dimensioni molto al di sopra di quelle usuali nella regione mediterranea, con un diametro compreso tra i 5 ed i 10 cm. Nel primo capitolo vengono presentati gli strumenti utilizzati per l'acquisizione dei dati da satellite, dei fulmini e delle mappe di previsione. Nel secondo capitolo viene effettuata un'analisi meteorologica, in cui vengono descritte le condizioni meteorologiche precedenti e contemporanee all'evento, col supporto di dati provenienti dai modelli numerici di previsione, dalle immagini da satellite e dai radiosondaggi; viene inoltre giudicata la performance di previsione dei modelli. Nel terzo capitolo viene descritto il lavoro di elaborazione dei dati da satellite e vengono esposti i risultati e i grafici ottenuti sull'evoluzione della nube. Si descrive l'elaborazione dei dati sui fulmini e, tramite mappe e grafici, si ricercano correlazioni e risultati. Nel quarto capitolo vengono mostrati alcuni fotogrammi estratti da video presenti su Internet che dimostrano l'eccezionalità dell'evento.
Resumo:
L'obiettivo di questa tesi è quello di valutare se vi sono delle corrispondenze tra dati dendrocronologici e indici climatici su scala locale. Per procedere a questa analisi vengono introdotti i metodi utilizzati per il monitoraggio del sistema climatico e proposta una breve presentazione della dendrocronologia e degli strumenti di cui ci si avvale in questo campo. La corrispondenza dendroclimatologica su piccola scala è stata fatta tramite l'utilizzo dei dati convezionali (termometri, pluviometri) e dati dendrocronologici tramite un'analisi diretta su alberi nella provincia di Bologna. I dati da pluviometro e termometro sono stati rielaborati in riferimento a indici di teleconnessione forniti dal NOAA sulle differenze di pressioni atmosferiche su precisi punti geografici. In secondo luogo sono stati effettuati dei test non parametrici sulle tendenze e sull'esistenza di punti di cambio e un'elaborazione della probabilità di comparsa di eventi di siccità. I risultati ottenuti sono stati confrontati con ricerche analoghe trovate in letterauratura. L'analisi di dati dendrocronologici è stata fatta sia su immagini relative ad anelli di quercia che a dati di resistenza alla perforazione di un stronco di pioppo vivente. Il confronto finale fra dati convenzionali e alberi, pur soffrendo di notevoli incertezze e imprecisioni ha mostrato alcuni risultati circa l'effetto delle condizioni climatiche sulle piante. Mostrando l'applicabilità di tecniche dendroclimatologiche su piccola scala.
Resumo:
Nel presente lavoro di tesi sono presentati i primi risultati di un nuovo metodo basato sulla pirolisi analitica off-line per l’analisi quali-quantitativa di microplastiche di polistirene in tessuti biologici. I prodotti di pirolisi sono stati intrappolati testando due tecniche di campionamento, estrazione in fase solida (SPE) tramite cartucce adsorbenti e microestrazione in fase solida (SPME) tramite fibra adsorbente, per essere analizzati in gas cromatografia-spettrometria di massa. È stato testato un protocollo di pretrattamento della matrice biologica (digestione alcalina) ed estrazione con toluene prima di applicare la pirolisi analitica. Il pretrattamento della matrice biologica ha portato a dei buoni risultati garantendo un efficiente digestione dei tessuti biologici (> 97%). L’utilizzo del toluene come solvente di estrazione, ha permesso la separazione del polistirene dalla matrice biologica che poteva interferire nelle analisi. La pirolisi del polistirene genera cromatogrammi caratterizzati dalla presenza dello stirene come prodotto principale di degradazione. L’analisi quantitativa è stata condotta utilizzando il metodo dello standard interno e l’area del picco cromatografico dello stirene. Sono state determinate le principali caratteristiche delle tecniche SPE e SPME: precisione, linearità e recuperi. La tecnica SPE, presentando dei recuperi ed un grado di precisione più accettabili, è stata applicata a campioni di tessuti biologici provenienti da esperimenti in vivo di mitili esposti a basse concentrazioni di PS. I risultati delle analisi indicano la presenza di PS nei tessuti dei mitili a livelli del ug/g. Il metodo sviluppato presenta dati promettenti e potenzialità per monitorare l’inquinamento da PS nei tessuti biologici, tuttavia anche dei limiti che richiedono ulteriori indagini e miglioramenti in studi futuri.
Resumo:
Il lavoro della tesi si compone di due parti principali: 1) progettazione del banco prova statico e set up dei banchi prova per la caratterizzazione a rigidezza. 2) Analisi dei risultati di spostamento e deformazione. Il fine ultimo del lavoro di tesi è stato quello di validare la moto progettata all'interno del Team UBM Motostudent di cui faccio parte, ed ottenere spunti per la riprogettazione degli elementi in fibra di carbonio. Inoltre i banchi progettati sono stati riutilizzati per testare i nuovi elementi, da telaio e telaietto riprogettati al nuovo forcellone.
Resumo:
Nel contesto dei vigneti terrazzati del Lavaux (Svizzera), è stato condotto uno studio sull'effetto di differenti metodi di gestione del vigneto, confrontando, in due areali viticoli, metodi ad alta sostenibilità (biologico e biodinamico) con una gestione di produzione integrata. Sono state effettuate analisi chimico-fisiche del suolo, osservazioni della composizione floristica del vigneto, valutazioni dello stato nutrizionale e sanitario delle viti. I risultati indicano la possibilità di ridurre sensibilmente l’impatto ambientale degli interventi colturali nei vigneti del Lavaux. Le parcelle gestite con metodi di coltivazione più sostenibili (biologico e biodinamico) hanno mostrato, in entrambi i siti, uno stato nutrizionale e sanitario soddisfacenti, analoghi a quelli delle parcelle coltivate con il metodo di produzione integrata. Tali parcelle si sono inoltre contraddistinte per la maggiore biodiversità della composizione floristica. Questo risultato è di fondamentale importanza per i vigneti terrazzati del Lavaux, patrimonio dell’umanità dell’UNESCO, come per i vigneti di altre aree soggette a forti pressioni antropiche.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.
Resumo:
Le malattie rare pongono diversi scogli ai pazienti, ai loro familiari e ai sanitari. Uno fra questi è la mancanza di informazione che deriva dall'assenza di fonti sicure e semplici da consultare su aspetti dell'esperienza del paziente. Il lavoro presentato ha lo scopo di generare da set termini correlati semanticamente, delle frasi che abbiamo la capacità di spiegare il legame fra di essi e aggiungere informazioni utili e veritiere in un linguaggio semplice e comprensibile. Il problema affrontato oggigiorno non è ben documentato in letteratura e rappresenta una sfida interessante si per complessità che per mancanza di dataset per l'addestramento. Questo tipo di task, come altri di NLP, è affrontabile solo con modelli sempre più potenti ma che richiedono risorse sempre più elevate. Per questo motivo, è stato utilizzato il meccanismo di recente pubblicazione del Performer, dimostrando di riuscire a mantenere uno stesso grado di accuratezza e di qualità delle frasi prodotte, con una parallela riduzione delle risorse utilizzate. Ciò apre la strada all'utilizzo delle reti neurali più recenti anche senza avere i centri di calcolo delle multinazionali. Il modello proposto dunque è in grado di generare frasi che illustrano le relazioni semantiche di termini estratti da un mole di documenti testuali, permettendo di generare dei riassunti dell'informazione e della conoscenza estratta da essi e renderla facilmente accessibile e comprensibile al pazienti o a persone non esperte.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.