999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.
Resumo:
Il volume di tesi ha riguardato lo sviluppo di un'applicazione mobile che sfrutta la Realtà Aumentata e il Machine Learning nel contesto della biodiversità. Nello specifico si è realizzato un modello di AI che permetta la classificazione di immagini di fiori. Tale modello è stato poi integrato in Android, al fine della realizzazione di un'app che riesca a riconoscere specifiche specie di fiori, oltre a individuare gli insetti impollinatori attratti da essi e rappresentarli in Realtà Aumentata.
Resumo:
La pubblicità – quella televisiva passando poi a quella sul web e sui social – subisce numerose trasformazioni che investono soprattutto i metodi comunicativi con cui sviluppare la propria narrazione. Oggi, di fatto, il mondo della pubblicità non si limita alla sola sponsorizzazione di un brand e dei suoi prodotti, ma si cala sempre più nelle dinamiche sociali, civili ed economiche che caratterizzano il nostro quotidiano. La comunicazione commerciale, dunque, si prefigge di essere il più inclusiva possibile, di coinvolgere storie, situazioni e personaggi che, nella pubblicità del “passato”, sarebbero stati esclusi totalmente o rappresentati in modo stereotipato. Se risulta possibile affermare che, nel panorama mediale odierno, si stia rivolgendo maggiore attenzione alle tematiche LGBTQ+, alle lotte contro la discriminazione di genere e all’ingaggio di personaggi appartenenti alla comunità queer, è altrettanto vero affermare come sia ancora possibile ricadere in rappresentazioni stereotipate e strategie di marketing che si fingono inclusive, solo per cavalcare l’onda del successo di eventi quali il Pride. All’interno di questo elaborato si andrà, in primis, a tracciare la storia culturale della comunità LGBTQ+ e ad approfondire come sia evoluta la sua presenza nei diversi media audiovisivi – dal cinema alle serie tv fino alla pubblicità. Ci si concentrerà poi sugli stereotipi ancora ricorrenti in pubblicità televisiva, ossia quello di genere. L’obiettivo della tesi è verificare se sia giusto parlare di inclusione o se si tratti solo una mera strategia di marketing, ossia di rainbow-washing, quando i brand si avvalgono di immagini e di personaggi LGBTQ+ nei propri spot. Nel capitolo finale, attraverso di un’analisi qualitativa di n. 100 spot televisivi americani, si andranno ad evidenziare i trend LGBTQ+, ossia in che modo oggi le pubblicità statunitensi sviluppano immagini, simboli, personaggi e storie LGBTQ+, realmente positive ed inclusive, in pubblicità.
Resumo:
La tesi studia un algoritmo presentato per la prima volta da Elias Kellner et al. nell'articolo "Gibbs‐ringing artifact removal based on local subvoxel‐shifts" pubblicato nel 2016 nella rivista Magnetic resonance in medicine. Nella tesi viene dato un background teorico sia dell'acquisizione di immagini tramite risonanza magnetica, soffermandosi in particolare su come si forma l'effetto Gibbs, sia sul funzionamento dell'algoritmo. Vengono poi mostrati numerosi esempi di immagini, sia sintetiche sia acquisite da risonanza magnetica, per dimostrare l'efficacia dell'algoritmo.
Resumo:
Il Deep Learning ha radicalmente trasformato il mondo del Machine Learning migliorando lo stato dell'arte in diversi campi che spaziano dalla computer vision al natural language processing. Non fermandosi a problemi di classificazione, negli ultimi anni, applicazioni di tipo generativo hanno portato alla creazione di immagini realistiche e documenti letterali. Il mondo della musica non è esente da una moltitudine di esperimenti nello stesso campo, con risultati ancora acerbi ma comunque potenzialmente interessanti. In questa tesi verrà discussa l'applicazione di un di modello appartenente alla famiglia del Deep Learning per la generazione di musica simbolica.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.
Resumo:
L’applicazione degli algoritmi di Intelligenza Artificiale (AI) al settore dell’imaging medico potrebbe apportare numerosi miglioramenti alla qualità delle cure erogate ai pazienti. Tuttavia, per poterla mettere a frutto si devono ancora superare alcuni limiti legati alla necessità di grandi quantità di immagini acquisite su pazienti reali, utili nell’addestramento degli stessi algoritmi. Il principale limite è costituito dalle norme che tutelano la privacy di dati sensibili, tra cui sono incluse le immagini mediche. La generazione di grandi dataset di immagini sintetiche, ottenute con algoritmi di Deep Learning (DL), sembra essere la soluzione a questi problemi.
Resumo:
Il progetto di tesi, inserito nel contesto degli studi sugli effetti dei cambiamenti climatici, si basa sull’utilizzo di dati radar derivanti dalla piattaforma satellitare Sentinel-1 (missione spaziale dell’Agenzia Spaziale Europea, inserita all’interno del progetto Copernicus) e mareografici, e ha l’obiettivo di verificare (e quindi validare) l’affidabilità dei dati Sentinel-1 per il monitoraggio della velocità e delle dinamiche di scioglimento del ghiacciaio Harald Moltke (Groenlandia) e la relazione con i fenomeni di distaccamento del suo fronte (eventi di “ice-calving”). Il monitoraggio del ghiacciaio e lo studio di questi ultimi eventi sono tra le tematiche legate al cambiamento climatico toccate dal progetto MACMAP (“A Multidisciplinary Analysis of Climate change indicators in the Mediterranean And Polar regions”, PI. A. Guarnieri, INGV) finanziate dell’istituto Nazionale di Geofisica e Vulcanologia. Per ottenere i campi di velocità del ghiacciaio sono stati utilizzati due dataset di immagini satellitari SAR (Sentinel-1) e, questi, elaborati con tecnica Offset tracking: il primo elaborato dal programma PROMICE e il secondo processato appositamente per questo lavoro con il tool SNAP (SentiNel Applications Platform, tool opensource creato dall’Agenzia Spaziale Europea, ESA). Per relazionare i fenomeni di calving con l’andamento della velocità del ghiacciaio sono stati integrati dati mareografici forniti dall’istituto INGV.
Resumo:
L'obiettivo di questo lavoro di tesi è quello di simulare il comportamento di un'aorta addominale con e senza aneurismatica, considerando sia la fluidodinamica del flusso sanguigno, sia lo spostamento elastico meccanico dell'aorta, quindi come il primo fattore influisca sul secondo e viceversa. Questo elaborato si propone pertanto di investigare gli strumenti che permettano di intervenire ed evitare situazioni degenerative in ambito cardiovascolare. Partendo dal caso di aneurisma dell'aorta addominale (AAA) e servendosi di una serie di strumenti computazionali è possibile compiere un confronto tra quadri clinici di diversi pazienti per favorire e facilitare il lavoro di medici e chirurghi, stabilendo una rapida correlazione tra la cattura di immagini in tempo reale dei pazienti attraverso TAC (Tomografia Assiale Computerizzata) e i parametri d’interesse nella formazione di aneurismi. Si fornisce in questo modo al professionista che li osserva un’immediata ed efficiente comprensione del quadro clinico sulla base del quale potrà decidere se e come intervenire.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.
Resumo:
Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.
Resumo:
Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.
Resumo:
Questa tesi si pone l'obiettivo di presentare l'universo multicolore e sfaccettato della literatura de cordel brasiliana, particolare forma di poesia caratterizata da poemetti stampati in libretti di carta deperibile e posti in vendita appesi a sottili spaghi, chiamati cordeis in portoghese. L'esposto è strutturato in due parti: nella prima viene introdotto il fenomeno in termini generali, la sua storia, i temi affrontati dai poeti e le forme metriche più utilizzate. Nella seconda è presentata la figura del poeta Leandro Gomes de Barros, illustre rappresentante del genere, e proposta la traduzione del suo classico “O dinheiro” (Il denaro). Il testo, avendo un carattere fortemente divulgativo, è accessibile a tutti, e accompagna il lettore nella narrazione con un grande numero di immagini (raffiguranti le pittoresche copertine dei libricini di Cordel) ed esempi testuali tratti da testi originali, sia contemporanei che classici, che aiutano ad immergersi in questa particolare forma espressiva.
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.