986 resultados para riconoscimento volto alterazione digitale immagini morphing
Resumo:
La tesi consiste nella descrizione del complessivo background storico-letterario, archeologico e digitale necessario per la realizzazione di un Atlante digitale dell’antica Grecia antica sulla base della raccolta e analisi dei dati e delle informazioni contenute nella Periegesi di Pausania. Grazie all’impiego degli applicativi GIS, ed in particolare di ArcGIS online, è stato possibile creare un database georiferito contenente le informazioni e le descrizioni fornite dal testo; ogni identificazione di un sito storico è stata inoltre confrontata con lo stato attuale della ricerca archeologica, al fine di produrre uno strumento innovativo tanto per a ricerca storico-archeologica quanto per lo studio e la valutazione dell’opera di Pausania. Nello specifico il lavoro consiste in primo esempio di atlante digitale interamente basato sull’interpretazione di un testo classico attraverso un processo di georeferenziazione dei suoi contenuti. Per ogni sito identificato è stata infatti specificato il relativo passo di Pausania, collegando direttamente Il dato archeologico con la fonte letteraria. Per la definizione di una tassonomia efficace per l’analisi dei contenuti dell’opera o, si è scelto di associare agli elementi descritti da Pausania sette livelli (layers) all’interno della mappa corrispondenti ad altrettante categorie generali (città, santuari extraurbani, monumenti, boschi sacri, località, corsi d’acqua, e monti). Per ciascun elemento sono state poi inserite ulteriori informazioni all’interno di una tabella descrittiva, quali: fonte, identificazione, età di appartenenza, e stato dell’identificazione.
Resumo:
Il patrimonio culturale è l’espressione della comunità a cui si riferisce e il digitale può essere un valido strumento per raccontare le storie relative ai beni culturali affinché siano, non solo studiati, ma anche recepiti nel loro significato più profondo da più pubblici. L’inserimento di testi manoscritti sul web utilizzando le tecnologie dei Linked Data facilitano la fruizione del testo da parte dell’utente non specializzato e la creazione di strumenti per la ricerca. La proposta di digitalizzazione della tesi ha come oggetto la vita di Federico da Montefeltro scritta da Vespasiano da Bisticci utilizzando i vocabolari schema.org, FOAF e Relationship per la marcatura del testo e i Content Management System per la pubblicazione dei dati. In questo modo sarà possibile avere un sito web in cui potrà essere curato anche l’aspetto grafico seguendo le regole della user experience e dell’information achitecture per valorizzare le figure del duca di Urbino e del cartolaio fiorentino.
Resumo:
La realtà aumentata (AR) è una nuova tecnologia adottata in chirurgia prostatica con l'obiettivo di migliorare la conservazione dei fasci neurovascolari (NVB) ed evitare i margini chirurgici positivi (PSM). Abbiamo arruolato prospetticamente pazienti con diagnosi di cancro alla prostata (PCa) sul base di biopsia di fusione mirata con mpMRI positiva. Prima dell'intervento, i pazienti arruolati sono stati indirizzati a sottoporsi a ricostruzione del modello virtuale 3D basato su mpMRI preoperatoria immagini. Infine, il chirurgo ha eseguito la RARP con l'ausilio del modello 3D proiettato in AR all'interno della console robotica (RARP guidata AR-3D). I pazienti sottoposti a AR RARP sono stati confrontati con quelli sottoposti a "RARP standard" nello stesso periodo. Nel complesso, i tassi di PSM erano comparabili tra i due gruppi; I PSM a livello della lesione indice erano significativamente più bassi nei pazienti riferiti al gruppo AR-3D (5%) rispetto a quelli nel gruppo di controllo (20%; p = 0,01). La nuova tecnica di guida AR-3D per l'analisi IFS può consentono di ridurre i PSM a livello della lesione dell'indice
Resumo:
La presente tesi di dottorato si propone di ricostruire criticamente la riflessione postcoloniale sullo spazio, riconoscendo nella critica postcoloniale l’introduzione di una fondamentale interrogazione degli spazi che sviluppa cartografie concettuali originali. Il lavoro si concentra sulla duplice operazione svolta dagli studi postcoloniali rispetto al tema degli spazi, riguardando, da una parte, le istanze critiche volte a condannare e contraddire le diverse spazialità del dominio coloniale; dall’altra, elaborando in risposta delle alternative concettuali forti, tali da offrire nuove immagini e strumenti per ripensare in modo abilitante gli spazi politici per il presente globale. Rispecchiando questo duplice indirizzo, la tesi si divide in due parti, precedute da un capitolo introduttivo, volto a presentare una strategia di fondo del pensiero postcoloniale sugli spazi, quella di un "entanglement" atto a ingarbugliare produttivamente fra loro le spazialità sottoposte a divisione e segregazione da parte del dominio coloniale (capitolo 1). A seguire, una pars destruens indaga la contestazione postcoloniale di specifiche spazialità coloniali, (capitolo 2); e discute la critica postcoloniale mossa alla geografia e alla cartografia moderne, in quanto strumenti di potere/sapere coloniale, atti alla costruzione di uno spazio globale strutturalmente asimmetrico, a cui consegue però, da parte postcoloniale, l’elaborazione di contro-cartografie critiche (capitolo 3). Segue una pars construens, dedicata a due concetti-chiave della riflessione postcoloniale sullo spazio, ovvero il pianeta, indagato come “sovrascrittura del globo”, la riflessione sul quale inoltre si fa occasione, da parte del pensiero postcoloniale, per intercettare istanze ecologiche urgenti e, insieme, riflettere sul problema del cosmopolitismo (capitolo 4); e il confine, la cui ricca e complessa ri-significazione in una prospettiva postcoloniale viene qui ricostruita nelle sue molte dimensioni (capitolo 5). Seguono delle conclusioni a fare un riassunto e un bilancio degli argomenti così ripercorsi, mettendo in luce in particolare i temi della dislocazione, della diaspora e della traduzione.
Resumo:
Anche se l'isteroscopia con la biopsia endometriale è il gold standard nella diagnosi della patologia intracavitaria uterina, l'esperienza dell’isteroscopista è fondamentale per una diagnosi corretta. Il Deep Learning (DL) come metodica di intelligenza artificiale potrebbe essere un aiuto per superare questo limite. Sono disponibili pochi studi con risultati preliminari e mancano ricerche che valutano le prestazioni dei modelli di DL nell'identificazione delle lesioni intrauterine e il possibile aiuto derivato dai fattori clinici. Obiettivo: Sviluppare un modello di DL per identificare e classificare le patologie endocavitarie uterine dalle immagini isteroscopiche. Metodi: È stato eseguito uno studio di coorte retrospettivo osservazionale monocentrico su una serie consecutiva di casi isteroscopici di pazienti con patologia intracavitaria uterina confermata all’esame istologico eseguiti al Policlinico S. Orsola. Le immagini isteroscopiche sono state usate per costruire un modello di DL per la classificazione e l'identificazione delle lesioni intracavitarie con e senza l'aiuto di fattori clinici (età, menopausa, AUB, terapia ormonale e tamoxifene). Come risultati dello studio abbiamo calcolato le metriche diagnostiche del modello di DL nella classificazione e identificazione delle lesioni uterine intracavitarie con e senza l'aiuto dei fattori clinici. Risultati: Abbiamo esaminato 1.500 immagini provenienti da 266 casi: 186 pazienti avevano lesioni focali benigne, 25 lesioni diffuse benigne e 55 lesioni preneoplastiche/neoplastiche. Sia per quanto riguarda la classificazione che l’identificazione, le migliori prestazioni sono state raggiunte con l'aiuto dei fattori clinici, complessivamente con precision dell'80,11%, recall dell'80,11%, specificità del 90,06%, F1 score dell’80,11% e accuratezza dell’86,74% per la classificazione. Per l’identificazione abbiamo ottenuto un rilevamento complessivo dell’85,82%, precision 93,12%, recall del 91,63% ed F1 score del 92,37%. Conclusioni: Il modello DL ha ottenuto una bassa performance nell’identificazione e classificazione delle lesioni intracavitarie uterine dalle immagini isteroscopiche. Anche se la migliore performance diagnostica è stata ottenuta con l’aiuto di fattori clinici specifici, questo miglioramento è stato scarso.
Resumo:
This thesis describes a study conducted for the development of a new approach for the design of compliant mechanisms. Currently compliant mechanisms are based on a 2.5D design method. The applications for which compliant mechanisms can be used this way, is limited. The proposed research suggests to use a 3D approach for the design of CM’s, to better exploit its useful properties. To test the viability of this method, a practical application was chosen. The selected application is related to morphing wings. During this project a working prototype of a variable sweep and variable AoA system was designed and made for an SUAV. A compliant hinge allows the system to achieve two DOF. This hinge has been designed using the proposed 3D design approach. To validate the capabilities of the design, two methods were used. One of these methods was by simulation. By using analysis software, a basic idea could be provided of the stress and deformation of the designed mechanism. The second validation was done by means of AM. Using FDM and material jetting technologies, several prototypes were manufactured. The result of the first model showed that the DOF could be achieved. Models manufactured using material jetting technology, proved that the designed model could provide the desired motion and exploit the positive characteristics of CM. The system could be manufactured successfully in one part. Being able to produce the system in one part makes the need for an extensive assembly process redundant. This improves its structural quality. The materials chosen for the prototypes were PLA, VeroGray and Rigur. The material properties were suboptimal for its final purpose, but successful results were obtained. The prototypes proved tough and were able to provide the desired motion. This proves that the proposed design method can be a useful tool for the design of improved CM’s. Furthermore, the variable sweep & AoA system could be used to boost the flight performance of SUAV’s.
Resumo:
La presente tesi si propone di analizzare l'offerta per bambini e ragazzi italiana successivamente l'introduzione del digitale terrestre. Si inizia introducendo la letteratura riguardante la Children's Television: i suoi maggiori studiosi, le teorie dietro di essa, i suoi rapporti con gli stakeholders, lo Stato, la scuola e il suo stesso pubblico. Si prosegue osservando i cambiamenti avvenuti nel panorama mediatico e nella vita dei minori con la tecnologia digitale, guardando nello specifico come il servizio pubblico della Rai e la sua rivale commerciale Mediaset abbiano adattato la propria offerta e i propri paradigmi alle nuove possibilità. L'ultimo capitolo concerne gli ultimi due anni di pandemia e l'ulteriore modifica dell'offerta per far fronte all'emergenza sanitaria.
Resumo:
Il lavoro di tesi si è posto l'obiettivo di studiare il comportamento fluidodinamico di un reattore agitato meccanicamente, scale-down di un digestore anaerobico per la produzione di biogas, attraverso tecniche di diagnostica ottica. Le tecniche utilizzate sono state la Particle Image Velocimetry, PIV, e la Planar Laser Induced Fluorescence, PLIF. Le prove sono iniziate utilizzando acqua all’interno del reattore e sono proseguite utilizzando una soluzione di acqua e Carbometilcellulosa (CMC) a concentrazione di CMC progressivamente crescente per aumentare la viscosità apparente della soluzione non newtoniana con lo scopo di simulare il più realisticamente possibile la viscosità del contenuto reale del digestore. Tutte le diverse soluzioni sono state indagate per diverse velocità e diversi sensi di rotazione. Le prove di diagnostica ottica sono state progressivamente affiancate da prove al reometro di campioni di soluzione per il calcolo della viscosità apparente. La PIV ha fornito la misura del campo di moto di un piano, è stato scelto di analizzare un piano verticale. Il metodo di diagnostica ottica ho previsto l’utilizzo di quattro componenti: una sezione per il test otticamente trasparente contenente la soluzione inseminata con piccole particelle di tracciante (particelle di argento e vetro cavo) che seguono il flusso, una sorgente di illuminazione pulsata (laser), un dispositivo di registrazione (una telecamera digitale ad alta definizione) ed un software per la cross-correlazione delle immagini acquisite (DynamicStudio). La PLIF è stata implementata per lo studio del tempo caratteristico di miscelazione nel reattore. La strumentazione utilizzata è stata la stessa della PIV con un tracciante diverso a base di Rodhamina-6G. Lo studio ha riguardato il tempo necessario all’omogeneizzazione del tracciante mediante un’analisi del coefficiente di variazione, CoV, delle immagini acquisite.
Resumo:
L’accresciuto settore online della produzione, distribuzione e promozione di libri, sia in formato cartaceo che digitale, sta influenzando sempre di più le case editrici e gli autori ad adottare un approccio multimediale, contribuendo a creare un vero e proprio mercato parallelo, i cui vettori sono rappresentati dalla modalità tradizionale a cui si sta sempre più fortemente affiancando quella digitale e multimediale . Questa tesi ha l’obiettivo di analizzare come nell’ambito editoriale il passaggio al digitale abbia comportato una serie di modifiche nei paradigmi con cui la casa editrice e gli autori si interfacciano con i lettori, dalla modalità con la quale i prodotti editoriali digitali sono creati ed immessi nel mercato, al rapporto di comunicazione tra i lettori, gli autori e le aziende del settore. La prima parte della tesi si articola all’interno del rapporto tra editoria e internet, di come si sviluppa la struttura dell’editoria digitale e di come i canali distributivi abbiano modificato la modalità con cui i prodotti editoriali vengono catalogati e venduti, utilizzando i siti web e gli store online delle case editrici e degli autori.Il secondo capitolo indaga in maniera approfondita come una casa editrice dovrebbe rivolgersi dunque al marketing digitale, le tecniche e i percorsi che dovrebbe affrontare per raggiungere o ingrandire il proprio bacino d’utenza. Il terzo capitolo approfondisce la modalità del dialogo che si è venuto ad instaurare tra il lettore e le piattaforme digitali, e di come siano utilizzate dalle case editrici stesse per comunicare con i lettori propri utenti, attraverso una multimedialità che rende il libro un contenuto liquido, ovvero che si dirama in più informazioni. Il quarto e ultimo capitolo analizza nello specifico il caso Amazon Publishing. Seguiranno conclusioni sull'attuale situazione del mercato editoriale e sviluppi futuri.
Resumo:
La tesi studia un algoritmo presentato per la prima volta da Elias Kellner et al. nell'articolo "Gibbs‐ringing artifact removal based on local subvoxel‐shifts" pubblicato nel 2016 nella rivista Magnetic resonance in medicine. Nella tesi viene dato un background teorico sia dell'acquisizione di immagini tramite risonanza magnetica, soffermandosi in particolare su come si forma l'effetto Gibbs, sia sul funzionamento dell'algoritmo. Vengono poi mostrati numerosi esempi di immagini, sia sintetiche sia acquisite da risonanza magnetica, per dimostrare l'efficacia dell'algoritmo.
Resumo:
Questa tesi si ispira a lavori precedentemente portati avanti da altri studenti e si pone il problema della possibilit\`a di riconoscere se uno smartphone \`e utilizzato da un utente mentre esso si trova alla guida di un'autovettura. In essa verranno presentati vari metodi per risolvere questo problema di Machine Learning, ovvero realizzazione di dataset per l'allenamento di modelli e creazione e allenamento di modelli stessi, dediti al riconoscimento di un problema di classificazione binaria e riconoscimento di oggetti tramite Object Detection. Il cercare di riconoscere se l'utente \`e alla guida o meno, avverr\`a tramite l'output della fotocamera frontale dello smartphone, quindi lavoreremo su immagini, video e frame. Arriveremo a riconoscere la posizione della persona rappresentata da questi fotogrammi tramite un modello di Object Detection, che riconosce cintura e finestrino e determina se sono appartenenti al sedile e alla posizione del conducente o del passeggero. Vedremo alla fine, attraverso un'attenta analisi dei risultati ottenuti su ben 8 video diversi che saranno divisi in molti frame, che si ottengono risultati molto interessanti, dai quali si pu\`o prendere spunto per la creazione di un importante sistema di sicurezza alla guida.
Resumo:
Nella tomografia computerizzata subentrano due fonti principali di rumore nel processo di generazione dell'immagine. Il l rumore legato al disturbo generato dall'elettronica si può modellare con un rumore di Gauss, mentre il rumore dovuto all'interazione dei fotoni con il corpo in scansione può essere modellato con un rumore di Poisson. Partendo da un modello per la rimozione del rumore misto di Poisson-Gauss (modello Infimal), viene applicato l'algoritmo del gradiente proiettato scalato (SGP) con Infimal su vari rumori misti per analizzarne l'efficacia.
Resumo:
Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.
Resumo:
In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.