465 resultados para metodi level set segmentazione immagini di nevi immagini mediche regolarizzazione


Relevância:

40.00% 40.00%

Publicador:

Resumo:

La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’Imaging di Risonanza Magnetica (MRI) è una tecnica diagnostica multiparametrica e non dannosa che permette di acquisire immagini nelle quali risiedono informazioni di natura anatomica e funzionale. Utilizzando un campo magnetico di intensità bassa è possibile ottenere scanner portatili, silenziosi, sicuri ed economici evitando l’installazione di schermature magnetiche e a radiofrequenza. La risoluzione e il rapporto segnale rumore di queste immagini non è ottimale e gli artefatti da movimento sono considerevoli. Nonostante ciò, lo scanner MRI a basso campo è in grado di fornire immagini con importante valore diagnostico, in particolare in quei contesti in cui un esame tramite risonanza tradizionale non risulta possibile.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il cancro è un processo autosufficiente e adattivo che interagisce dinamicamente con il suo microambiente, la cui diagnosi, complessa e dispendiosa in termini di tempo e numero di specialisti impiegati, viene solitamente effettuata valutando l’imaging radiografico oppure effettuando un esame istologico. L'interpretazione di tali immagini risulta generalmente molto complessa, a questo scopo sarebbe molto utile poter addestrare un computer a comprendere tali immagini potendo di fatto affiancarsi allo specialista, senza sostituirlo, al momento della diagnosi. A questo scopo è possibile affidarsi alle tecniche di apprendimento automatico, sistema alla base dell’intelligenza artificiale (AI), le quali permettono di fatto di apprendere automaticamente la rappresentazione delle caratteristiche da immagini campione. Tali tecniche di intelligenza artificiale, hanno però bisogno, per essere addestrate, di grandi quantità di dati in cui il segnale di uscita desiderato è noto, comportando di fatto un aumento delle tempistiche di addestramento. Inoltre, in ambito sanitario, i dati sono distribuiti su più archivi, dislocati sul territorio nazionale, rendendo impossibile l’utilizzo di soluzioni centralizzate. L’obbiettivo di questa trattazione sarà cercare di trovare una soluzione a queste due problematiche, ricorrendo all’utilizzo delle tecniche di parallelizzazione. A seguito dell'introduzione dello scenario biologico e delle tecniche di diagnostica ad esso associato è presentato il percorso di creazione della rete neurale. A seguito del suo addestramento sulla GPU di una singola macchina, ottenendo un'accuratezza dell'83.94% in 5 ore 48 minuti e 43 secondi, è stata introdotto la parallelizzazione ed una sua implementazione. In conclusione, sfruttando il sistema implementato, è stata distribuita la fase di addestramento prima su due macchine e poi su tre, ottenendo una diminuzione del tempo di addestramento rispettivamente del 31.4% e del 50%.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondidisponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondidi una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La produzione additiva è una tecnologia innovativa completamente rivoluzionaria. La sua tecnica di costruzione layer by layer a partire da un file digitale consente la progettazione di componenti più complessi e ottimizzati, favorendo la stampa 3D su richiesta. La produzione additiva è potenzialmente in grado di offrire numerosi vantaggi sul tema della sostenibilità, rappresentati dall’utilizzo più efficiente delle risorse, dalla vita estesa dei prodotti e dalle nuove configurazioni delle catene di valore. L’ importanza di determinare gli impatti che tale processo genera lungo il suo ciclo di vita, ha portato ad una revisione della letteratura su tale argomento. In particolare, la mancanza di dati e modelli ha focalizzato l’attenzione su studi LCA di specifici processi. Grazie a tale strumento è stato possibile determinare l’influenza di diversi materiali, parametri di processo e scenari di utilizzo. Infine, viene mostrato quanto sia significativo l’impatto sociale che è in grado di generare la produzione additiva.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’elaborato è incentrato sullo studio di una bicicletta pieghevole innovativa attraverso i metodi dell’Ingegneria Industriale. All’interno del moderno contesto urbano, la bicicletta pieghevole rappresenta una soluzione valida per quegli utenti che cercano un mezzo versatile, autonomo, economico, compatto e adatto alla nuova mobilità intermodale. Negli ultimi anni i costruttori di pieghevoli si trovano a dover soddisfare le richieste di una clientela sempre più consapevole e attenta, cercando di proporre prodotti che siano in grado di combinare praticità e prestazioni, con particolare attenzione al dettaglio e all’immagine. Lo scopo di questo progetto è quello di disegnare un mezzo a propulsione muscolare che sia in grado di offrire la migliore esperienza d’uso possibile. Attraverso un’attenta analisi di mercato tramite il metodo del Quality Function Deployment si individuano le caratteristiche chiave del prodotto e si indirizza la fase di progettazione, portata avanti attraverso l’impostazione tecnica del prodotto il disegno di un meccanismo di piega inedito. Successivamente si passa alla definizione delle geometrie e alla realizzazione dello stile tramite la costruzione di un modello 3D al CAD, a cui segue una fase di analisi strutturale col Metodo degli Elementi Finiti, secondo le prove previste dalla normativa europea per la sicurezza delle biciclette, che porta al re-design alla validazione del prodotto finale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La superficie marziana è stata analizzata per decenni con immagini e tecniche spettroscopiche, sensibili alle proprietà dei primi millimetri e micrometri del terreno. Le zone sotto la superficie sono state studiate solo indirettamente fino al 2001, quando venne sviluppata la missione Mars Odyssey. Successivamente, è stato lanciato il Mars Advanced Radar for Subsurface and Ionosfere Sounding (MARSIS) a bordo di Mars Express, con l'obiettivo di ricercare ghiaccio e acqua sul pianeta rosso. In questo lavoro è stata mappata la potenza degli echi raccolti da MARSIS, ottenuti ad una frequenza di 4.0 MHz, ispirandosi al lavoro descritto in Mouginot et al. (2010). I valori utilizzati sono stati selezionati tenendo conto degli effetti dell'attenuazione del segnale da parte della ionosfera e della rugosità della superficie. Dalle mappe degli echi, risultanti dall'analisi, si è potuta ricavare la costante dielettrica dello strato sotto la superficie. I dati sono stati normalizzati con una simulazione dei segnali di MARSIS, ottenuta a partire dalla topografia del Marsis Orbiter Laser Altimeter (MOLA). Si osserva che le proprietà dielettriche variano con la latitudine, con valori alti tra 20° e 40° e più bassi ai poli e all'equatore. Le tre zone di maggiore interesse, ovvero le due calotte polari e la Formazione Medusae Fossae, appaiono in blu nella Fig. 4.5. Ciò suggerisce che siano costituite da materiali con una costante dielettrica compresa tra 2 e 4, tipica del ghiaccio. Si pensa, però, che esse possiedano diverse quantità di impurità.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Popillia japonica Newman (Coleoptera, Scarabaeidae) o, più volgarmente, scarabeo giapponese, è un insetto che dagli aerali d’origine in Asia orientale è arrivato negli USA a partire dai primi del '900 e infine si è diffuso in numerosi territori nel mondo. In Italia, P. japonica, classificato come insetto da quarantena, si trova principalmente in due regioni: Piemonte e Lombardia; in Emilia-Romagna la presenza è ancora sporadica. Insetto altamente polifago e capace di nutrirsi a spese di molte specie botaniche, può causare danni diretti ed indiretti che vanno a inficiare la produzione e la qualità. Sulla vite, sia europea che americana, il coleottero adulto provoca defogliazioni che, se non controllate, possono portare ad una totale perdita della superfice fogliare. Le larve non attaccano direttamente la vite ma possono causare danni alla vegetazione erbacea di interfila e sottofila. È fondamentale limitare l’espansione di P. japonica sul territorio Italiano, poiché i danni che potrebbe causare ammonterebbero a svariati milioni di euro ogni anno. Le azioni di monitoraggio, che sono eseguite principalmente tramite trappole a feromoni e rilievi visivi, sono quindi di estrema importanza. Esistono vari metodi di gestione utili a contenere le popolazioni di P. japonica sia allo stato larvale che adulto. A oggi, i più efficaci si basano sull’utilizzo di insetticidi di sintesi attivi contro larve e adulti. I metodi di gestione agronomici possono contribuire a ridurre la presenza dell’insetto contenendo soprattutto la popolazione larvale e in parte anche quella adulta. Purtroppo i risultati ottenuti tramite lotta biologica sono, invece, piuttosto scarsi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'elaborato analizza il rapporto tra l'audiovisivo in generale e le disabilità. Nel dettaglio vengono, innanzitutto, illustrati i metodi che rendono accessibile un prodotto audiovisivo, come sottotitoli o interpreti in lingua dei segni per i sordi, oppure audio descrizioni per le persone cieche. Successivamente, attraverso l'approfondimento di numerosi film e serie tv, ma anche spot pubblicitari e cortometraggi, viene affrontato il tema della rappresentazione, che deve essere più trasparente e veritiera nei confronti del pubblico, anche e soprattutto per chi si approccia per la prima volta alle disabilità. Il terzo capitolo è un caso di studio sulla sordità. Si passa da una breve storia fino agli errori più comuni che si effettuano ancora oggi quando si parla di cultura dei sordi. Durante il corso della tesi ci si porrà diverse domande. Quanto conta realmente la persona disabile quando si parla di intrattenimento? Può essere corretto affidare ad un attore normodotato il ruolo di un personaggio disabile? I prodotti audiovisivi al giorno d'oggi presenti sul mercato possono essere al 100% accessibili? La ricerca è arricchita, oltre che con grafici ed immagini, anche con un'intervista a due autori che hanno inserito un personaggio disabile nella loro opera degli anni Duemila. Infine, verranno proposte decine e decine di titoli che spaziano tra diverse disabilità, in modo da permettere un approfondimento ulteriore al di fuori di questo elaborato. Il lavoro finale dimostra come la strada verso un audiovisivo sempre più accessibile ha fatto grandi passi nel corso degli anni, ma è necessaria ancora molta ricerca, informazione e conoscenza in tutte le sfaccettature della disabilità, per permettere un inclusione ed integrazione totale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il progetto di tesi, inserito nel contesto degli studi sugli effetti dei cambiamenti climatici, si basa sull’utilizzo di dati radar derivanti dalla piattaforma satellitare Sentinel-1 (missione spaziale dell’Agenzia Spaziale Europea, inserita all’interno del progetto Copernicus) e mareografici, e ha l’obiettivo di verificare (e quindi validare) l’affidabilità dei dati Sentinel-1 per il monitoraggio della velocità e delle dinamiche di scioglimento del ghiacciaio Harald Moltke (Groenlandia) e la relazione con i fenomeni di distaccamento del suo fronte (eventi di “ice-calving”). Il monitoraggio del ghiacciaio e lo studio di questi ultimi eventi sono tra le tematiche legate al cambiamento climatico toccate dal progetto MACMAP (“A Multidisciplinary Analysis of Climate change indicators in the Mediterranean And Polar regions”, PI. A. Guarnieri, INGV) finanziate dell’istituto Nazionale di Geofisica e Vulcanologia. Per ottenere i campi di velocità del ghiacciaio sono stati utilizzati due dataset di immagini satellitari SAR (Sentinel-1) e, questi, elaborati con tecnica Offset tracking: il primo elaborato dal programma PROMICE e il secondo processato appositamente per questo lavoro con il tool SNAP (SentiNel Applications Platform, tool opensource creato dall’Agenzia Spaziale Europea, ESA). Per relazionare i fenomeni di calving con l’andamento della velocità del ghiacciaio sono stati integrati dati mareografici forniti dall’istituto INGV.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il machine learning negli ultimi anni ha acquisito una crescente popolarità nell’ambito della ricerca scientifica e delle sue applicazioni. Lo scopo di questa tesi è stato quello di studiare il machine learning nei suoi aspetti generali e applicarlo a problemi di computer vision. La tesi ha affrontato le difficoltà del dover spiegare dal punto di vista teorico gli algoritmi alla base delle reti neurali convoluzionali e ha successivamente trattato due problemi concreti di riconoscimento immagini: il dataset MNIST (immagini di cifre scritte a mano) e un dataset che sarà chiamato ”MELANOMA dataset” (immagini di melanomi e nevi sani). Utilizzando le tecniche spiegate nella sezione teorica si sono riusciti ad ottenere risultati soddifacenti per entrambi i dataset ottenendo una precisione del 98% per il MNIST e del 76.8% per il MELANOMA dataset