511 resultados para ricostruzione immagini regolarizzazione in norma L1 metodo di tipo Newton formule L-BFGS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli obbiettivi di questo lavoro di tesi risultano i seguenti: 1) Progettare e caratterizzare una tipologia di bundle bioriassorbibile attraverso la tecnica dell’elettrofilatura, composto da una miscela di acido poli-(L)lattico (PLLA) e collagene, che cerchi di mimare le proprietà meccaniche dei fascicoli di collagene tendineo umano ed equino; 2) Individuare una metodologia di assemblaggio multiscala dei bundle che permetta la creazione di uno scaffold in grado di mimare la struttura gerarchica di un tendine completo; 3) Applicare la filosofia traslazionale alla progettazione dello scaffold al fine di poter applicare tale tecnologia sia nell’ambito della medicina umana che in quella veterinaria, lavorando nel senso della medicina unica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si pone il duplice obiettivo, da un lato, di seguire e approfondire i lavori di restauro e messa in sicurezza delle facciate di palazzo del Podestà, dall'altro, contemporaneamente, di proporre, sviluppare e sperimentare strumenti digitali da utilizzare durante la progettazione e l'esecuzione degli interventi di Restauro. Il settore del restauro architettonico si presenta, più di tanti altri, caratterizzato dalla molteplicità delle figure che intervengono nel corso del processso produttivo e dalla grandissima varietà e quantità di informazioni che entrano in gioco, partendo dalla fase di rilievo dello stato di fatto, fino all'indispensabile documentazione di fine lavori. Prendendo avvio, dunque, dal tirocinio svolto presso la Leonardo S.r.l. di Bologna, si è svolta una riflessione sui processi gestionali ed operativi legati alle operazioni di restauro e ci si è proposti di sviluppare e proporre alcuni strumenti digitali che, senza stravolgere l'attuale processo produttivo, potessero portare benefici operativi all'attività aziendale, facilitare il controllo ed il feedback da parte del committente e migliorare ed alleggerire l'onere della rendicontazione dei lavori. L'orizzonte di questi strumenti è multiplo: per l'attualità è stata sviluppata, in collaborazione con l'ENEA di Bologna, un'applicazione mobile su piattaforma FileMaker per la gestione delle operazioni di restauro attraverso la creazione di un database per la gestione delle analisi e del cantiere; mentre, per uno sviluppo "a regime" fra qualche anno, si è valutata l'efficacia di tecnologie SfM (Structure from Motion) per il rilievo speditivo e la documentazione. Nell'ottica di sviluppi ancora più lontani, infine, le due fasi saranno riunite nella proposta di tecnologie di realtà aumentata con l'obiettivo futuribile di poter passare direttamente dalla realtà e dal rilievo tridimensionale speditivo al progetto ed alla documentazione, senza dovere necessariamente passare da elaborati grafici bidimensionali. Durante tutte queste fasi lo sviluppo delle tecnologie è proceduto di pari passo con il cantiere di palazzo del Podestà, tanto nelle fasi di approfondita ricerca storica, quanto nella produzione delle schede di intervento. L'occasione della ricerca storica ha anche permesso di stilare un semplice regesto, corredato da immagini e bibliografia che raduna ed integra con materiali inediti i numerosi contributi sul tema che si sono succeduti dalla fine del XIX ai giorni nostri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è studiare un modello di percezione cromatica, che descrive la propagazione dell'attività mediante un problema di Cauchy in spazi di Banach. Presentiamo dapprima il problema della stabilità delle soluzioni al problema di Cauchy tramite il metodo Lyapunov; prima in dimensione finita, e poi in spazi di Banach. Poi verifichiamo che l'equazione fondamentale di percezione cromatica ricade nel setting considerato e che il funzionale di Lyapunov associato verifica le ipotesi che assicurano la stabilità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Software di editing o manipolazione delle immagini sono divenuti facilmente disponibili nel mercato e sempre più facili da utilizzare. Attraverso questi potenti tool di editing è consentito fare delle modifiche al contenuto delle immagini digitali e violarne l'autenticità. Oggigiorno le immagini digitali vengono utilizzate in maniera sempre più diffusa anche in ambito legislativo quindi comprovarne l'autenticità e veridicità è diventato un ambito molto rilevante. In questa tesi vengono studiati alcuni approcci presenti in letteratura per l'individuazione di alterazioni nelle immagini digitali. In particolare modo è stata approfondita la tecnica di alterazione digitale definita Morphing che, utilizzata in fotografie per il rilascio di documenti di identità di viaggio con elementi biometrici, potrebbe comportare dei rischi per la sicurezza. Il lavoro di questa tesi include, infine, la verifica del comportamento di alcuni Software in commercio in presenza di immagini campione soggette a diversi tipi di alterazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi per la Laurea Specialistica in Geologia e Territorio è stato concepito come ricostruzione, approfondimento e verifica dell’insieme di interventi finalizzati alla stabilizzazione di versante che hanno coinvolto il tratto della ferrovia Porretta-Pistoia ubicato tra la progressiva 50 + 730 e la progressiva 50 + 650. In quest’area, alle prime ore del giorno 5 Gennaio 2014, è avvenuto l’innesco di un evento franoso che ha coinvolto il rilevato su cui transita la via ferrata: la causa della mobilizzazione è stata ricondotta fin da subito all’intenso evento piovoso occorso nei giorni precedenti la mobilizzazione. La zona coinvolta nel dissesto è situata nei pressi della frazione di Corbezzi, in località Casciano, nel territorio nord-orientale della provincia di Pistoia: il bacino idrografico è quello del torrente Brana, tributario del Fiume Ombrone. L’urgenza e l’importanza della realizzazione di questi interventi non era da attribuirsi alla pericolosità nei confronti delle vite dei residenti, ma piuttosto al fatto che l’opera ferroviaria è da considerarsi come un bene di importanza strategica non solo per la provincia di Pistoia, ma anche per le regioni Toscana ed Emilia-Romagna, in quanto mezzo efficace di collegamento e spostamento di pendolari e merce tra le due. L’elaborato che viene proposto è il risultato delle analisi dei dati acquisiti in fase di progettazione, dello studio effettuato direttamente in campo e di una fase finale di verifica sulla stabilità del versante a seguito della realizzazione delle opere e sulla correttezza del dimensionamento previsto per le stesse. Infine, ma non di minor importanza, viene proposto un approfondimento della coerenza dell’intervento nei confronti del contesto paesaggistico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tra tutte le tecniche sviluppate per il recupero di segnali, i metodi basati sul principio di rilevazione sincrona, utilizzati dagli amplificatori lock-in, sono largamente i più usati in tutti i campi della ricerca scientifica. Gli amplificatori lock-in sono strumenti utilizzati per rilevare e misurare segnali in ambienti in cui il rumore di fondo può essere di diversi ordini di grandezza più grande del segnale che si intende misurare. In questo lavoro viene presentato un metodo per realizzare un amplificatore lock-in digitale su scheda hardware NI ELVIS II+ e software LabVIEW. In seguito viene descritto come, attraverso test opportuni, sono state analizzate le performance del sistema realizzato e sono state confrontate con i sistemi disponibili commercialmente. Infine, l’amplificatore lock-in realizzato è stato poi utilizzato in un esperimento di misura spettroscopica dell’energia di gap di un campione di Germanio per mezzo dell’effetto fotoelettrico interno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.