511 resultados para ricostruzione immagini regolarizzazione in norma L1 metodo di tipo Newton formule L-BFGS
Resumo:
Questo elaborato presenta il progetto di una interfaccia per l'aggiunta di sensori inerziali ad un nodo di una WSN (Wireless Sensor Network) �finalizzato al monitoraggio delle frane. Analizzando i vantaggi che avrebbe portato l'utilizzo di ulteriori sensori, si �e cercato di fornire un valido approccio di progettazione; in particolare l'idea �e quella di integrarli con un giroscopio ed un accelerometro aventi applicazioni in altri settori. Con questo particolare utilizzo, essi possono portare ad un miglior monitoraggio riuscendo a rilevare i movimenti in modo dettagliato ed a riconoscere i falsi allarmi. Nell'approccio che si intende suggerire verranno sfruttate schede per la prototipazione rapida, user-friendly e con costi decisamente accessibili, adatte alla sperimentazione elettronica e per lo sviluppo di nuovi dispositivi. Attraverso l'utilizzo di ambienti di sviluppo appositamente creati, si sono simulate le comunicazioni tra nodo e scheda di sensori, mettendo in evidenza i vantaggi ottenuti. Buona parte del progetto ha riguardato la programmazione in linguaggio C/C++, con una particolare attenzione al risparmio energetico.
Resumo:
Il presente lavoro di tesi analizza un tratto del fiume Secchia, prossimo alla località di Veggia (Sassuolo), al fine di determinare la variazione del livello idrometrico in funzione di diverse portate associate a tempi di ritorno a breve e lungo termine. Vengono dapprima introdotti il concetto di rischio idraulico ed i relativi riferimenti normativi che lo disciplinano, unitamente ai piani di gestione e ai possibili interventi di protezione fluviale. Si introduce successivamente il codice di calcolo HEC-RAS, che viene impiegato nel presente studio per simulare l’andamento dei profili di moto permanente, nel caso in cui il fiume sia o meno interessato dalla presenza di un ponte. In entrambi i casi vengono poi discusse le variazioni dei livelli idrometrici per portate con tempi di ritorno di 20, 100 e 200 anni: si osserva che l’asta fluviale è a rischio nella zona a valle dello studio, mentre nella zona dove è ubicato il ponte l’aumentare dei livelli idrometrici non mette in crisi la struttura. A seguire vengono presentate le opere di mitigazione, destinate alla protezione dell’alveo e dell’ambiente circostante. Poi, si mostrano le opere di mitigazione, essi funzionano di diminuire i rischi dalla diversa classificazione di opere.
Resumo:
Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.
Resumo:
La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.
Resumo:
In questo lavoro si analizza il rendimento isoentropico di diversi espansori adottati all’interno di sistemi micro-ORC (Organic Rankine Cycle). Si parte da una descrizione generale dei sistemi ORC, mettendone in evidenza le principali caratteristiche, il layout tipico, le differenze rispetto ad un ciclo Rankine tradizionale, e gli ambiti di utilizzo. Si procede ad una trattazione teorica del rendimento isoentropico del compressore e dell’espansore, specificando le ipotesi adottate nei calcoli e mettendo in luce la relazione tra rendimento isoentropico e politropico nell’uno e nell’altro apparato. Si passa poi alla descrizione delle quattro principali tipologie di espansori presenti in letteratura: scroll, screw, vane e piston, e si prosegue con l'analisi nel dettaglio della letteratura relativa alla valutazione dell’efficienza di questi quando utilizzati all’interno di un sistema micro-ORC. Infine, dopo aver descritto il sistema ORC del laboratorio di via Terracini del DIN, illustrandone layout, componenti principali, potenza scambiata all’interno dei componenti e modalità di calcolo adottata per la valutazione del rendimento isoentropico dell’espansore e del sistema complessivo, si confrontano i dati di efficienza di questo con quelli reperiti in letteratura. Il confronto del rendimento, dell'espansore e complessivo, del sistema del DIN, 33.8% e 1,818% rispettivamente, con quelli degli altri sistemi, è risultato di difficilmente valutazione a causa delle condizioni di forte off-design del sistema stesso. Dalla ricerca è inoltre emerso che i fluidi più utilizzati nella sperimentazione, e dunque capaci di migliori prestazioni, sono R245fa, R134a e R123. Per quel che riguarda infine gli espansori, nel range di potenza di 1-10 kW, lo scroll risulta essere il migliore.
Resumo:
In quest'elaborato si risolve il problema di Cauchy-Dirichlet per l'equazione del calore, prendendo come oggetto d'esame una sbarra omogenea. Nel primo capitolo si studiano le serie di Fourier reali a partire dalle serie trigonometriche; vengono dati, poi, i principali risultati di convergenza puntuale, uniforme ed in L^2 e si discute l'integrabilità termine a termine di una serie di Fourier. Il secondo capitolo tratta la convergenza secondo Cesàro, le serie di Fejèr ed i principali risultati di convergenza di queste ultime. Nel terzo, ed ultimo, capitolo si risolve il Problema di Cauchy-Dirichlet, distinguendo i casi in cui il dato iniziale sia di classe C^1 o solo continuo; nel secondo caso si propone una risoluzione basata sulle serie di Fejér e sul concetto di barriera ed una utilizzando il nucleo di Green per l'equazione del calore.
Resumo:
La perdita di pacchetti durante una trasmissione su una rete Wireless influisce in maniera fondamentale sulla qualità del collegamento tra due End-System. Lo scopo del progetto è quello di implementare una tecnica di ritrasmissione asimmetrica anticipata dei pacchetti perduti, in modo da minimizzare i tempi di recupero dati e migliorare la qualità della comunicazione. Partendo da uno studio su determinati tipi di ritrasmissione, in particolare quelli implementati dal progetto ABPS, Always Best Packet Switching, si è maturata l'idea che un tipo di ritrasmissione particolarmente utile potrebbe avvenire a livello Access Point: nel caso in cui la perdita di pacchetti avvenga tra l'AP e il nodo mobile che vi è collegato via IEEE802.11, invece che attendere la ritrasmissione TCP e Effettuata dall'End-System sorgente è lo stesso Access Point che e effettua una ritrasmissione verso il nodo mobile per permettere un veloce recupero dei dati perduti. Tale funzionalità stata quindi concettualmente divisa in due parti, la prima si riferisce all'applicazione che si occupa della bufferizzazione di pacchetti che attraversano l'AP e della loro copia in memoria per poi ritrasmetterli in caso di segnalazione di mancata acquisizione, la seconda riguardante la modifica al kernel che permette la segnalazione anticipata dell'errore. E' già stata sviluppata un'applicazione che prevede una ritrasmissione anticipata da parte dell'Access Point Wifi, cioè una ritrasmissione prima che la notifica di avvenuta perdita raggiunga l'end-point sorgente e appoggiata su un meccanismo di simulazione di Error Detection. Inoltre è stata anche realizzata la ritrasmissione asincrona e anticipata del TCP. Questo documento tratta della realizzazione di una nuova applicazione che fornisca una più effciente versione del buffer di pacchetti e utilizzi il meccanismo di una ritrasmissione asimmetrica e anticipata del TCP, cioè attivare la ritrasmissione su richiesta del TCP tramite notifiche di validità del campo Acknowledgement.
Resumo:
Le SNe Ia vengono utilizzate in cosmologia come indicatori di distanza. Nel 1998 due team di ricerca, il Supernova Cosmology Project e l'High-z Supernova Search Team compirono degli studi su un campione di SNe in galassie lontane a z=0.2-0.9. Da questi lavori emerse che le luminosità apparenti erano tipicamente inferiori del 25% rispetto ai valori attesi. Questo indica che tali oggetti si trovano ad una distanza di luminosità superiore a quella prevista da modelli d'Universo dominati da materia. Venne quindi determinata per la prima volta l'evidenza di un Universo in condizione di espansione accelerata. Lo scopo del presente lavoro di tesi è quello di analizzare i vincoli cosmologici imposti da SNe Ia ad alto redshift. È stato compiuto uno studio sui moduli di distanza osservativi di un campione di 580 SNe Ia al fine di trovare i parametri cosmologici che meglio descrivono il loro andamento in funzione del redshift nell'ambito dei modelli cosmologici standard con costante cosmologica positiva. Nella prima parte si illustreranno i modelli d’Universo di Friedmann, introducendo i concetti di redshift, di fattore di scala e i vari tipi di distanza. Nella seconda parte si descriverà cosa sono le Supernovae, e in particolare, le SNe di tipo Ia, le proprietà che le rendono candele standard e l'importanza che hanno assunto in cosmologia. Nella terza parte verranno presentanti i risultati prodotti per i due modelli studiati, verrà inoltre discussa la compatibilità con i parametri prodotti nei lavori compiuti dai due team di ricerca.
Resumo:
La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.
Resumo:
In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.
Resumo:
A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.
Resumo:
L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.
Resumo:
Nonostante l’oggettiva constatazione dei risultati positivi riscontrati a seguito dei trattamenti radioterapici a cui sono sottoposti i pazienti a cui è stato diagnosticato un tumore, al giorno d’oggi i processi biologici responsabili di tali effetti non sono ancora perfettamente compresi. Inseguendo l’obbiettivo di riuscire a definire tali processi è nata la branca delle scienze biomediche denominata radiobiologia, la quale appunto ha lo scopo di studiare gli effetti provocati dalle radiazioni quando esse interagiscono con un sistema biologico. Di particolare interesse risulta essere lo studio degli effetti dei trattamenti radioterapici nei pazienti con tumore del polmone che rappresentano la principale causa di morte dei paesi industrializzati. Purtroppo per via della scarsa reperibilità di materiale, non è stato finora possibile studiare nel dettaglio gli effetti delle cure radioterapiche nel caso di questo specifico tumore. Grazie alle ricerche di alcuni biologi dell’IRST sono stati creati in-vitro sferoidi composti da cellule staminali e tumorali di polmone, chiamate broncosfere, permettendo così di avere ottimi modelli tridimensionali di tessuto umano allo stato solido su cui eseguire esperimenti al fine di regolare i parametri dei trattamenti radioterapici, al fine di massimizzarne l’effetto di cura. In questo lavoro di Tesi sono state acquisite sequenze di immagini relative a broncosfere sottoposte a differenti tipologie di trattamenti radioterapici. Le immagini acquisite forniscono importanti indicazioni densitomorfometriche che correlate a dati clinoco-biologico potrebbero fornire importanti indicazioni per regolare parametri fondamentali dei trattamenti di cura. Risulta però difficile riuscire a confrontare immagini cellulari di pre e post-trattamento, e poter quindi effettuare delle correlazioni fra modalità di irraggiamento delle cellule e relative caratteristiche morfometriche, in particolare se le immagini non vengono acquisite con medesimi parametri e condizioni di cattura. Inoltre, le dimensioni degli sferoidi cellulari da acquisire risultano essere tipicamente maggiori del parametro depth of focus del sistema e questo implica che non è possibile acquisire una singola immagine completamente a fuoco di essi. Per ovviare a queste problematiche sono state acquisite sequenze di immagini relative allo stesso oggetto ma a diversi piani focali e sono state ricostruite le immagini completamente a fuoco utilizzando algoritmi per l’estensione della profondità di campo. Sono stati quindi formulati due protocolli operativi per fissare i procedimenti legati all’acquisizione di immagini di sferoidi cellulari e renderli ripetibili da più operatori. Il primo prende in esame le metodiche seguite per l’acquisizione di immagini microscopiche di broncosfere per permettere di comparare le immagini ottenute in diverse acquisizioni, con particolare attenzione agli aspetti critici di tale operazione. Il secondo è relativo alla metodica seguita nella archiviazione di tali immagini, seguendo una logica di classificazione basata sul numero di trattamenti subiti dal singolo sferoide. In questo lavoro di Tesi sono stati acquisiti e opportunamente archiviati complessivamente circa 6500 immagini di broncosfere riguardanti un totale di 85 sferoidi. I protocolli elaborati permetteranno di espandere il database contenente le immagini di broncosfere con futuri esperimenti, in modo da disporre di informazioni relative anche ai cambiamenti morfologici subiti dagli sferoidi in seguito a varie tipologie di radiotrattamenti e poter quindi studiare come parametri di frazionamento di dose influenzano la cura. Infine, grazie alle tecniche di elaborazioni delle immagini che stiamo sviluppando sarà inoltre possibile disporre di una ricostruzione della superficie degli sferoidi in tempo reale durante l’acquisizione.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.