511 resultados para ricostruzione immagini regolarizzazione in norma L1 metodo di tipo Newton formule L-BFGS
Resumo:
La principale finalità di questo lavoro sperimentale riguarda la messa a punto di un metodo analitico rapido ed economico di tipo colorimetrico, che possa essere attuato anche in laboratori attrezzati per eseguire solo semplici determinazioni spettrofotometriche, con il quale quantificare il contenuto in composti fenolici in accordo con quanto riportato nell’health claim salutistico relativo ai polifenoli negli oli d’oliva (Reg. UE 432/2012). A questo scopo, il metodo sarà testato su dodici oli extra vergini di oliva, sia italiani che spagnoli, caratterizzati da concentrazioni diverse in composti fenolici, in parallelo ad un metodo cromatografico (HPLC-UV-MS) preceduto da idrolisi acida, già presente in letteratura. Tale reazione idrolitica consente, infatti, una conversione dei fenoli complessi tipici dell’oliva - i secoiridoidi - in fenoli semplici (idrossitirosolo e tirosolo), permettendo una determinazione semplificata del contenuto fenolico di un campione rispetto a quanto possibile mediante l’applicazione del solo metodo COI ("Determinazione dei biofenoli degli oli di oliva mediante HPLC", COI/T.20/Doc.n.29, 2009) per la verifica di quanto richiesto dall’health claim. Sulla base dei risultati ottenuti, sarà possibile valutare se i test colorimetrici più comunemente applicati per la determinazione dei composti fenolici negli oli d’oliva (Folin-Ciocalteu e metodo per la determinazione degli orto-difenoli con sodio molibdato) siano effettivamente applicabili per la determinazione del contenuto totale di idrossitirosolo e derivati in oli vergini di oliva, indicando se gli oli oggetto dello studio soddisfino o meno i requisiti UE per l’indicazione in etichetta del claim salutistico.
Resumo:
Questo elaborato tratta la convalida di un metodo per l’analisi delle sostanze correlate presenti in un preparato farmaceutico. Il prodotto analizzato è il propranololo HCL 160 mg dose. Le prove sono state effettuate nel laboratorio di controllo qualità della Valpharma International (Pennabilli (RN) Italia). Il metodo studiato era già stato convalidato dalla farmacopea europea, di conseguenza ci si aspettava che risultasse idoneo all’uso per cui è stato creato. Tuttavia le variabili che entrano in gioco durante l’esecuzione di una procedura sono numerose e non tutte prevedibili. Nasce da qui l’esigenza di riconvalidare il metodo anche all’interno dei laboratori aziendali.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.
Resumo:
L'elaborato illustra una possibile soluzione al problema della correzione del movimento respiratorio in dati ecografici di perfusione epatica per la valutazione della pressione portale. La tecnica proposta si basa sul segnale monogenico e sull’informazione di fase dell’immagine. Inizialmente sono stati presentati gli strumenti atti alla valutazione della vascolaritá epatica, con una particolare focalizzazione sulle tecniche non invasive per diagnosticare l’ipertensione portale. Tra di esse l’ecografia con mezzo di contrasto si impone come uno dei metodi più efficaci e soprattutto meno invasivi. In seguito è stato presentato un recente studio secondo cui, tramite l’elaborazione delle curve di enhancement ottenute dalla sequenza ecografica, è possibile stimare dei parametri correlati al valore di pressione portale. Tuttavia, durante l’esecuzione dell’esame ecografico, i movimenti respiratori del paziente non sempre consentono una corretta valutazione di tali parametri. In questa tesi è stata indagata la possibilità di compensare questi artefatti mediante l'applicazione di una metodo di tracking basato sul vincolo di conservazione della fase dell'immagine. Il metodo è stato testato qualitativamente su sequenze di immagini ecografiche acquisite all’ospedale di Barcellona e all’ospedale Sant’Orsola di Bologna, con risultati promettenti.
Resumo:
Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.
Resumo:
Studio, analisi ed implementazione di algoritmi esistenti per la correzione di distorsioni in immagini, con introduzione delle semplificazioni necessarie per la sua realizzazione in dispositivi embedded. Introduzione di nuovi metodi di semplificazione. Calibrazione di una telecamera o un sistema di telecamere stereo con lenti wide angle o fisheye tramite opencv.
Resumo:
Il presente elaborato è stato finalizzato allo sviluppo di un processo di digestione anaerobica della frazione organica dei rifiuti solidi urbani (FORSU oppure, in lingua inglese OFMSW, Organic Fraction of Municipal Solid Waste) provenienti da raccolta indifferenziata e conseguente produzione di biogas da impiegarsi per il recupero energetico. Questo lavoro rientra nell’ambito di un progetto, cofinanziato dalla Regione Emilia Romagna attraverso il Programma Regionale per la Ricerca Industriale, l’Innovazione e il Trasferimento Tecnologico (PRRIITT), sviluppato dal Dipartimento di Chimica Applicata e Scienza dei Materiali (DICASM) dell’Università di Bologna in collaborazione con la Facoltà di Ingegneria dell’Università di Ferrara e con la società Recupera s.r.l. che applicherà il processo nell’impianto pilota realizzato presso il proprio sito di biostabilizzazione e compostaggio ad Ostellato (FE). L’obiettivo è stato la verifica della possibilità di impiegare la frazione organica dei rifiuti indifferenziati per la produzione di biogas, e in particolare di metano, attraverso un processo di digestione anaerobica previo trattamento chimico oppure in codigestione con altri substrati organici facilmente fermentabili. E’ stata inoltre studiata la possibilità di impiego di reattori con biomassa adesa per migliorare la produzione specifica di metano e diminuire la lag phase. Dalla sperimentazione si può concludere che è possibile giungere allo sviluppo di metano dalla purea codigerendola assieme a refluo zootecnico. Per ottenere però produzioni significative la quantità di solidi volatili apportati dal rifiuto non deve superare il 50% dei solidi volatili complessivi. Viceversa, l’addizione di solfuri alla sola purea si è dimostrata ininfluente nel tentativo di sottrarre gli agenti inibitori della metanogenesi. Inoltre, l’impiego di supporti di riempimento lavorando attraverso processi batch sequenziali permette di eliminare, nei cicli successivi al primo, la lag phase dei batteri metanogeni ed incrementare la produzione specifica di metano.
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.
Resumo:
Studio del terremoto dell'area Hector Mine (California del Sud, 1999) e del terremoto di Haiti (12 Gennaio 2010) mediante l'analisi di coppia di immagini satellitari a medio/alta risoluzione.
Resumo:
Questo lavoro di tesi si propone di verificare la validità della nuova specifica tecnica UNI/TS 11300-Parte 3, riguardante i consumi energetici degli edifici nella stagione estiva. Pertanto tale specifica tecnica, ancora in fase d’inchiesta pubblica, è stata applicata ad un caso reale, quale un complesso di edifici ad uso terziario, con il duplice obiettivo di analizzarne lo specifico metodo di calcolo e di comprovarne l’efficacia. Nel corso dello studio, prendendo in esame nella parte introduttiva argomenti quali i consumi in edilizia, gli aspetti normativi e le modalità di produzione del freddo, si è giunti infine a calcolare il fabbisogno di energia primaria per il raffrescamento del complesso di riferimento, e nella parte conclusiva sono state fornite indicazioni su eventuali modifiche da apportare alla normativa per ridurre i consumi.
Resumo:
Due nuove mode che si stanno propagando sempre più tra gli innumerevoli tentativi di realizzare nuovi formati di pubblicità on-line sono la pubblicità che diventa videogame gratuito, giocabile on-line o scaricabile, chiamata advergame, e la collocazione di pubblicità, oramai nella stragrande maggioranza dinamiche, nei videogames sopratutto di grandi software house, chiamata in-game advertising. Infatti nella società odierna i pubblicitari devono camuffare i consigli per gli acquisti per fare in modo che non vengano rifiutati. L'advergame in passato è stato lodato per il suo metodo innovativo di fare pubblicità. La sua caratteristica è la capacità di divertire e intrattenere l'utente ottenendo una connotazione non intrusiva e un effetto fidelizzante, peculiarità che fa di questo mezzo uno strumento potenzialmente molto valido. Si tratta, in parole povere, di videogames spesso multiplayer, nei quali gli scenari, gli oggetti e i personaggi evocano determinati brand o prodotti. Per quello che invece riguarda l'in-game advertising, si tratta di una forma particolarmente efficace di pubblicità che permette di ottenere dei tassi di ricordo rilevanti e che consente un elevato coinvolgimento emotivo. E' a livello della creazione degli spazi pubblicitari che si scatena la fantasia degli sviluppatori: se nei giochi sportivi basta trasporre in 3D gli spazi pubblicitari presenti solitamente nella realtà, in altre tipologie di gioco è necessario sfruttare parti dell'ambientazione o creare degli intermezzi atti allo scopo. Esempio tipico è quello di manifesti pubblicitari inseriti in spazi di gioco come le locande, soprattutto nei giochi di ruolo e nelle avventure grafiche. Gli investimenti in queste particolari forme di comunicazione, crescono a tassi elevatissimi e il business è molto allettante, non a caso le principali agenzie specializzate in materia sono state acquisite da grandi colossi: AdScape Media da Google e Massive Inc. da Microsoft. L'advergame e l'in-game advertising possono essere usati per lanciare un nuovo prodotto sul mercato, per rafforzare l'immagine del brand e per ottenere un database di utenti disposti ad essere sollecitati per ottenere in modo facile e non dispendioso riscontri su future attività di marketing. Perciò mi sono proposto di analizzare la situazione odierna del marketing, in particolare la parte che riguarda la pubblicità, i vantaggi ottenuti da questa scienza dallo sviluppo tecnologico, fattore che ha determinato la nascita dei due formati pubblicitari in esame e analizzati in seguito. Inoltre effettuerò l'analisi del fenomeno che vede i grandi colossi dell'IT tentare l'inserimento come agenzie intermediarie fra le software house da una parte e le grandi multinazionali dall'altra, queste ultime alla ricerca di nuovi canali più profittevoli dove sponsorizzare le proprie attività. Cercherò infine di capire le scelte di tutti gli attori che girano attorno a questi formati pubblicitari e i benefici che ne traggono per ipotizzare quale sarà il contesto che si andrà a delineare.
Resumo:
La tesi affronta il problema finanziario della valutazione dei derivati, illustrando un metodo di prezzaggio basato su un particolare sviluppo in serie di Fourier, la serie coseno (Fourier-cosine expansion).