356 resultados para Approssimazione, interpolazione, polinomi,funzioni,regolarizzazione


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I dati derivanti da spettroscopia NMR sono l'effetto di fenomeni descritti attraverso la trasformata di Laplace della sorgente che li ha prodotti. Ci si riferisce a un problema inverso con dati discreti ed in relazione ad essi nasce l'esigenza di realizzare metodi numerici per l'inversione della trasformata di Laplace con dati discreti che è notoriamente un problema mal posto e pertanto occorre ricorrere a metodi di regolarizzazione. In questo contesto si propone una variante ai modelli presenti il letteratura che fanno utilizzo della norma L2, introducendo la norma L1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi viene trattata la trasformata di Fourier per funzioni sommabili, con particolare riguardo per il cosiddetto teorema di inversione, che permette il calcolo di sofisticati integrali reali. Viene inoltre fornito un capitolo di premesse di analisi complessa, utili al calcolo esplicito di trasformate di Fourier.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Scopo della tesi è la descrizione di un metodo per il calcolo di minimi di funzionali, basato sulla steepest descent. L'idea principale è quella di considerare un flusso nella direzione opposta al gradiente come soluzione di un problema di Cauchy in spazi di Banach, che sotto l'ipotesi di Palais-Smale permette di determinare minimi. Il metodo viene applicato al problema di denoising e segmentazione in elaborazione di immagini: vengono presentati metodi classici basati sull'equazione del calore, il total variation ed il Perona Malik. Nell'ultimo capitolo il grafico di un'immagine viene considerato come varietà, che induce una metrica sul suo dominio, e viene nuovamente utilizzato il metodo di steepest descent per costruire algoritmi che tengano conto delle caratteristiche geometriche dell'immagine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella tesi viene studiata tramite un certo numero di esempi la corrispondenza di Galois per polinomi di terzo e quarto grado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa trattazione ci proponiamo di analizzare e approfondire alcune delle definizioni fondamentali di funzione convessa; l’ambiente nel quale lavoreremo non si limiterà a quello euclideo, ma spazierà anche tra gruppo di Heisenberg e gruppo di Carnot. In questo lavoro dimostriamo una nuova caratterizzazione delle funzioni convesse in termini delle proprietà di sottomedia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro studiamo le funzioni armoniche e le loro proprietà: le formule di media, il principio del massimo e del minimo (forte e debole), la disuguaglianza di Harnack e il teorema di Louiville. Successivamente scriviamo la prima e la seconda identità di Green, che permettono di ottenere esplicitamente la soluzione fondamentale dell’equazione di Laplace, tramite il calcolo delle soluzioni radiali del Laplaciano. Introduciamo poi la funzione di Green, da cui si ottiene una formula di rappresentazione per le funzioni armoniche. Se il dominio di riferimento è una palla, la funzione di Green può essere determinata esplicitamente, e ciò conduce alla rappresentazione integrale di Poisson per le funzioni armoniche in una palla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Si studiano le funzioni assolutamente continue (proprietà, caratterizzazioni ed esempi) e le funzioni a variazione limitata (prima di queste, qualche breve richiamo sulle funzioni monotone e sulla funzione di Vitali).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il punto centrale della tesi è stato dimostrare il Teorema di Koebe per le funzioni armoniche. È stato necessario partire da alcuni risultati di integrazione in Rn per ricavare identità e formule di rappresentazione per funzioni di classe C2, introdurre le funzioni armoniche e farne quindi una analisi accurata. Tali funzioni sono state caratterizzate tramite le formule di media e messe in relazione con le funzioni olomorfe, per le quali vale una formula simile di rappresentazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro si affronta l'argomento dei fermioni di Dirac nel grafene, si procederà compiendo nel primo capitolo un'analisi alla struttura reticolare del materiale per poi ricostruirne, sfruttando l'approssimazione di tigth-binding, le funzioni d'onda delle particelle che vivono negli orbitali del carbonio sistemate nella struttura reticolare e ricavarne grazie al passaggio in seconda quantizzazione l'Hamiltoniana. Nel secondo capitolo si ricavano brevemente le equazioni di Dirac e dopo una piccola nota storica si discutono le equazioni di Weyl arrivando all'Hamiltoniana dei fermioni a massa nulla mostrando la palese uguaglianza alla relazione di dispersione delle particelle del grafene. Nel terzo capitolo si commentano le evidenze sperimentali ottenute dalla ASPEC in cui si manifesta per le basse energie uno spettro lineare, dando così conferma alla teoria esposta nei capitoli precedenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato si propone di analizzare il collegamento tra olomorfia e armonicità. La prima parte della tesi tratta le funzioni olomorfe, mentre la seconda parte tratta le funzioni armoniche. Per quanto riguarda la seconda parte, inizialmente ci limiteremo a studiare le funzioni armoniche in R^2, sottolineando il legame tra queste e le funzioni olomorfe. Considereremo poi il caso generale, ovvero estenderemo la nozione di funzione armonica ad R^N e osserveremo che molte delle proprietà viste per le funzioni olomorfe valgono anche per le funzioni armoniche. In particolare, vedremo che le formule di media per le funzioni armoniche svolgono un ruolo analogo alla formula integrale di Cauchy per le funzioni olomorfe. Vedremo anche che il Teorema di Liouville per le funzioni armoniche è l’analogo del Teorema di Liouville per le funzioni intere (funzioni olomorfe su tutto C) e, infine, osserveremo che il Principio del massimo forte non è altro che il trasferimento alle funzioni armoniche del Principio del massimo modulo visto nella teoria delle funzioni olomorfe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella tesi ho trattato l'effetto Gibbs,ovvero la presenza di forti oscillazioni nei polinomi di Fourier di funzioni con discontinuità di prima specie. Infine ho introdotto le somme di Fejér osservando come con questi polinomi trigonometrici si possa eliminare l'effetto Gibbs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.