754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
Le funzioni generalizzate sono uno strumento matematico che trova la sua applicazione fisica quando si trattano problemi con discontinuità o singolarità. Risulta perciò necessario formulare una teoria in grado di descrivere completamente questi oggetti e le loro proprietà. Nella teoria delle funzioni generalizzate il problema del loro prodotto è tuttora aperto poiché non esiste un metodo univoco per dare la definizione tra questi oggetti. Lo scopo di questo elaborato è di presentare la teoria delle funzioni generalizzate e i problemi legati al loro prodotto per poi presentare due metodi per affrontarlo, con esempi e risultati di particolare interesse. Vengono mostrati infine alcuni esempi fisici dove la soluzione richiede l'utilizzo di questo apparato matematico vertendo soprattutto sullo stretto legame tra il prodotto di funzioni generalizzate e la procedura della rinormalizzazione nella teoria dei campi quantistici.
Resumo:
Nella tesi si intende ricolorare alcune porzioni di un'immagine delle quali è nota soltanto la scala dei grigi. Il colore viene considerato nello spazio RGB e decomposto in cromaticità e luminosità. Il problema viene espresso come problema di minimo di un funzionale detto di ``Total Variation'', definito sulle funzioni a variazione limitata BV. Si introduce la nozione di funzione BV di R^n, le principali proprietà di queste funzioni e in particolare si enuncia un teorema di compattezza. Si utilizzano infine tali risultati per ottenere l'esistenza di un punto di minimo per il funzionale che risolve il problema della ricolorazione.
Resumo:
Nel presente lavoro viene descritto come è stata ottimizzata, a livello software e hardware, la procedura di controllo della pressione in uno strumento manometrico utilizzato per la misura della quantità di idrogeno assorbita e desorbita da parte di metalli. Dopo una breve introduzione sulle caratteristiche dell'idrogeno che lo rendono così appetibile dal punto di vista energetico, viene esposta la teoria alla base del processo di formazione di idruri metallici. Vengono dunque descritte le due principali tecniche di caratterizzazione di questi sistemi, ovvero le cinetiche e le isoterme pressione-composizione (PCI), e il metodo di misura adottato, ovvero quello volumetrico. Successivamente si passa alla descrizione delle componenti hardware del sistema, per poi soffermarsi sull'analisi dettagliata dell'algoritmo del software implementato, spiegando i problemi affrontati e le soluzioni adottate, riportando anche alcune formule utili ricorrenti. Infine, vengono esposti i risultati ottenuti da misure di cinetiche e PCI per il sistema MgH2 (idruro di magnesio).
Resumo:
In questa tesi viene affrontato lo studio degli integrali funzionali nella meccanica quantistica, sia come rielaborazione dell'operatore di evoluzione temporale che costruendo direttamente una somma sui cammini. Vengono inoltre messe in luce ambiguit\`a dovute alla discretizzazione dell'azione corrispondenti ai problemi di ordinamento operatoriale della formulazione canonica. Si descrive inoltre come una possibile scelta della discretizzazione dell'integrale funzionale pu\`o essere ottenuta utilizzando l'ordinamento di Weyl dell'opertore Hamiltoniano, sfruttando la relazione tra Hamiltoniana Weyl ordinata e la prescrizione del punto di mezzo da usare nella discretizzazione dell'azione classica. Studieremo in particolare il caso di una particella non relativistica interagente con un potenziale scalare, un potenziale vettore (campo magnetico) ed un potenziale tensore (metrica).
Resumo:
In questa tesi studiamo le proprietà fondamentali delle funzioni armoniche. Ricaviamo le formule di media mostrando alcune proprietà importanti, quali la disuguaglianza di Harnack, il teorema di Liouville, il principio del massimo debole e forte. Infine, illustriamo un criterio di risolubilità per il problema di Dirichlet per il Laplaciano in un arbitrario dominio limitato di R^n tramite un metodo noto come metodo di Perron per le funzioni subarmoniche.
Resumo:
Questa tesi descrive alcune proprietà delle algebre monounarie finite e si propone di trovare un metodo per classificarle. Poiché infatti il numero di algebre di ordine n aumenta notevolmente con la crescita di quest’ultimo, si cerca un modo per suddividerle in classi d’isomorfismo. In particolare, dal momento che anche il numero di queste classi cresce esponenzialmente all’aumentare di n, utilizziamo una classificazione meno fine dell’isomorfismo basata sul polinomio strutturale. Grazie a questo strumento infatti è possibile risalire a famiglie di grafi orientati associati ad algebre monounarie, a due a due non isomorfi, ricavando perciò alcune specifiche caratteristiche di quest’ultime. Infine, calcolando l’ordine di gruppi particolari, detti automorfi, si può ottenere l’effettivo numero di algebre aventi un dato polinomio strutturale.
Resumo:
Lo spazio duale V* di un K-spazio vettoriale V, con K = R, o C, è definito come l'insieme dei funzionali lineari e continui da V in K. Definendo su di esso le operazioni di somma tra funzionali lineari e di prodotto per scalare, V* acquisisce una struttura di K-spazio vettoriale che risulta molto utile. Infatti il suo studio permette di comprendere meglio le caratteristiche dello spazio V. A tal proposito interviene l'argomento che è oggetto dell'elaborato: il Teorema di Rappresentazione di Riesz. Diversi risultati sono raggruppati sotto questo nome, che deriva dal matematico ungherese Frigyes Riesz, e tutti permettono di caratterizzare chiaramente gli elementi del duale dello spazio a cui si riferiscono. Scopo della tesi è quello di presentare il teorema nelle sue varie forme a partire da una delle più elementari: quella relativa a spazi vettoriali finiti. Ripercorrendo via via le sue generalizzazioni si arriverà all'enunciato inerente allo spazio delle funzioni continue f da X in C che si annullano all'infinito, dove X è uno spazio di Hausdorff localmente compatto. Si vedrà inoltre un esempio di applicazione del teorema.
Resumo:
La ricerca condotta per questa tesi è incentrata sulla cosmesi naturale e rappresenta il risultato di un tirocinio avanzato svolto in collaborazione con l'azienda Remedia di Quarto di Sarsina (FC), i cui settori principali sono l'erboristeria e la cosmesi naturale. Lo scopo del progetto consiste nella preparazione di un interprete ad una conferenza sul tema della cosmesi naturale per le lingue italiano e tedesco. L'enfasi viene posta sul metodo da adottare per acquisire sia la terminologia sia le nozioni basilari del dominio in un arco di tempo limitato. Si tratta quindi di una ricerca linguistica incentrata sui termini e sulla fraseologia che ricorrono con maggiore frequenza nel corpus in italiano sul tema trattato. La tesi è suddivisa in quattro capitoli. Il primo capitolo tratta la pelle, la cosmesi tradizionale, gli ingredienti più controversi, i principali marchi di certificazione biologica per la cosmesi, infine descrive l'azienda e i metodi utilizzati per la trasformazione delle piante officinali. Il secondo capitolo introduce la metodologia adottata e i problemi riscontrati nel corso del progetto. Tratta inoltre la linguistica dei corpora connessa agli studi di terminologia, il ruolo svolto dall'esperto, la creazione di corpora specialistici e paragonabili nelle lingue di lavoro, nonchè l'analisi dei termini più ricorrenti e dei loro equivalenti interlinguistici nel loro contesto naturale. Infine introduco il prototipo di tesauro utilizzato per registrare 300 dei termini che ricorrono più frequentemente nel corpus in italiano. Il terzo capitolo presenta una disamina degli aspetti generali della terminologia, delle sue origini e delle principali scuole, in particolare la scuola di Vienna e il contributo di Eugen Wüster. Affronta inoltre le caratteristiche della comunicazione specialistica, ponendo l'accento su tecnicismi collaterali, equivalenza e variazione. Il quarto capitolo tratta nel dettaglio i risultati del progetto corredati da alcune osservazioni a livello cognitivo e terminologico.
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
Tra tutte le tecniche sviluppate per il recupero di segnali, i metodi basati sul principio di rilevazione sincrona, utilizzati dagli amplificatori lock-in, sono largamente i più usati in tutti i campi della ricerca scientifica. Gli amplificatori lock-in sono strumenti utilizzati per rilevare e misurare segnali in ambienti in cui il rumore di fondo può essere di diversi ordini di grandezza più grande del segnale che si intende misurare. In questo lavoro viene presentato un metodo per realizzare un amplificatore lock-in digitale su scheda hardware NI ELVIS II+ e software LabVIEW. In seguito viene descritto come, attraverso test opportuni, sono state analizzate le performance del sistema realizzato e sono state confrontate con i sistemi disponibili commercialmente. Infine, l’amplificatore lock-in realizzato è stato poi utilizzato in un esperimento di misura spettroscopica dell’energia di gap di un campione di Germanio per mezzo dell’effetto fotoelettrico interno.
Resumo:
L'elaborato tratta le transizioni di fase nel modello di Ising, usato per descrivere i sistemi magnetici. Tramite l'argomento di Landau viene introdotto il problema della dimensionalità per l'esistenza di una fase ferromagnetica. Con il sistema di un gas forzato su reticolo viene presentato il carattere universale dei fenomeni critici per mezzo degli esponenti critici. Viene poi risolto in modo esatto il modello unidimensionale, che non prevede una fase ferromagnetica. Per sistemi a dimensionali maggiore viene introdotto il metodo dell'approssimazione di campo medio. Viene infine determinato il valore della temperatura critica per reticoli planari quadrati e di questi viene mostrata la soluzione esatta di Lars Onsager.
Resumo:
L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.
Resumo:
Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.