369 resultados para spettro risolvente teorema di persson spettro essenziale oscillatori non commutativi
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Progettare e realizzare un sistema di catalogazione delle varie tipologie di eterogeneità tissutale di lesioni neoplastiche polmonari, a partire dall’analisi di immagini TCp, in quanto non risulta presente in letteratura una classificazione dell’eterogeneità basata sull’analisi visuale del radiologo.
Resumo:
Una teoria degli insiemi alternativa alla più nota e diffusa teoria di Zermelo-Fraenkel con l'Assioma di Scelta, ZFC, è quella proposta da W. V. O. Quine nel 1937, poi riveduta e corretta da R. Jensen nel 1969 e rinominata NFU (New foundations with Urelementen). Anche questa teoria è basata sui concetti primitivi di insieme e appartenenza, tuttavia differisce notevolmente da quella usuale perché si ammettono solo formule stratificate, cioè formule in cui è rispettata una gerarchizzazione elemento-insieme che considera priva di significato certe scritture. L'unico inconveniente di NFU è dovuto alle conseguenze della stratificazione. I pregi invece sono notevoli: ad esempio un uso molto naturale delle relazioni come l'inclusione, o la possibilità di considerare insiemi anche collezioni di oggetti troppo "numerose" (come l'insieme universale) senza il rischio di cadere in contraddizione. NFU inoltre risulta essere più potente di ZFC, in quanto, grazie al Teorema di Solovay, è possibile ritrovare in essa un modello con cardinali inaccessibili di ZFC ed è ammessa la costruzione di altri modelli con cardinali inaccessibili della teoria classica.
Resumo:
Lo scopo del presente lavoro è di illustrare alcuni temi di geometria simplettica, i cui risultati possono essere applicati con successo al problema dell’integrazione dei sistemi dinamici. Nella prima parte si formalizza il teorema di Noether generalizzato, introducendo il concetto dell’applicazione momento, e si dà una descrizione dettagliata del processo di riduzione simplettica, che consiste nello sfruttare le simmetrie di un sistema fisico, ovvero l’invarianza sotto l’azione di un gruppo dato, al fine di eliminarne i gradi di libertà ridondanti. Nella seconda parte, in quanto risultato notevole reso possibile dalla teoria suesposta, si fornisce una panoramica dei sistemi di tipo Calogero-Moser: sistemi totalmente integrabili che possono essere introdotti e risolti usando la tecnica della riduzione simplettica.
Resumo:
La classificazione delle algebre di Lie semplici di dimensione finita su un campo algebricamente chiuso si divide in due parti: le algebre di Lie classiche e quelle eccezionali. La differenza principale è che le algebre di Lie classiche vengono introdotte come algebre di matrici, quelle eccezionali invece non si presentano come algebre di matrici ma un modo di introdurle è attraverso il loro diagramma di Dynkin. Lo scopo della tesi è di realizzare l' algebra di Lie eccezionale di tipo G_2 come algebra di matrici. Per raggiungere tale scopo viene introdotta un' algebra di composizione: la cosiddetta algebra degli ottonioni. Quest'ultima viene costruita in due modi diversi: come spazio vettoriale sui reali con un prodotto bilineare e come insieme delle coppie ordinate di quaternioni. Il resto della tesi è dedicato all' algebra delle derivazioni degli ottonioni. Viene dimostrato che questa è un' algebra di Lie semisemplice di dimensione 14. Infine, considerando la complessificazione dell'algebra delle derivazioni degli ottonioni, viene dimostrato che quest'ultima è semplice e quindi isomorfa a G_2.
Resumo:
Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
In questa tesi si descrive il gruppo dei quaternioni come gruppo non abeliano avente tutti i sottogruppi normali. In particolare si dimostra il teorema di Dedekind che determina la struttura dei gruppi aventi tutti i sottogruppi normali. Si dà poi un polinomio a coefficienti razionali il cui gruppo di Galois coincide con il gruppo dei quaternioni.
Resumo:
L’uovo è considerato l’alimento più completo dal punto di vista nutrizionale e allo stesso tempo è altamente deperibile con perdita rapida delle caratteristiche qualitative. Esso infatti interagisce con l’atmosfera circostante determinando perdita di vapore d’acqua e CO2 dal guscio. La diffusione di CO2 comincia immediatamente dopo la deposizione con un conseguente rapido aumento di pH, soprattutto nell’albume che determina maggiori rischi di contaminazione microbica. La regolamentazione dell’Unione Europea non permette l’utilizzo di interventi stabilizzanti tradizionali (lavaggio o conservazione refrigerata) sulle uova fresche con guscio e l’uso del confezionamento in atmosfera protettiva (MAP) potrebbe risultare una valida alternativa per il mantenimento delle caratteristiche qualitative dell’uovo durante la conservazione. Studi precedenti dimostrano come l’utilizzo di MAP con elevati livelli di CO2 risulti benefico per mantenere delle caratteristiche complessive dell’uovo ma l’utilizzo di materiali di imballaggio ad alta barriera, necessari per mantenere una certa concentrazione di CO2, può provocare l’aumento dell’umidità nello spazio di testa, con conseguenti problematiche legate allo sviluppo microbico sul guscio del prodotto possibilmente risolvibile con l’uso di imballaggi attivi dotati di assorbitori di umidità. Un alternativa, può essere l’utilizzo congiunto di trattamenti di decontaminazione e di confezionamento in MAP. Premesso questo, l’obiettivo di questa ricerca è stato quello di valutare l’effetto congiunto del trattamento di decontaminazione con UV e di confezionamento in atmosfera modificata su alcune caratteristiche qualitative ed igienico sanitarie di uova fresche con guscio confezionate in MAP al 100% di CO2 e in aria durante 28 giorni di conservazione a 21°C. Nella seconda fase della sperimentazione sono stati valutati gli effetti delle differenti modalità di imballaggio su alcune caratteristiche qualitative di pasta all’uovo (tagliatelle). Sono stati realizzati campioni di pasta fresca (utilizzando le uova trattate) sui quali sono state valutate alcune caratteristiche qualitative prima e dopo cottura, confrontate con quelle di pasta ottenuta con uova non trattate.
Resumo:
I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.
Resumo:
Questo elaborato si propone di analizzare il collegamento tra olomorfia e armonicità. La prima parte della tesi tratta le funzioni olomorfe, mentre la seconda parte tratta le funzioni armoniche. Per quanto riguarda la seconda parte, inizialmente ci limiteremo a studiare le funzioni armoniche in R^2, sottolineando il legame tra queste e le funzioni olomorfe. Considereremo poi il caso generale, ovvero estenderemo la nozione di funzione armonica ad R^N e osserveremo che molte delle proprietà viste per le funzioni olomorfe valgono anche per le funzioni armoniche. In particolare, vedremo che le formule di media per le funzioni armoniche svolgono un ruolo analogo alla formula integrale di Cauchy per le funzioni olomorfe. Vedremo anche che il Teorema di Liouville per le funzioni armoniche è l’analogo del Teorema di Liouville per le funzioni intere (funzioni olomorfe su tutto C) e, infine, osserveremo che il Principio del massimo forte non è altro che il trasferimento alle funzioni armoniche del Principio del massimo modulo visto nella teoria delle funzioni olomorfe.
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
La diga di Ridracoli costituisce la principale riserva di acqua potabile di tutta la Romagna. E’ ubicata nell’alto Appennino romagnolo, nella vallata del fiume Bidente, dal quale riceve le acque sia direttamente sia indirettamente, per mezzo di una galleria di gronda. Lo studio si è concentrato sullo studio dei sedimenti, sia di diga sia dei bacini limitrofi, per effettuare una caratterizzazione geochimica dell’area e un confronto tra i terreni fluviali e di lago. I sedimenti rappresentano un fattore importante perché permettono di determinare le dinamiche che coinvolgono un corso d’acqua, la composizione e i possibili contaminanti presenti. Il lavoro svolto si divide in tre fasi: campionamento, analisi dei campioni e interpretazione dei risultati. Sono stati campionati punti in corrispondenza degli affluenti di diga, punti interni al lago e punti lungo il bacino del Bidente. Le analisi svolte consistono in analisi di spettrometria di fluorescenza a raggi X, analisi all’IPC-MS con pretrattamento in acqua regia, analisi elementari al CHN, analisi granulometriche con sedigrafo e determinazione della LOI. Attraverso analisi statistiche e di correlazione si è osservato il comportamento dei metalli nei confronti dei principali componenti dei sedimenti, della granulometria e del contenuto di materia organica. Sono stati calcolati valori di fondo per i metalli potenzialmente tossici attraverso differenti metodi e confrontati con alcune soglie normative valutando come non vi siano superamenti, a parte per Cr e Ni e Cd, imputabili però semplicemente a caratteristiche geologiche. Si sono costruite infine mappe di concentrazione per evidenziare la distribuzione dei singoli elementi. Si è osservato come i campioni di lago abbiano un andamento corrispondente ai campioni delle zone limitrofe senza presentare alcuna anomalia sia pere con concentrazioni localmente più elevate per la prevalenza di materiale fine. I dati non evidenziano particolari criticità.
Resumo:
Il presente lavoro di tesi ha avuto come obiettivo la valutazione della qualità dei suoli in oliveti siciliani in relazione a differenti metodi di gestione agronomica. In particolare, quello che si è inteso valutare sono stati gli effetti di sistemi di produzione agricola quali l’agricoltura convenzionale e l’agricoltura biologica sulle caratteristiche chimiche, fisiche e biologiche dei suoli. La qualità dei suoli è stata valutata integrando alle analisi chimico fisiche anche un metodo biologico basato sui microartropodi (QBS-ar). Il metodo è fondato sul concetto che maggiore è la qualità del suolo, maggiore è il numero di gruppi sistematici di microartropodi che presentano adattamenti alla vita ipogea. I nostri risultati evidenziano come l’agricoltura biologica possa diventare impattante tanto quanto l’agricoltura convenzionale, dal punto di vista della conservazione della fertilità dei suoli e della biodiversità, nel momento in cui viene a mancare una gestione che tenga conto delle caratteristiche intrinseche di un agroecosistema. Si è visto come un degrado della struttura fisica, che porti alla perdità di porosità, si possa ripercuotere negativamente sulla comunità dei microartropodi. Alcuni gruppi sistematici sembra possano essere più sensibili di altri a stress indotti dalla compattazione dei suoli, in particolare nel nostro studio questi gruppi sistematici risultano essere: Proturi, Ditteri (larve), Opilionidi, Diplopodi e Sinfili. Riguardo all’indicatore di qualità biologica del suolo QBS-ar, uno dei limiti che emerge nell’assegnazione della classe di qualità è rappresentato dal fatto che ogni valore dell’indice ottenuto non discrimina una classe in maniera univoca, ma i diversi Enti che utilizzano questo indicatore (ARPA, Università) hanno elaborato a livello interno i criteri per l’assegnazione della classe di qualità, rendendola un parametro non oggettivo per la valutazione della qualità dei suoli.