988 resultados para distribuzioni temperate, trasformata di Fourier
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di analizzare i campioni di otoliti delle due specie del genere Mullus (Mullus barbatus e Mullus surmuletus) per mezzo dell’Analisi Ellittica di Fourier (EFA) e l’analisi di morfometria classica con gli indici di forma, al fine di verificare la simmetria tra l’otolite destro e sinistro in ognuna delle singole specie di Mullus e se varia la forma in base alla taglia dell’individuo. Con l’EFA è stato possibile mettere a confronto le forme degli otoliti facendo i confronti multipli in base alla faccia, al sesso e alla classe di taglia. Inoltre è stato fatto un confronto tra le forme degli otoliti delle due specie. Dalle analisi EFA è stato possibile anche valutare se gli esemplari raccolti appartenessero tutti al medesimo stock o a stock differenti. Gli otoliti appartengono agli esemplari di triglia catturati durante la campagna sperimentale MEDITS 2012. Per i campioni di Mullus surmuletus, data la modesta quantità, sono stati analizzati anche gli otoliti provenienti dalla campagna MEDITS 2014 e GRUND 2002. I campioni sono stati puliti e analizzati allo stereomicroscopio con telecamera e collegato ad un PC fornito di programma di analisi di immagine. Dalle analisi di morfometria classica sugli otoliti delle due specie si può sostenere che in generale vi sia una simmetria tra l’otolite destro e sinistro. Dalle analisi EFA sono state riscontrate differenze significative in tutti i confronti, anche nel confronto tra le due specie. I campioni sembrano però appartenere al medesimo stock. In conclusione si può dire che l’analisi di morfometria classica ha dato dei risultati congrui con quello che ci si aspettava. I risultati dell’analisi EFA invece hanno evidenziato delle differenze significative che dimostrano una superiore potenza discriminante. La particolare sensibilità dell’analisi dei contorni impone un controllo di qualità rigoroso durante l’acquisizione delle forme.
Resumo:
Il tema centrale di questa tesi è lo studio del problema di Dirichlet per il Laplaciano in R^2 usando le serie di Fourier. Il problema di Dirichlet per il Laplaciano consiste nel determinare una funzione f armonica e regolare in un dominio limitato D quando sono noti i valori che f assume sul suo bordo. Ammette una sola soluzione, ma non esistono criteri generali per ricavarla. In questa tesi si mostra come la formula integrale di Poisson, sotto determinate condizioni, risolva il problema di Dirichlet in R^2 e in R^n.
Resumo:
I materiali compositi, grazie alla combinazione delle proprietà dei singoli componenti di cui sono costituiti, in particolare la coesistenza di elevate caratteristiche meccaniche e pesi ridotti, rivestono da tempo un ruolo fondamentale nell’industria aeronautica e nel settore delle competizioni automobilistiche e motociclistiche. La possibilità di progettare i materiali in funzione della loro applicazione, unita alla riduzione dei costi di produzione, permette una crescente diffusione del loro utilizzo e l’ampliamento delle applicazioni a moltissimi altri settori, sia per componenti di tipo strutturale, sia di tipo estetico. L’obiettivo della presente tesi è analizzare, attraverso una campagna sperimentale, il comportamento di diversi materiali realizzati con la tecnica di produzione HP-RTM, tramite prove di taglio interlaminare e flessione, al fine di verificare l’applicabilità di tale processo a prodotti strutturali, in modo da velocizzare i tempi di produzione e quindi di abbassare i costi, mantenendo al tempo stesso elevate proprietà meccaniche. Lo scopo di questa campagna quindi è fornire, attraverso lo studio di 30 serie di provini, il materiale migliore in termini di resistenza a flessione e taglio interlaminare; inoltre per ogni tipologia di materiale vengono descritte le diverse distribuzioni dei valori di rottura riscontrati, in modo da lasciare al progettista più libertà possibile nella scelta del materiale in base alle specifiche richieste per una determinata applicazione. Questo studio permette di analizzare l’influenza di ogni singolo componente (tipo di fibra, tipo di binder, presenza o assenza di IMR), all’interno della stessa resina.
Resumo:
In quest'elaborato si risolve il problema di Cauchy-Dirichlet per l'equazione del calore, prendendo come oggetto d'esame una sbarra omogenea. Nel primo capitolo si studiano le serie di Fourier reali a partire dalle serie trigonometriche; vengono dati, poi, i principali risultati di convergenza puntuale, uniforme ed in L^2 e si discute l'integrabilità termine a termine di una serie di Fourier. Il secondo capitolo tratta la convergenza secondo Cesàro, le serie di Fejèr ed i principali risultati di convergenza di queste ultime. Nel terzo, ed ultimo, capitolo si risolve il Problema di Cauchy-Dirichlet, distinguendo i casi in cui il dato iniziale sia di classe C^1 o solo continuo; nel secondo caso si propone una risoluzione basata sulle serie di Fejér e sul concetto di barriera ed una utilizzando il nucleo di Green per l'equazione del calore.
Resumo:
Le wavelet sono una nuova famiglia di funzioni matematiche che permettono di decomporre una data funzione nelle sue diverse componenti in frequenza. Esse combinano le proprietà dell’ortogonalità, il supporto compatto, la localizzazione in tempo e frequenza e algoritmi veloci. Sono considerate, perciò, uno strumento versatile sia per il contenuto matematico, sia per le applicazioni. Nell’ultimo decennio si sono diffuse e imposte come uno degli strumenti migliori nell’analisi dei segnali, a fianco, o addirittura come sostitute, dei metodi di Fourier. Si parte dalla nascita di esse (1807) attribuita a J. Fourier, si considera la wavelet di A. Haar (1909) per poi incentrare l’attenzione sugli anni ’80, in cui J. Morlet e A. Grossmann definiscono compiutamente le wavelet nel campo della fisica quantistica. Altri matematici e scienziati, nel corso del Novecento, danno il loro contributo a questo tipo di funzioni matematiche. Tra tutti emerge il lavoro (1987) della matematica e fisica belga, I. Daubechies, che propone le wavelet a supporto compatto, considerate la pietra miliare delle applicazioni wavelet moderne. Dopo una trattazione matematica delle wavalet, dei relativi algoritmi e del confronto con il metodo di Fourier, si passano in rassegna le principali applicazioni di esse nei vari campi: compressione delle impronte digitali, compressione delle immagini, medicina, finanza, astonomia, ecc. . . . Si riserva maggiore attenzione ed approfondimento alle applicazioni delle wavelet in campo sonoro, relativamente alla compressione audio, alla rimozione del rumore e alle tecniche di rappresentazione del segnale. In conclusione si accenna ai possibili sviluppi e impieghi delle wavelet nel futuro.
Resumo:
This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.
Resumo:
La presente ricerca affronta lo studio della formazione delle realtà urbane nell'area dell'antico Ager Gallicus, grossomodo corrispondente all'attuale territorio delle Marche settentrionali. Nel quadro della colonizzazione romana il fenomeno urbano rappresenta, infatti, l'elemento cardine nell'organizzazione di un territorio. Per tale ragione, si è scelto di condurre un lavoro finalizzato alla comprensione dei tempi e dei modi che portarono alla formazione dei municipi e delle colonie nella strutturazione romana del territorio, cercando anche di comprendere le scelte insediative alla base delle singole forme strutturali. L'analisi della genesi e dello sviluppo del fenomeno urbano nell'ager Gallicus ha come obiettivo ultimo l'approfondimento della conoscenza sulla colonizzazione e romanizzazione in area medio adriatica. La ricerca si articola in: uno stato dell'arte delle più recenti interpretazioni storiografiche; una sintesi sulle cosiddette “forme della conquista” (frequentazioni “precoloniali”, realtà santuariali, fondazioni coloniarie, realtà proto-urbane legate all'agro); una dettagliata e aggiornata schedatura storico-archeologica e urbanistico-topografica delle singole realtà urbane dell'ager Gallicus (le colonie di Sena Gallica, Pisaurum, Fanum Fortunae e Aesis, e i municipi di Forum Sempronii, Suasa e Ostra, e Sentinum); una parte conclusiva dove, mettendo a confronto gli elementi alla base della definizione urbana delle realtà esaminate, vengono delineati e sintetizzati i principali modelli di formazione delle città nell'ager Gallicus così individuati (fondazione coloniaria; fondazione coloniaria preceduta da una fase precoloniale nella forma di conciliabulum; nucleo di aggregazione precedente (conciliabulum) scelto quale polo di riferimento del popolamento sparso nel territorio al momento delle distribuzioni viritane; centro di servizio creato in funzione di assegnazioni di terre ai coloni). Infine, viene tracciato un quadro complessivo della romanizzazione dell'ager Gallicus, che, in estrema sintesi, si configura come un processo progressivo di occupazione del territorio rispecchiato dallo sviluppo stesso del fenomeno urbano, ma che si differenzia dalle aree limitrofe o dall'area cisalpina per alcune importanti dinamiche etnico-demografiche.
Resumo:
Nella tesi ho trattato l'effetto Gibbs,ovvero la presenza di forti oscillazioni nei polinomi di Fourier di funzioni con discontinuità di prima specie. Infine ho introdotto le somme di Fejér osservando come con questi polinomi trigonometrici si possa eliminare l'effetto Gibbs.
Resumo:
In questa tesi studiamo l'effetto Gibbs. Tale fenomeno si manifesta tramite la presenza di sovra-oscillazioni nei polinomi di Fourier di funzioni che presentano discontinuità di prima specie. La differenza tra il massimo ed il minimo del polinomio di Fourier di tali funzioni, in prossimità di un punto di discontinuità della funzione, è strettamente maggiore del salto della funzione in quel punto, anche per n che tende all'infinito. Per attenuare le sovra-oscillazioni delle somme parziali di Fourier si utilizzano le serie di Fejer e si vede come effettivamente il fenomeno di Gibbs scompaia.
Resumo:
Negli ultimi decenni molti autori hanno affrontato varie sfide per quanto riguarda la navigazione autonoma di robot e sono state proposte diverse soluzioni per superare le difficoltà di piattaforme di navigazioni intelligenti. Con questo elaborato vogliamo ricercare gli obiettivi principali della navigazione di robot e tra questi andiamo ad approfondire la stima della posa di un robot o di un veicolo autonomo. La maggior parte dei metodi proposti si basa sul rilevamento del punto di fuga che ricopre un ruolo importante in questo campo. Abbiamo analizzato alcune tecniche che stimassero la posizione del robot in primo luogo nell’ambiente interno e presentiamo in particolare un metodo che risale al punto di fuga basato sulla trasformata di Hough e sul raggruppamento K-means. In secondo luogo presentiamo una descrizione generale di alcuni aspetti della navigazione su strade e su ambienti pedonali.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
In questa tesi si presenta il concetto di politopo convesso e se ne forniscono alcuni esempi, poi si introducono alcuni metodi di base e risultati significativi della teoria dei politopi. In particolare si dimostra l'equivalenza tra le due definizioni di H-politopo e di V-politopo, sfruttando il metodo di eliminazione di Fourier-Motzkin per coni. Tutto ciò ha permesso di descrivere, grazie al lemma di Farkas, alcune importanti costruzioni come il cono di recessione e l'omogeneizzazione di un insieme convesso.
Resumo:
Nella tesi viene presentata la definizione assiomatica del moto browniano, che ha le sue basi nella teoria della probabilità, come risulta naturale, essendo il moto browniano l'immagine macroscopica che emerge dallo spostamento casuale di una particella che si muove in uno spazio d-dimensionale senza compiere salti eccessivamente grandi. Perciò preliminarmente si propone la descrizione dello spazio di probabilità in cui si lavora, in particolare si costruisce una misura di probabilità, detta misura di Wiener. Quindi si dà prova dell'effettiva esistenza del moto browniano attraverso due diverse argomentazioni, che fanno riferimento l’una a Paley e Wiener, l'altra a Lévy. Nel primo caso la costruzione del moto browniano è basata sull'utilizzo di variabili aleatorie complesse con distribuzione gaussiana e di serie convergenti in L^2 e adopera risultati della teoria delle serie di Fourier; nel secondo caso il moto browniano è costruito come limite uniforme di funzioni continue. Infine si analizzano le principali caratteristiche matematiche del moto browniano, in particolare le proprietà di continuità Holder, di non monotonia e di non differenziabilità.
Resumo:
Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.