945 resultados para localizzazione audio array microfoni MATLAB simulazione digilent
Resumo:
La tesi di dottorato “Buoni cibi per buoni pensieri. Rituali di consumo alimentare tra flussi di globalizzazione e pratiche di localizzazione” verte attorno allo studio e all’approfondimento della sociologia dei consumi, con particolare riferimento alle relazioni che si possono instaurare tra i comportamenti alimentari collettivi a livello locale e il sistema globale. Il focus dell’analisi si incentra sulla sostenibilità dei consumi, fenomenologia esemplificativa di una modalità di rapporto degli uomini con i cibi innovativa e al contempo nient’affatto scontata: non soltanto a livello individual-collettivo come strumento di intelligibilità sociale e costruzione di senso, ma anche sul piano sistemico come rapporto con l’ambiente e il mondo circostante. In effetti, il percorso di studi che ha condotto all’elaborazione teorica ed empirica della tesi di dottorato, pur muovendo da studi radicati nella letteratura socio-antropologica come il consumo dei cibi e la cultura da essi veicolata, viene oggi inquadrata all’interno di nuovi scenari sullo sfondo del mutamento socioeconomico: le pratiche di sostenibilità causate dalle ambivalenti ripercussioni giocate dalla globalizzazione sui sistemi sociali. Se è vero infatti che oggi si vive in una società complessa, caratterizzata dalla crescente centralità del sistema del consumo rispetto agli altri sottosistemi, è evidente come una ri-lettura critica delle sue dimensioni simboliche ed intersoggettive nel senso del ridimensionamento degli aspetti legati alla mercificazione e al materialismo, faccia sì che la tesi dottorale si orienti sulla ricerca di una sostenibilità oggi tanto diffusa, da sostanziarsi sempre più anche nelle pratiche di consumo alimentare. Oggetto specifico di questo lavoro sono dunque, senza pretesa di esaustività ma rappresentative del contesto spaziale preso in esame, fenomenologie del consumo alimentare italiano all’interno di uno scenario globale: in particolare, si affronta la nuova cultura della sostenibilità che nasce dall’incontro fra i cittadini-consumatori e le complesse tematiche emergenti del sistema sociale di riferimento.
Resumo:
Le wavelet sono una nuova famiglia di funzioni matematiche che permettono di decomporre una data funzione nelle sue diverse componenti in frequenza. Esse combinano le proprietà dell’ortogonalità, il supporto compatto, la localizzazione in tempo e frequenza e algoritmi veloci. Sono considerate, perciò, uno strumento versatile sia per il contenuto matematico, sia per le applicazioni. Nell’ultimo decennio si sono diffuse e imposte come uno degli strumenti migliori nell’analisi dei segnali, a fianco, o addirittura come sostitute, dei metodi di Fourier. Si parte dalla nascita di esse (1807) attribuita a J. Fourier, si considera la wavelet di A. Haar (1909) per poi incentrare l’attenzione sugli anni ’80, in cui J. Morlet e A. Grossmann definiscono compiutamente le wavelet nel campo della fisica quantistica. Altri matematici e scienziati, nel corso del Novecento, danno il loro contributo a questo tipo di funzioni matematiche. Tra tutti emerge il lavoro (1987) della matematica e fisica belga, I. Daubechies, che propone le wavelet a supporto compatto, considerate la pietra miliare delle applicazioni wavelet moderne. Dopo una trattazione matematica delle wavalet, dei relativi algoritmi e del confronto con il metodo di Fourier, si passano in rassegna le principali applicazioni di esse nei vari campi: compressione delle impronte digitali, compressione delle immagini, medicina, finanza, astonomia, ecc. . . . Si riserva maggiore attenzione ed approfondimento alle applicazioni delle wavelet in campo sonoro, relativamente alla compressione audio, alla rimozione del rumore e alle tecniche di rappresentazione del segnale. In conclusione si accenna ai possibili sviluppi e impieghi delle wavelet nel futuro.
Resumo:
La tesi affronta il problema della risoluzione numerica di equazioni differenziali ordinarie, in particolare di problemi ai valori iniziali. Illustra i principali metodi numerici e li confronta, implementando il codice su MATLAB. Vengono risolti modelli fisici, biologici e demografici, come l'oscillatore di Lorenz e le equazioni di Lotka-Volterra.
Resumo:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.