999 resultados para Diffusione non lineare, filtraggio, denoising, EDP, PDE, differenze finite, schemi numerici
Resumo:
I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.
Resumo:
Scegliere di consumare in modo sostenibile significa passare ad un nuovo modello di consumo. Tale modello richiede una maggiore consapevolezza e responsabilità da parte dei consumatori, unite all'adozione di nuovi stili di vita e di scelte d’acquisto, che permettano il raggiungimento di elevati livelli di benessere nel rispetto dell'ambiente. Un notevole sforzo è stato compiuto recentemente dai policy maker per incoraggiare il consumo sostenibile quali implementazioni dello sviluppo sostenibile. Ancora lunga, tuttavia, è la strada da percorrere per raggiungere pienamente questo obiettivo. Tra i prodotti sostenibili, il biologico si è rivelato di gran lunga il più rappresentativo: le statistiche di questo mercato mostrano, infatti, tendenze positive, sebbene il consumo risulti ancora eterogeneo e contenuto rispetto al consumo di alimenti convenzionali. Ciò mostra che il comportamento dei consumatori non è ancora abbastanza reattivo alle suddette politiche. Il presente studio si propone di contribuire alla ricerca sul consumo sostenibile approfondendo i fattori che incoraggiano o impediscono il consumo di prodotti alimentari biologici in Italia. Adottando un nuovo approccio si cerca di capire come i diversi segmenti di diete alimentari affrontino gli alimenti biologici in termini di consumi e di atteggiamenti. Un'analisi multivariata a più fasi è stata condotta su un campione di 3.004 consumatori. Un’analisi delle componenti principali non lineare è stata applicata alle variabili ordinali che misurano il consumo di ventuno categorie di alimenti. Successivamente è stata applicata la cluster analysis che ha dato luogo a quattro segmenti di abitudini alimentari. I prodotti biologici sono diventati parte delle abitudini alimentari in Italia in quasi un terzo della popolazione. Il consumo sembra essersi affermato soprattutto nel segmento con abitudini alimentari sane. Una scarsa attenzione ad una dieta sana, gli stili di vita, il reddito, l'accessibilità, la mancanza di consapevolezza condizionano le abitudini alimentari a scapito di un consumo più sostenibile.
Resumo:
Il seguente lavoro di tesi ripercorre la teoria classica della fluidodinamica, dalle leggi di conservazione alla derivazione dell'equazione di Navier-Stokes. Introdotto il numero di Reynolds R e delineate le caratteristiche dei flussi laminari e turbolenti viene posta maggiore attenzione su questi ultimi, derivando le RANS ed esponendo le principali teorie fisiche della turbolenza. Vengono quindi trattate le perturbazioni acustiche, nella loro forma lineare tipica delle radiazioni generate da corpi vibranti e nella forma non-lineare tipica delle radiazioni generate da flussi. Il suono aerodinamico, generato da flussi, è affrontato mediante la teoria di Lighthill, che formula un'analogia tra flussi e mezzi acustici a riposo.
Resumo:
Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.
Resumo:
Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.
Resumo:
La tesi affronta tematiche relative al rilievo di un aggregato edilizio, all'analisi della consistenza e dei quadri fessurativi, ai criteri di lettura dei cinematismi e alle procedure di consolidamento. Vengono, inoltre, proposte strategie di progetto, finalizzate al riuso e all'auto-mantenimento sostenibile del medesimo sistema architettonico attraverso sequenze logiche e concatenate di decisioni operative, sulla base di esigenze, criticità e requisiti emersi.
Resumo:
L'obiettivo della tesi è studiare la dinamica di un random walk su network. Essa è inoltre suddivisa in due parti: la prima è prettamente teorica, mentre la seconda analizza i risultati ottenuti mediante simulazioni. La parte teorica è caratterizzata dall'introduzione di concetti chiave per comprendere i random walk, come i processi di Markov e la Master Equation. Dopo aver fornito un esempio intuitivo di random walk nel caso unidimensionale, tale concetto viene generalizzato. Così può essere introdotta la Master Equation che determina l'evoluzione del sistema. Successivamente si illustrano i concetti di linearità e non linearità, fondamentali per la parte di simulazione. Nella seconda parte si studia il comportamento di un random walk su network nel caso lineare e non lineare, studiando le caratteristiche della soluzione stazionaria. La non linearità introdotta simula un comportamento egoista da parte di popolazioni in interazioni. In particolare si dimostra l'esistenza di una Biforcazione di Hopf.
Resumo:
In questa trattazione si studia la regolarità delle soluzioni viscose plurisubarmoniche dell’equazione di Monge-Ampère complessa. Si tratta di un’equazione alle derivate parziali del secondo ordine completamente non lineare il cui termine del secondo ordine è il determinante della matrice hessiana complessa di una funzione incognita a valori reali u. Il principale risultato della tesi è un nuovo controesempio di tipo Pogorelov per questa equazione. Si prova cioè l’esistenza di soluzioni viscose plurisubarmoniche e non classiche per un equazione di Monge-Ampère complessa.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.
Resumo:
Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
Le celle solari a film sottile sono tra le alternative più promettenti nel campo fotovoltaico. La ricerca di materiali non tossici ed economici per la passivazione delle superfici è di fondamentale importanza. Il presente è uno studio sulla morfologia di film sottili di ZnS. I campioni analizzati sono stati cresciuti tramite DC sputtering a diversa potenza (range 50-150W) per studiare le connessioni tra condizioni di deposizione e proprietà strutturali. Lo studio è stato condotto mediante acquisizione di mappe AFM. E' stata effettuata un'analisi dei buchi (dips) in funzione della potenza di sputtering, per individuare il campione con la minore densità di dips in vista di applicazioni in celle solari a film sottile. I parametri strutturali, quali la rugosità superficiale e la lunghezza di correlazione laterale sono stati determinati con un'analisi statistica delle immagini. La densità e dimensione media dei grani sono state ricavate da una segmentazione delle immagini. Le analisi sono state svolte su due campioni di ZnO per fini comparativi. Tramite EFM sono state ottenute mappe di potenziale di contatto. Tramite KPFM si è valutata la differenza di potenziale tra ZnS e un layer di Al depositato sulla superficie. La sheet resistance è stata misurata con metodo a quattro punte. Dai risultati la potenza di sputtering influenza la struttura superficiale, ma in maniera non lineare. E' stato individuato il campione con la minore rugosità e densità di dips alla potenza di 75 W. Si è concluso che potenze troppo grandi o piccole in fase di deposizione promuovono il fenomeno di clustering dei grani e di aumentano la rugosità e densità di dips. E' emersa una corrispondenza diretta tra morfologia e potenziale di contatto alla superficie. La differenza di potenziale tra Al e ZnS è risultata inferiore al valore noto, ciò può essere dovuto a stati superficiali indotti da ossidi. Il campione risulta totalmente isolante.
Resumo:
Lo scopo principale di questa tesi è la valutazione del comportamento globale e dei danni subiti da un edificio in muratura esistente utilizzando un recente programma di calcolo sviluppato appositamente per lo studio in campo non lineare delle strutture in muratura, attraverso una modellazione a telaio equivalente con macroelementi; direttamente connesso a quest’aspetto vi è la valutazione della vulnerabilità sismica dell’edificio stesso, mediante i coefficienti o parametri definiti per i diversi stati limite considerati.
Resumo:
The mechanical response of the cornea subjected to a non-contact air-jet tonometry diagnostic test represents an interplay between its geometry, the corneal material behavior and the loading. The objective is to study this interplay to better understand and interpret the results obtained with a non-contact tonometry test. A patient-specific finite element model of a healthy eye, accounting for the load free configuration, was used. The corneal tissue was modeled as an anisotropic hyperelastic material with two preferential directions. Three different sets of parameters within the human experimental range obtained from inflation tests were considered. The influence of the IOP was studied by considering four pressure levels (10–28 mmHg) whereas the influence of corneal thickness was studied by inducing a uniform variation (300–600 microns). A Computer Fluid Dynamics (CFD) air-jet simulation determined pressure loading exerted on the anterior corneal surface. The maximum apex displacement showed a linear variation with IOP for all materials examined. On the contrary, the maximum apex displacement followed a cubic relation with corneal thickness. In addition, a significant sensitivity of the apical displacement to the corneal stiffness was also obtained. Explanation to this behavior was found in the fact that the cornea experiences bending when subjected to an air-puff loading, causing the anterior surface to work in compression whereas the posterior surface works in tension. Hence, collagen fibers located at the anterior surface do not contribute to load bearing. Non-contact tonometry devices give useful information that could be misleading since the corneal deformation is the result of the interaction between the mechanical properties, IOP, and geometry. Therefore, a non-contact tonometry test is not sufficient to evaluate their individual contribution and a complete in-vivo characterization would require more than one test to independently determine the membrane and bending corneal behavior.