316 resultados para equazioni stocastiche lineari disuguaglianza Harnack
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Lo stretch film è una diffusa applicazione per imballaggio dei film in polietilene (PE), utilizzato per proteggere diversi prodotti di vari dimensioni e pesi. Una caratteristica fondamentale del film è la sua proprietà adesiva in virtù della quale il film può essere facilmente chiuso su se stesso. Tipicamente vengono scelti gradi lineari a bassa densità (LLDPE) con valori relativamente bassi di densità a causa delle loro buone prestazioni. Il mercato basa la scelta del materiale adesivo per tentativi piuttosto che in base alla conoscenza delle caratteristiche strutturali ottimali per l’applicazione. Come per i pressure sensitive adhesives, le proprietà adesive di film stretch in PE possono essere misurati mediante "peel testing". Esistono molti metodi standard internazionali ma i risultati di tali prove sono fortemente dipendenti dalla geometria di prova, sulla possibile deformazione plastica che si verificano nel peel arm(s), e la velocità e temperatura. Lo scopo del presente lavoro è quello di misurare l'energia di adesione Gc di film stretch di PE, su se stessi e su substrati diversi, sfruttando l'interpretazione della meccanica della frattura per tener conto dell'elevata flessibilità e deformabilità di tali film. Quindi, la dipendenza velocità/temperatura di Gc sarà studiata con riferimento diretto al comportamento viscoelastico lineare dei materiali utilizzati negli strati adesivi, per esplorare le relazioni struttura-proprietà che possono mettere in luce i meccanismi molecolari coinvolti nei processi di adesione e distacco. Nella presente caso, l’adesivo non è direttamente disponibile come materiale separato che può essere messo tra due superfici di prova e misurato per la determinazione delle sue proprietà. Il presupposto principale è che una parte, o fase, della complessa struttura semi-cristallina del PE possa funzionare come adesivo, e un importante risultato di questo studio può essere una migliore identificazione e caratterizzazione di questo "fase adesiva".
Resumo:
In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.
Resumo:
Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Resumo:
Questo elaborato si propone di dare una panoramica generale delle basi della Dinamica dei Fluidi e della sua importanza nel contesto astrofisico; è strutturato in modo da fornire le nozioni fondamentali necessarie in tali campi e le essenziali informazioni sul formalismo correntemente utilizzato, per poi concludere con l'analisi del fenomeno dell'instabilità di Jeans.
Resumo:
Cardiotocography (CTG) is a widespread foetal diagnostic methods. However, it lacks of objectivity and reproducibility since its dependence on observer's expertise. To overcome these limitations, more objective methods for CTG interpretation have been proposed. In particular, many developed techniques aim to assess the foetal heart rate variability (FHRV). Among them, some methodologies from nonlinear systems theory have been applied to the study of FHRV. All the techniques have proved to be helpful in specific cases. Nevertheless, none of them is more reliable than the others. Therefore, an in-depth study is necessary. The aim of this work is to deepen the FHRV analysis through the Symbolic Dynamics Analysis (SDA), a nonlinear technique already successfully employed for HRV analysis. Thanks to its simplicity of interpretation, it could be a useful tool for clinicians. We performed a literature study involving about 200 references on HRV and FHRV analysis; approximately 100 works were focused on non-linear techniques. Then, in order to compare linear and non-linear methods, we carried out a multiparametric study. 580 antepartum recordings of healthy fetuses were examined. Signals were processed using an updated software for CTG analysis and a new developed software for generating simulated CTG traces. Finally, statistical tests and regression analyses were carried out for estimating relationships among extracted indexes and other clinical information. Results confirm that none of the employed techniques is more reliable than the others. Moreover, in agreement with the literature, each analysis should take into account two relevant parameters, the foetal status and the week of gestation. Regarding the SDA, results show its promising capabilities in FHRV analysis. It allows recognizing foetal status, gestation week and global variability of FHR signals, even better than other methods. Nevertheless, further studies, which should involve even pathological cases, are necessary to establish its reliability.
Resumo:
Scopo di questo studio è mostrare come, a partire dalle equazioni di Maxwell nella forma classica, sia possibile associare al campo elettromagnetico una funzione Hamiltoniana che risulti essere somma delle Hamiltoniane di un numero discreto di oscillatori armonici, ciascuno dei quali è associato ad un modo normale di vibrazione del campo. Tramite un procedimento puramente formale di quantizzazione, è possibile ricavare un'espressione per lo spettro del campo elettromagnetico e viene introdotto il concetto di fotone, inteso come quanto d'eccitazione di un singolo oscillatore. Si ricava la ben nota espressione U=ħω per l'energia del fotone e si deducono alcuni importanti aspetti, quali le fluttuazioni quantistiche del campo elettromagnetico e il problema legato alla divergenza dell'energia di vuoto fotonico, che aprono le porte all'elettrodinamica quantistica.
Resumo:
Questa tesi tratta di problemi dislocativi in spazi elastici, utili per rappresentare campi di spostamento, deformazione e sforzo generati da sorgenti interne. In particolare, considerando la Terra come un corpo elastico, i problemi trattati si riferiscono alla descrizione dei campi di sforzo in prossimità della superficie terrestre, lo studio della cui deformazione rappresenta uno dei più utili metodi di indagine delle sorgenti sismiche e vulcaniche. È possibile, con ottima approssimazione, descrivere la superficie terrestre come una superficie libera, ovvero una superficie su cui le trazioni applicate dall'esterno sono nulle. Tale approssimazione, per il tipo di studio cui mira questa trattazione, è giustificata dal fatto che le sorgenti sismiche sono situate solitamente a diversi chilometri di profondità, dove risulta legittimo trascurare le forze esterne dovute a pressione atmosferica, azione di correnti d'aria, forze di gravità esercitata dal Sole ed altri corpi celesti, etc. Volendo studiare regioni con dimensioni lineari molto inferiori al raggio terrestre, è possibile approssimare la Terra ad un semispazio elastico omogeneo con superficie libera orizzontale. Nel seguito si farà riferimento ad un sistema cartesiano ortogonale con assi y e z diretti lungo l'orizzontale e asse x diretto verticalmente verso l'interno del semispazio. La superficie terrestre è perciò descritta dal piano x=0 e, denotando con T_ij il tensore di sforzo, la condizione di superficie libera risulta: Txx = Txy = Txz = 0; in x = 0. Nella tesi sono esposti alcuni metodi che consentono di estendere soluzioni già note per spazi elastici illimitati al caso di semispazi delimitati da una superficie libera.
Resumo:
Scopo di questo elaborato è la trattazione del momento di inerzia di un sistema meccanico rispetto ad una retta, con particolare attenzione alla struttura geometrica associata a questa nozione, ovvero all’ellissoide di inerzia. Si parte dalla definizione delle grandezze meccaniche fondamentali, passando per le equazioni cardinali della dinamica, arrivando a dimostrare il teorema di König. Viene poi studiato il momento di inerzia ed evidenziato il suo ruolo importante per la determinazione del momento angolare e dell’energia cinetica: in particolare è emersa la centralità dell’ellissoide d’inerzia. Si conclude con la dimostrazione del teorema di Huyghens e alcuni esempi espliciti di calcolo dell’ellissoide di inerzia.
Resumo:
In questa trattazione ci proponiamo di analizzare e approfondire alcune delle definizioni fondamentali di funzione convessa; l’ambiente nel quale lavoreremo non si limiterà a quello euclideo, ma spazierà anche tra gruppo di Heisenberg e gruppo di Carnot. In questo lavoro dimostriamo una nuova caratterizzazione delle funzioni convesse in termini delle proprietà di sottomedia.
Resumo:
Il lavoro di tesi si inserisce in un contesto di ricerca molto attuale, che studia la preparazione di nuovi materiali polimerici ad elevate prestazioni e derivabili da fonti rinnovabili. Partendo dal resorcinolo, una molecola che può essere ottenuta da biomassa, e dall’etilene carbonato sono state ottimizzate la sintesi e la purificazione di un diolo, l’1,3-bis(2-idrossietossi)benzene (HER), senza l’impiego di solventi e con l’utilizzo di modeste quantità di catalizzatore. L’HER è conosciuto in letteratura ma è poco studiato e non viene attualmente impiegato come monomero. In questo lavoro L’HER è stato polimerizzato in massa con una serie di diacidi (alcuni derivati da biomassa, altri provenienti da fonti fossili) sia di natura alifatica (lineari e ciclici) che di natura aromatica. Sono state analizzate la struttura chimica e le proprietà termiche dei nuovi poliesteri, in modo da definire correlazioni fra struttura e prestazioni finali. E’ stata infine messa a punto una procedura one-pot per la preparazione dei suddetti poliesteri; essa prevede la sintesi diretta dei polimeri senza lo stadio intermedio di purificazione dell’HER.
Resumo:
Lo scopo di questo elaborato è descrivere alcuni dei meccanismi di produzione dell’energia studiati nel campo astrofisico. Essendo questi piuttosto numerosi, sono stati trascurati i processi ritenuti di sola conversione di energia da una forma ad un’altra, come, per esempio,l’emissione da parte di una particella accelerata. In questo modo si è potuto dedicare più spazio ad altri fenomeni, molto comuni ed efficienti, che saranno qui anticipatamente elencati. Nel Capitolo 1 vengono descritti i processi di fusione nucleare che alimentano le stelle; per ognuno sono state riportate la quantità di energia prodotta e i tempi scala. Si è scelto inoltre di dare maggiore importanza a quei fenomeni che caratterizzano le fasi principali dell’evoluzione stellare, essendo questi anche i più efficienti, mentre le reazioni secondarie sono state solamente accennate. Nella Sezione 1.4 vengono descritti i meccanismi alla base dell’esplosione di supernova, essendo un’importante fase evolutiva nella quale la quantità di energia in gioco è considerevole. Come conclusione dell’argomento vengono riportare le equazioni che descrivono la produzione energetica nei processi di fusione descritti precedentemente. Nella seconda parte dell’elaborato, viene descritto il fenomeno dell’accrescimento gravitazionale utilizzando come oggetto compatto di riferimento un buco nero. Si è scelto di porre l’accento sull’efficienza della produzione energetica e sul limite di luminosità di Eddington.
Resumo:
Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.