999 resultados para analisi numerica solai sezione mista


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi individua un metodo matematico per inferire alcuni eventi demografici relativi a popolazioni umane, attraverso l’analisi di dati, reali e simulati, e con strumenti di statistica e analisi numerica (Cluster Analysis, Analisi Discriminate, Analisi della varianza, Interpolazione).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro tratta la stabilità del fronte di scavo, rinforzato con barre di consolidamento ed interessato da drenaggi in avanzamento, di gallerie sotto falda in rocce tenere o terreni. Tale studio è stato sviluppato dal progetto di Tesi attraverso l’analisi all’equilibrio limite che approssima il fronte di scavo con un rettangolo e considera un meccanismo di rottura composto da un cuneo, a tergo del fronte, caricato da un prisma. Il metodo descritto consente di tenere conto dell’effetto stabilizzante delle barre, mediante una distribuzione della pressione di supporto non uniforme. Nel caso di gallerie sotto falda, lo stesso metodo permette inoltre di considerare l’effetto destabilizzante dei gradienti idraulici. Sono state ricavate soluzioni analitiche per la valutazione della stabilità, ed implementate successivamente nel software di analisi numerica MATLAB. Dalle analisi condotte è emerso che il numero minimo di barre per garantire la stabilità del fronte di scavo è in molti casi elevato e risulta impossibile da porre in opera in terreni scarsamente coesivi o in gallerie sotto elevati battenti d’acqua. Per risolvere questa situazione si può prevedere l’inserimento di drenaggi in avanzamento, con lo scopo di diminuire i gradienti idraulici nei pressi del fronte della galleria. Il modello che descrive il nuovo andamento dei carichi idraulici, considerando la presenza di dreni, è stato realizzato con il software commerciale agli elementi finiti COMSOL. Una volta determinati gli andamenti dei carichi idraulici, sono stati condotti studi parametrici sull’effetto dei dreni combinato con gli elementi di rinforzo. Dopo tali analisi sono stati ricavati nomogrammi adimensionali che tengano conto della presenza contemporanea delle barre e dei dreni. Tali diagrammi costituiscono uno strumento utile e valido per la progettazione del rinforzo del fronte di scavo. Infine sono stati realizzati confronti fra casi di studio reali e risultati ottenuti dal modello.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ambito della meccanica quantistica è stato sviluppato uno strumento di calcolo al fine di studiare sistemi per i quali è troppo difficile risolvere il problema di Schrödinger. Esso si basa sull'idea di considerare un sistema semplice, totalmente risolvibile, e perturbarlo fino ad ottenere un'Hamiltoniana simile a quella che si vuole studiare. In questo modo le soluzioni del sistema più complicato sono le soluzioni note del problema semplice corrette da sviluppi in serie della perturbazione. Nonostante il grande successo della Teoria perturbativa, essendo una tecnica di approssimazione, presenta delle limitazioni e non può essere usata in ogni circostanza. In questo lavoro di tesi è stata valutata l'efficacia della Teoria perturbativa ricercando la compatibilità tra le soluzioni trovate col metodo analitico e quelle esatte ottenute numericamente. A tale scopo è stato usato il sistema fisico dell'oscillatore anarmonico, ovvero un oscillatore armonico standard sottoposto ad una perturbazione quartica. Per l'analisi numerica invece è stato utilizzato il programma Wolfram Mathematica. La trattazione seguita ha dimostrato che la Teoria perturbativa funziona molto bene in condizioni di bassa energia e di piccole perturbazioni. Nel momento in cui il livello energetico aumenta e l'intensità della perturbazione diventa significativa, i risultati analitici cominciano a divergere da quelli ottenuti numericamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'evoluzione dei motori ad accensione comandata, a fronte di una richiesta di mini- mizzazione delle emissioni di CO2 e la necessità di mantenere un target di potenza e guidabilità unitamente a consumi sempre inferiori, ha portato allo sviluppo di motori più piccoli a maggiore densità di potenza. Con l'introduzione dei motori downsized, le ridotte dimensioni della camera di combustione in congiunzione alla soluzione dell'iniezione diretta, hanno creato le condizioni per le quali un certo quantitativo di combustibile (e/o acqua nel caso della water injection) va ad impattare a parete interagendo con lo strato di olio lubrificante. Vista l'importanza del lubrificante nel cilindro motore e le conseguenze del suo inquinamento o trasporto sul funzionamento dello stesso, si rende necessario uno studio di dettaglio sul fenomeno dell'impatto. Il seguente lavoro di tesi consiste nello sviluppo di un modello monodimensionale per l'analisi numerica dell'interazione tra due uidi mono o multi componenti, che permetta di stimare la variazione di composizione e l'evoluzione delle grandezze ter- modinamiche del sistema binario valutando le sue possibili condizioni al contorno a seconda dell'applicazione. Ad esempio nel caso della camera di un MCI, le condizioni al contorno del sistema binario possono essere rappresentate dagli scambi con uno strato solido (rappresentativo del cilindro) da una parte e con uno strato gassoso (rappresentativo della miscela in formazione in camera) dall'altro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In these last years a great effort has been put in the development of new techniques for automatic object classification, also due to the consequences in many applications such as medical imaging or driverless cars. To this end, several mathematical models have been developed from logistic regression to neural networks. A crucial aspect of these so called classification algorithms is the use of algebraic tools to represent and approximate the input data. In this thesis, we examine two different models for image classification based on a particular tensor decomposition named Tensor-Train (TT) decomposition. The use of tensor approaches preserves the multidimensional structure of the data and the neighboring relations among pixels. Furthermore the Tensor-Train, differently from other tensor decompositions, does not suffer from the curse of dimensionality making it an extremely powerful strategy when dealing with high-dimensional data. It also allows data compression when combined with truncation strategies that reduce memory requirements without spoiling classification performance. The first model we propose is based on a direct decomposition of the database by means of the TT decomposition to find basis vectors used to classify a new object. The second model is a tensor dictionary learning model, based on the TT decomposition where the terms of the decomposition are estimated using a proximal alternating linearized minimization algorithm with a spectral stepsize.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Inverse problems are at the core of many challenging applications. Variational and learning models provide estimated solutions of inverse problems as the outcome of specific reconstruction maps. In the variational approach, the result of the reconstruction map is the solution of a regularized minimization problem encoding information on the acquisition process and prior knowledge on the solution. In the learning approach, the reconstruction map is a parametric function whose parameters are identified by solving a minimization problem depending on a large set of data. In this thesis, we go beyond this apparent dichotomy between variational and learning models and we show they can be harmoniously merged in unified hybrid frameworks preserving their main advantages. We develop several highly efficient methods based on both these model-driven and data-driven strategies, for which we provide a detailed convergence analysis. The arising algorithms are applied to solve inverse problems involving images and time series. For each task, we show the proposed schemes improve the performances of many other existing methods in terms of both computational burden and quality of the solution. In the first part, we focus on gradient-based regularized variational models which are shown to be effective for segmentation purposes and thermal and medical image enhancement. We consider gradient sparsity-promoting regularized models for which we develop different strategies to estimate the regularization strength. Furthermore, we introduce a novel gradient-based Plug-and-Play convergent scheme considering a deep learning based denoiser trained on the gradient domain. In the second part, we address the tasks of natural image deblurring, image and video super resolution microscopy and positioning time series prediction, through deep learning based methods. We boost the performances of supervised, such as trained convolutional and recurrent networks, and unsupervised deep learning strategies, such as Deep Image Prior, by penalizing the losses with handcrafted regularization terms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Imaging technologies are widely used in application fields such as natural sciences, engineering, medicine, and life sciences. A broad class of imaging problems reduces to solve ill-posed inverse problems (IPs). Traditional strategies to solve these ill-posed IPs rely on variational regularization methods, which are based on minimization of suitable energies, and make use of knowledge about the image formation model (forward operator) and prior knowledge on the solution, but lack in incorporating knowledge directly from data. On the other hand, the more recent learned approaches can easily learn the intricate statistics of images depending on a large set of data, but do not have a systematic method for incorporating prior knowledge about the image formation model. The main purpose of this thesis is to discuss data-driven image reconstruction methods which combine the benefits of these two different reconstruction strategies for the solution of highly nonlinear ill-posed inverse problems. Mathematical formulation and numerical approaches for image IPs, including linear as well as strongly nonlinear problems are described. More specifically we address the Electrical impedance Tomography (EIT) reconstruction problem by unrolling the regularized Gauss-Newton method and integrating the regularization learned by a data-adaptive neural network. Furthermore we investigate the solution of non-linear ill-posed IPs introducing a deep-PnP framework that integrates the graph convolutional denoiser into the proximal Gauss-Newton method with a practical application to the EIT, a recently introduced promising imaging technique. Efficient algorithms are then applied to the solution of the limited electrods problem in EIT, combining compressive sensing techniques and deep learning strategies. Finally, a transformer-based neural network architecture is adapted to restore the noisy solution of the Computed Tomography problem recovered using the filtered back-projection method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main contribution of this thesis is the proposal of novel strategies for the selection of parameters arising in variational models employed for the solution of inverse problems with data corrupted by Poisson noise. In light of the importance of using a significantly small dose of X-rays in Computed Tomography (CT), and its need of using advanced techniques to reconstruct the objects due to the high level of noise in the data, we will focus on parameter selection principles especially for low photon-counts, i.e. low dose Computed Tomography. For completeness, since such strategies can be adopted for various scenarios where the noise in the data typically follows a Poisson distribution, we will show their performance for other applications such as photography, astronomical and microscopy imaging. More specifically, in the first part of the thesis we will focus on low dose CT data corrupted only by Poisson noise by extending automatic selection strategies designed for Gaussian noise and improving the few existing ones for Poisson. The new approaches will show to outperform the state-of-the-art competitors especially in the low-counting regime. Moreover, we will propose to extend the best performing strategy to the hard task of multi-parameter selection showing promising results. Finally, in the last part of the thesis, we will introduce the problem of material decomposition for hyperspectral CT, which data encodes information of how different materials in the target attenuate X-rays in different ways according to the specific energy. We will conduct a preliminary comparative study to obtain accurate material decomposition starting from few noisy projection data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ill-conditioned inverse problems frequently arise in life sciences, particularly in the context of image deblurring and medical image reconstruction. These problems have been addressed through iterative variational algorithms, which regularize the reconstruction by adding prior knowledge about the problem's solution. Despite the theoretical reliability of these methods, their practical utility is constrained by the time required to converge. Recently, the advent of neural networks allowed the development of reconstruction algorithms that can compute highly accurate solutions with minimal time demands. Regrettably, it is well-known that neural networks are sensitive to unexpected noise, and the quality of their reconstructions quickly deteriorates when the input is slightly perturbed. Modern efforts to address this challenge have led to the creation of massive neural network architectures, but this approach is unsustainable from both ecological and economic standpoints. The recently introduced GreenAI paradigm argues that developing sustainable neural network models is essential for practical applications. In this thesis, we aim to bridge the gap between theory and practice by introducing a novel framework that combines the reliability of model-based iterative algorithms with the speed and accuracy of end-to-end neural networks. Additionally, we demonstrate that our framework yields results comparable to state-of-the-art methods while using relatively small, sustainable models. In the first part of this thesis, we discuss the proposed framework from a theoretical perspective. We provide an extension of classical regularization theory, applicable in scenarios where neural networks are employed to solve inverse problems, and we show there exists a trade-off between accuracy and stability. Furthermore, we demonstrate the effectiveness of our methods in common life science-related scenarios. In the second part of the thesis, we initiate an exploration extending the proposed method into the probabilistic domain. We analyze some properties of deep generative models, revealing their potential applicability in addressing ill-posed inverse problems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.