5 resultados para Models and Methods
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
The lateral characteristics of tires in terms of lateral forces as a function of sideslip angle is a focal point in the prediction of ground loads and ground handling aircraft behavior. However, tests to validate such coefficients are not mandatory to obtain Aircraft Type Certification and so they are not available for ATR tires. Anyway, some analytical values are implemented in ATR calculation codes (Flight Qualities in-house numerical code and Loads in-house numerical code). Hence, the goal of my work is to further investigate and validate lateral tires characteristics by means of: exploitation and re-parameterization of existing test on NLG tires, implementation of easy-handle model based on DFDR parameters to compute sideslip angles, application of this model to compute lateral loads on existing flight tests and incident cases, analysis of results. The last part of this work is dedicated to the preliminary study of a methodology to perform a test to retrieve lateral tire loads during ground turning with minimum requirements in terms of aircraft test instrumentation. This represents the basis for future works.
Resumo:
In questo elaborato ci siamo occupati della legge di Zipf sia da un punto di vista applicativo che teorico. Tale legge empirica afferma che il rango in frequenza (RF) delle parole di un testo seguono una legge a potenza con esponente -1. Per quanto riguarda l'approccio teorico abbiamo trattato due classi di modelli in grado di ricreare leggi a potenza nella loro distribuzione di probabilità. In particolare, abbiamo considerato delle generalizzazioni delle urne di Polya e i processi SSR (Sample Space Reducing). Di questi ultimi abbiamo dato una formalizzazione in termini di catene di Markov. Infine abbiamo proposto un modello di dinamica delle popolazioni capace di unificare e riprodurre i risultati dei tre SSR presenti in letteratura. Successivamente siamo passati all'analisi quantitativa dell'andamento del RF sulle parole di un corpus di testi. Infatti in questo caso si osserva che la RF non segue una pura legge a potenza ma ha un duplice andamento che può essere rappresentato da una legge a potenza che cambia esponente. Abbiamo cercato di capire se fosse possibile legare l'analisi dell'andamento del RF con le proprietà topologiche di un grafo. In particolare, a partire da un corpus di testi abbiamo costruito una rete di adiacenza dove ogni parola era collegata tramite un link alla parola successiva. Svolgendo un'analisi topologica della struttura del grafo abbiamo trovato alcuni risultati che sembrano confermare l'ipotesi che la sua struttura sia legata al cambiamento di pendenza della RF. Questo risultato può portare ad alcuni sviluppi nell'ambito dello studio del linguaggio e della mente umana. Inoltre, siccome la struttura del grafo presenterebbe alcune componenti che raggruppano parole in base al loro significato, un approfondimento di questo studio potrebbe condurre ad alcuni sviluppi nell'ambito della comprensione automatica del testo (text mining).
Resumo:
Questa tesi intende approfondire da un punto di vista, sia teorico sia computazionale, le proprietà fondamentali dei fononi. A tal fine, sono presentati i modelli quantistici di Einstein e di Debye che permettono la derivazione analitica degli osservabili macroscopici principali di un solido, come l’energia media e la capacità termica. Ciò è possibile tramite una trattazione meccano-statistica basata sull’approssimazione armonica dei modi normali di vibrazione degli ioni reticolari. Quindi, all’inizio si mostrano brevemente i risultati principali riguardanti l’oscillatore armonico quantistico. Successivamente, si approfondiscono i temi della dispersione fononica e della densità degli stati vibrazionali per reticoli cristallini 1D e 3D. Si ottiene che la prima non può essere considerata lineare se non nel limite di alte lunghezze d’onda, e che la seconda può presentare punti di singolarità correlati alla forma della relazione di dispersione. Infine, sono state svolte alcune analisi computazionali ab initio relative alla dispersione fononica, la densità degli stati vibrazionali e la frequenza di Debye del Carbonio (diamante) tramite i programmi VASP e Phonopy, confrontando i risultati con dati sperimentali presenti in letteratura.
Resumo:
Nowadays the idea of injecting world or domain-specific structured knowledge into pre-trained language models (PLMs) is becoming an increasingly popular approach for solving problems such as biases, hallucinations, huge architectural sizes, and explainability lack—critical for real-world natural language processing applications in sensitive fields like bioinformatics. One recent work that has garnered much attention in Neuro-symbolic AI is QA-GNN, an end-to-end model for multiple-choice open-domain question answering (MCOQA) tasks via interpretable text-graph reasoning. Unlike previous publications, QA-GNN mutually informs PLMs and graph neural networks (GNNs) on top of relevant facts retrieved from knowledge graphs (KGs). However, taking a more holistic view, existing PLM+KG contributions mainly consider commonsense benchmarks and ignore or shallowly analyze performances on biomedical datasets. This thesis start from a propose of a deep investigation of QA-GNN for biomedicine, comparing existing or brand-new PLMs, KGs, edge-aware GNNs, preprocessing techniques, and initialization strategies. By combining the insights emerged in DISI's research, we introduce Bio-QA-GNN that include a KG. Working with this part has led to an improvement in state-of-the-art of MCOQA model on biomedical/clinical text, largely outperforming the original one (+3.63\% accuracy on MedQA). Our findings also contribute to a better understanding of the explanation degree allowed by joint text-graph reasoning architectures and their effectiveness on different medical subjects and reasoning types. Codes, models, datasets, and demos to reproduce the results are freely available at: \url{https://github.com/disi-unibo-nlp/bio-qagnn}.
Resumo:
Currently making digital 3D models and replicas of the cultural heritage assets play an important role in the preservation and having a high detail source for future research and intervention. In this dissertation, it is tried to assess different methods for digital surveying and making 3D replicas of cultural heritage assets in different scales of size. The methodologies vary in devices, software, workflow, and the amount of skill that is required. The three phases of the 3D modelling process are data acquisition, modelling, and model presentation. Each of these sections is divided into sub-sections and there are several approaches, methods, devices, and software that may be employed, furthermore, the selection process should be based on the operation's goal, available facilities, the scale and properties of the object or structure to be modeled, as well as the operators' expertise and experience. The most key point to remember is that the 3D modelling operation should be properly accurate, precise, and reliable; therefore, there are so many instructions and pieces of advice on how to perform 3D modelling effectively. It is an attempt to compare and evaluate the various ways of each phase in order to explain and demonstrate their differences, benefits, and drawbacks in order to serve as a simple guide for new and/or inexperienced users.