942 resultados para Weather simulations
On the development of an unstructured grid solver for inert and reactive high speed flow simulations
Resumo:
An unstructured grid Euler solver for reactive compressible flow applications is presented. The method is implemented in a cell centered, finite volume context for unstructured triangular grids. Three different schemes for spatial discretization are implemented and analyzed. Time march is implemented in a time-split fashion with independent integrators for the flow and chemistry equations. The capability implemented is tested for inert flows in a hypersonic inlet and for inert and reactive supersonic flows over a 2-D wedge. The results of the different schemes are compared with each other and with independent calculations using a structured grid code. The strengths and the possible weaknesses of the proposed methods are discussed.
Resumo:
Coherent vortices in turbulent mixing layers are investigated by means of Direct Numerical Simulation (DNS) and Large-Eddy Simulation (LES). Subgrid-scale models defined in spectral and physical spaces are reviewed. The new "spectral-dynamic viscosity model", that allows to account for non-developed turbulence in the subgrid-scales, is discussed. Pseudo-spectral methods, combined with sixth-order compact finite differences schemes (when periodic boundary conditions cannot be established), are used to solve the Navier- Stokes equations. Simulations in temporal and spatial mixing layers show two types of pairing of primary Kelvin-Helmholtz (KH) vortices depending on initial conditions (or upstream conditions): quasi-2D and helical pairings. In both cases, secondary streamwise vortices are stretched in between the KH vortices at an angle of 45° with the horizontal plane. These streamwise vortices are not only identified in the early transitional stage of the mixing layer but also in self-similar turbulence conditions. The Re dependence of the "diameter" of these vortices is analyzed. Results obtained in spatial growing mixing layers show some evidences of pairing of secondary vortices; after a pairing of the primary Kelvin-Helmholtz (KH) vortices, the streamwise vortices are less numerous and their diameter has increased than before the pairing of KH vortices.
Resumo:
Tässä kandidaatintyössä vertailtiin SolidWorks Simulations ja Femap FE-analyysiohjelmien tuottamia tuloksia. Vertailu suoritettiin yksinkertaisten RHS-putkipalkkien mallinnuksen avulla. Mallinnuksessa käytettiin viittä erilaista kuormitustapausta, jotka sisälsivät mm. taivutus-, vääntö- ja jännityskeskittymätarkastelut. Ohjelmien tuottamia tuloksia verrattiin mahdollisuuksien mukaan analyyttisin menetelmin tehtyihin vertailulaskelmiin. Työn tarkoituksena oli selvittää tuottivatko eri ohjelmat erilaisia tuloksia samoista kuormitustapauksista ja kuinka paljon tulokset erosivat.
Resumo:
Lappeenrannan teknillinen yliopisto tutkii älykkäiden sähköverkkojen kehittämistä. Yliopisto on hankkinut sähköverkkoonsa tuuliturbiinin ja aurinkopaneeleita, joilla pystytään tuottamaan sähköenergiaa sähköverkkoon. Näitä tuotantoja voidaan käyttää myös tutkimuksessa. Tässä työssä luodaan simulaatiomalli yliopiston sähköverkosta Matlab® Simulink® -ohjelmalla. Simulaatiomalliin mallinnetaan yliopiston sisäinen keskijänniteverkko ja osa pienjänniteverkosta. Simulaatiomalli toteutetaan ohjelman valmiilla komponenteilla, joihin lasketaan tarvittavat parametrit. Tuuliturbiinin ja aurinkopaneelien sähköntuotantotehot määritetään säätiladatojen avulla. Verkon komponenteille lasketaan arvot komponenttien tyyppitietojen perusteella ja asetetaan simulaatiomallin parametreiksi. Simulaatiomalli luodaan yliopiston sisäisen verkon tehonjaon tarkastelemiseksi. Työssä selvitetään myös mahdollisuuksia luodun simulaatiomallin käyttämiseen vikatilanteiden tarkastelussa.
Resumo:
The desire to create a statistical or mathematical model, which would allow predicting the future changes in stock prices, was born many years ago. Economists and mathematicians are trying to solve this task by applying statistical analysis and physical laws, but there are still no satisfactory results. The main reason for this is that a stock exchange is a non-stationary, unstable and complex system, which is influenced by many factors. In this thesis the New York Stock Exchange was considered as the system to be explored. A topological analysis, basic statistical tools and singular value decomposition were conducted for understanding the behavior of the market. Two methods for normalization of initial daily closure prices by Dow Jones and S&P500 were introduced and applied for further analysis. As a result, some unexpected features were identified, such as a shape of distribution of correlation matrix, a bulk of which is shifted to the right hand side with respect to zero. Also non-ergodicity of NYSE was confirmed graphically. It was shown, that singular vectors differ from each other by a constant factor. There are for certain results no clear conclusions from this work, but it creates a good basis for the further analysis of market topology.
Resumo:
Time series of hourly electricity spot prices have peculiar properties. Electricity is by its nature difficult to store and has to be available on demand. There are many reasons for wanting to understand correlations in price movements, e.g. risk management purposes. The entire analysis carried out in this thesis has been applied to the New Zealand nodal electricity prices: offer prices (from 29 May 2002 to 31 March 2009) and final prices (from 1 January 1999 to 31 March 2009). In this paper, such natural factors as location of the node and generation type in the node that effects the correlation between nodal prices have been reviewed. It was noticed that the geographical factor affects the correlation between nodes more than others. Therefore, the visualisation of correlated nodes was done. However, for the offer prices the clear separation of correlated and not correlated nodes was not obtained. Finally, it was concluded that location factor most strongly affects correlation of electricity nodal prices; problems in visualisation probably associated with power losses when the power is transmitted over long distance.
Resumo:
Tässä diplomityössä käsitellään Aurinkoa seuraavan aurinkopaneelijärjestelmän kehittämistä Suomen olosuhteisiin. Työ on tehty osana Lappeenrannan teknillisen yliopiston Green Campus-projektia, jossa tarkoituksena on tuottaa yliopistolle energiaa uusiutuvilla menetelmillä ja käyttää niitä apuna tutkimuksessa sekä opetuksessa. Tavoitteena työssä on ymmärtää Auringon seuraamisen hyödyt sekä mahdolliset haitat aurinkopaneeli sovellutuksissa. Aikaisemman tutkimustiedon ollessa vähäistä, on työssä pyritty löytämään laskentamalli tuottavuuden laskentaan riippumatta siitä, missä päin maapalloa aurinkopaneelijärjestelmä sijaitsee. Työ alkaa kirjallisuustutkimuksella, jossa käydään läpi aurinkopaneelien toimintaperiaate, aurinkoenergian ja auringonpaistetuntien suuruusluokat Suomessa, sekä Suomen sääoloista johtuvat vaatimukset aurinkopaneelijärjestelmille. Tämän jälkeen on vertailtu kaupallisia järjestelmiä. Lopuksi järjestelmällistä tuotesuunnittelua hyväksikäyttäen suunnitellaan oma versio Aurinkoa seuraavasta aurinkopaneelijärjestelmästä. Oman suunnitelman järkevyyttä simuloidaan pienoismallilla Matlab-Arduino ympäristössä ja pyritään löytämään mahdollisia heikkouksia. Suomessa aurinkoenergiasta 90 % saadaan maalis – syyskuun aikana. Nykyisillä akkujärjestelmillä aurinkoenergia Suomessa ei sovellu kuin täydentäväksi energianlähteeksi. Aurinkoa seuraamalla voidaan saavuttaa 25-30 % tuottavuuden lisäys kesäaikana verrattuna staattiseen järjestelmään. Talvella hyöty tippuu 0-10 % luokkaan. Pienoismallilla simuloidut ohjaustavat osoittivat, että Aurinkoa on mahdollista seurata ilman sensoreita laskemalla Auringon paikka tähtitieteen kaavoista.
Resumo:
The focus of the research is on the derivation of the valid and reliable performance results regarding establishment and launching of the new full-scale industrial facility, considering the overall current conditions for the project realization in and out of Russia. The study demonstrates the process of the new facility concept development, with following perfor-mance calculation, comparative analyzes conduction, life-cycle simulations, performance indicators derivation and project`s sustainability evaluation. To unite and process the entire input parameters complexity, regards the interlacing between the project`s internal technical and commercial sides on the one hand, and consider all the specifics of the Russian conditions for doing business on the other hand, was developed the unique model for the project`s performance calculation, simulations and results representation. The complete research incorporates all corresponding data to substantiate the assigned facility`s design, sizing and output capacity for high quality and cost efficient ferrous pipe-line accessories manufacturing, as well as, demonstrates that this project could be suc-cessfully realized in current conditions in Russia and highlights the room for significant performance and sustainability improvements based on the indexes of the derived KPIs.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Détection des événements de "Minimum Bias" et neutrons avec les détecteurs ATLAS-MPX par simulations
Resumo:
Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.