26 resultados para Interaction fluide-structure--Modèles mathématiques
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème;90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%;68%) chez les femmes et 36%(28%;61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%;100%) chez les femmes et 83%(75%;100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%;32%) chez les femmes et 35%(27%;39%) chez les hommes à 40% de couverture, et 7%(0%;10%) et 16%(1%;25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
La conception de la structure d’une chaussée dépend en grande partie des caractéristiques du sol qui constituera l’infrastructure, telles que ses propriétés mécaniques réversibles et sa sensibilité à l’eau et au gel. Ces paramètres peuvent être mesurés en laboratoire grâce à l’exécution d’essais très fiables, mais laborieux et dispendieux comme par exemple les essais en cellule triaxiale et celui du potentiel de ségrégation en cellule de gel. L’utilisation des équipements portatifs, comme le déflectomètre LWD et le Percomètre®, permet d’effectuer une évaluation des propriétés du sol. Dix types de sols d’infrastructure ont été testés en laboratoire; les résultats ont été validés avec des essais in situ et corrélés avec les modules réversibles et les potentiels de ségrégation obtenus en laboratoire. Des modèles mathématiques ont été développés permettant une quantification adéquate du module réversible et du potentiel de ségrégation en fonction des propriétés géotechniques du sol.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
La possibilité d’estimer l’impact du changement climatique en cours sur le comportement hydrologique des hydro-systèmes est une nécessité pour anticiper les adaptations inévitables et nécessaires que doivent envisager nos sociétés. Dans ce contexte, ce projet doctoral présente une étude sur l’évaluation de la sensibilité des projections hydrologiques futures à : (i) La non-robustesse de l’identification des paramètres des modèles hydrologiques, (ii) l’utilisation de plusieurs jeux de paramètres équifinaux et (iii) l’utilisation de différentes structures de modèles hydrologiques. Pour quantifier l’impact de la première source d’incertitude sur les sorties des modèles, quatre sous-périodes climatiquement contrastées sont tout d’abord identifiées au sein des chroniques observées. Les modèles sont calés sur chacune de ces quatre périodes et les sorties engendrées sont analysées en calage et en validation en suivant les quatre configurations du Different Splitsample Tests (Klemeš, 1986;Wilby, 2005; Seiller et al. (2012);Refsgaard et al. (2014)). Afin d’étudier la seconde source d’incertitude liée à la structure du modèle, l’équifinalité des jeux de paramètres est ensuite prise en compte en considérant pour chaque type de calage les sorties associées à des jeux de paramètres équifinaux. Enfin, pour évaluer la troisième source d’incertitude, cinq modèles hydrologiques de différents niveaux de complexité sont appliqués (GR4J, MORDOR, HSAMI, SWAT et HYDROTEL) sur le bassin versant québécois de la rivière Au Saumon. Les trois sources d’incertitude sont évaluées à la fois dans conditions climatiques observées passées et dans les conditions climatiques futures. Les résultats montrent que, en tenant compte de la méthode d’évaluation suivie dans ce doctorat, l’utilisation de différents niveaux de complexité des modèles hydrologiques est la principale source de variabilité dans les projections de débits dans des conditions climatiques futures. Ceci est suivi par le manque de robustesse de l’identification des paramètres. Les projections hydrologiques générées par un ensemble de jeux de paramètres équifinaux sont proches de celles associées au jeu de paramètres optimal. Par conséquent, plus d’efforts devraient être investis dans l’amélioration de la robustesse des modèles pour les études d’impact sur le changement climatique, notamment en développant les structures des modèles plus appropriés et en proposant des procédures de calage qui augmentent leur robustesse. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques du bassin Au Saumon et de proposer une démarche méthodologique originale d’analyse pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Resumo:
Les aspirateurs de turbines hydrauliques jouent un rôle crucial dans l’extraction de l’énergie disponible. Dans ce projet, les écoulements dans l’aspirateur d’une turbine de basse chute ont été simulés à l’aide de différents modèles de turbulence dont le modèle DDES, un hybride LES/RANS, qui permet de résoudre une partie du spectre turbulent. Déterminer des conditions aux limites pour ce modèle à l’entrée de l’aspirateur est un défi. Des profils d’entrée 1D axisymétriques et 2D instationnaires tenant compte des sillages et vortex induits par les aubes de la roue ont notamment été testés. Une fluctuation artificielle a également été imposée, afin d’imiter la turbulence qui existe juste après la roue. Les simulations ont été effectuées pour deux configurations d’aspirateur du projet BulbT. Pour la deuxième, plusieurs comparaisons avec des données expérimentales ont été faites pour deux conditions d’opération, à charge partielle et dans la zone de baisse rapide du rendement après le point de meilleur rendement. Cela a permis d’évaluer l’efficacité et les lacunes de la modélisation turbulente et des conditions limites à travers leurs effets sur les quantités globales et locales. Les résultats ont montrés que les structures tourbillonnaires et sillages sortant de la roue sont adéquatement résolus par les simulations DDES de l’aspirateur, en appliquant les profils instationnaires bidimensionnels et un schéma de faible dissipation pour le terme convectif. En outre, les effets de la turbulence artificielle à l’entrée de l’aspirateur ont été explorés à l’aide de l’estimation de l’intermittence du décollement, de corrélations en deux points, du spectre d’énergie et du concept de structures cohérentes lagrangiennes. Ces analyses ont montré que les détails de la dynamique de l’écoulement et de la séparation sont modifiés, ainsi que les patrons des lignes de transport à divers endroits de l’aspirateur. Cependant, les quantités globales comme le coefficient de récupération de l’aspirateur ne sont pas influencées par ces spécificités locales.
Resumo:
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
La planification de l’approvisionnement forestier est une tâche complexe nécessitant la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. Au cours des dernières années, des modèles mathématiques ont été développés pour supporter les entreprises forestières dans leur processus de planification de l’approvisionnement. Néanmoins, le nouveau régime de gestion de la ressource établi par le gouvernement implique maintenant un marché libre de bois, ce qui engendre une nouvelle source d’incertitude. Les modèles d’approvisionnement forestier développés deviennent ainsi incomplets. L’objectif de cette recherche est donc de guider les industriels forestiers dans la planification de leur approvisionnement tout en leur offrant une approche de mise optimale dans le cadre d’enchères scellées au premier prix. Pour ce faire, nous avons exploré différentes stratégies d’approvisionnement regroupant un modèle de base avec approvisionnement via le bois garanti et les enchères, un autre incluant l’achat sur terres privées et un dernier prenant en considération la collaboration entre des partenaires industriels pour la mise aux enchères. Les modèles de planification des opérations forestières élaborés cherchent à maximiser le profit d’une compagnie forestière, tout en sélectionnant la combinaison optimale de secteurs forestiers sur lesquels miser dans les ventes aux enchères. Les résultats pour le cas étudié montrent qu’une compagnie qui applique l’approche de mise optimale proposée obtient une moyenne de gain plus élevée que les autres soumissionnaires qui n’appliquent pas une telle approche. De plus, lorsque la compagnie forestière intègre dans sa planification l’approvisionnement via des forêts privées, elle peut obtenir un profit plus élevé (augmentation de 5% par rapport au modèle de base). La collaboration s’avère la stratégie d’approvisionnement qui offre le profit le plus élevé pour la compagnie tout en permettant une utilisation plus efficace de la ressource forestière.
Resumo:
Dans un contexte où l’utilisation d’un antibiotique provoque une hausse de la résistance bactérienne, ce mémoire évalue théoriquement et grâce à la simulation numérique, de quelle façon un monopoleur maximize son profit, à la suite de l’obtention d’un brevet. Du point de vue théorique, le monopoleur souhaite d’une part maximiser son profit à chaque instant et de l’autre maximiser son profit tout au long de la durée de vie de son brevet. À l’aide de la simulation numérique, la valorisation faite par le monopoleur de son antibiotique s’avère être le point central de l’analyse, de sorte que si la valorisation faite par le monopoleur est élevée, le monopoleur conserve l’efficacité de son antibiotique en diminuant la quantité produite. Dans le cas contraire, le monopoleur produira une plus grande quantité et conservera une moins grande efficacité de son antibiotique.
Resumo:
Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.
Resumo:
Ce mémoire présente un modèle mathématique et numérique pour analyser le comportement d’une unité de stockage thermique à changement de phase solide-liquide représentée par un tube autour duquel se trouve le matériau à changement de phase. Le système est soumis à une charge oscillant entre le chauffage et le refroidissement. Une analyse d’ordre de grandeur permet de prédire le comportement du système en fonction des principaux nombres adimensionnels. Un paramètre adimensionnel est proposé pour délimiter les concepts dans lesquels la conduction domine par rapport à ceux où la convection naturelle domine. L’étude dévoile l’impact des paramètres de conception de l’unité de stockage thermique sur son fonctionnement et approfondit les connaissances dans le domaine du changement de phase avec convection naturelle. Différents indicateurs ont été développés pour analyser la performance du système, tels que les dimensions de la zone affectée thermiquement, le volume fondu ou solidifié et une analyse fréquentielle. Des corrélations sont proposées pour déterminer facilement le comportement du système.
Resumo:
Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes.
Resumo:
La modélisation de la cryolite, utilisée dans la fabrication de l’aluminium, implique plusieurs défis, notament la présence de discontinuités dans la solution et l’inclusion de la difference de densité entre les phases solide et liquide. Pour surmonter ces défis, plusieurs éléments novateurs ont été développés dans cette thèse. En premier lieu, le problème du changement de phase, communément appelé problème de Stefan, a été résolu en deux dimensions en utilisant la méthode des éléments finis étendue. Une formulation utilisant un multiplicateur de Lagrange stable spécialement développée et une interpolation enrichie a été utilisée pour imposer la température de fusion à l’interface. La vitesse de l’interface est déterminée par le saut dans le flux de chaleur à travers l’interface et a été calculée en utilisant la solution du multiplicateur de Lagrange. En second lieu, les effets convectifs ont été inclus par la résolution des équations de Stokes dans la phase liquide en utilisant la méthode des éléments finis étendue aussi. Troisièmement, le changement de densité entre les phases solide et liquide, généralement négligé dans la littérature, a été pris en compte par l’ajout d’une condition aux limites de vitesse non nulle à l’interface solide-liquide pour respecter la conservation de la masse dans le système. Des problèmes analytiques et numériques ont été résolus pour valider les divers composants du modèle et le système d’équations couplés. Les solutions aux problèmes numériques ont été comparées aux solutions obtenues avec l’algorithme de déplacement de maillage de Comsol. Ces comparaisons démontrent que le modèle par éléments finis étendue reproduit correctement le problème de changement phase avec densités variables.