8 resultados para Diète
em Université Laval Mémoires et thèses électroniques
Resumo:
Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.
Resumo:
La maladie d’Alzheimer (MA) est la maladie neurodégénérative qui cause le plus important nombre de cas de démence. On estime que près de 15% des canadiens âgés de plus de 65 ans sont atteints de la MA. Avec le vieillissement de la population, le nombre de cas augmentera de manière substantielle dans les prochaines années. À l’heure actuelle, aucun traitement ne permet de ralentir la progression de la maladie. Pour plus de 99% des cas, ses causes exactes demeurent indéterminées. Toutefois, de nombreux facteurs de risque ont été identifiés. Parmi eux, on retrouve plusieurs facteurs liés au métabolisme énergétique dont l’obésité et le diabète de type 2 (DT2). De manière intéressante, des modifications du métabolisme, telles qu’une résistance à l’insuline centrale et périphérique, sont également observées chez les patients Alzheimer. Afin de mieux comprendre l’interaction entre le DT2 et la MA, nous avons d’abord étudié les altérations métaboliques chez la souris triple transgénique (3xTg-AD), un modèle murin de la MA. Nous avons, en premier lieu, observé une intolérance au glucose qui progresse avec l’âge, qui est plus importante chez les femelles et qui semble liée à l’accumulation du peptide beta-amyloïde (Aβ) humain dans le pancréas. Ensuite, nous avons nourri cette souris avec une diète riche en gras pour vérifier l’impact d’une aggravation des déficits métaboliques sur la pathologie Alzheimer. L’aggravation de l’intolérance au glucose chez les souris 3xTg-AD semblait liée à l’atrophie des îlots de Langerhans et, en conséquence, à une réduction de la production d’insuline en réponse à l’injection de glucose. En plus de l’aggravation des déficits métaboliques, la diète riche en gras a augmenté de manière drastique l’accumulation de la forme soluble du peptide Aβ dans le cortex et a déterioré la mémoire des souris 3xTg-AD. De manière intéressante, l’élévation du peptide Aβ et les troubles de la mémoire ont été rétablis par l’administration d’une seule dose d’insuline. Aussi, nous avons observé une augmentation du peptide Aβ dans le plasma 30 minutes à la suite de l’injection d’insuline, suggérant qu’il est possible que la baisse rapide du peptide soit en partie causée par une élévation de la clairance du peptide au cerveau. Ces résultats renforcent les évidences supportant le potentiel thérapeutique de l’insuline dans le traitement de la MA. Toutefois, les résultats chez les patients mettent en lumière l’inefficacité de l’administration intranasale d’insuline chez les porteurs de l’allèle 4 du gène de l’apolipoprotéine E (APOE4). Afin de comprendre les raisons qui expliquent cette différence de réponse à l’insuline chez les porteurs de l’APOE4, nous avons injecté des souris exprimant l’APOE3 et l’APOE4 humain avec de l’insuline dans le but de vérifier l’effet central et périphérique de l’insuline chez ces animaux. Les souris APOE4 montrent une plus importante élévation de la signalisation de l’insuline au cerveau comparativement aux souris APOE3. Cette plus haute réponse est aussi associée à une élévation plus importante de la phosphorylation de la protéine tau, un marqueur neuropathologique de la MA. En somme, ces résultats suggèrent qu’il existe un cercle vicieux entre la MA et le DT2. L’administration d’insuline a un potentiel thérapeutique intéressant pour la MA, malgré des effets limités chez les patients APOE4 en raison de son impact probable sur la phosphorylation de la protéine tau.
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
La métaphore-interaction est présentée comme point de jonction entre la science et la théologie ou plus concrètement entre le scientifique et le monde religieux. La dimension analogique des modèles et des théories montre bien la place de la métaphore dans le discours scientifique. À l’instar de la réalité amoureuse, esthétique et poétique, la réalité religieuse ne peut être dite qu’en utilisant des symboles et des métaphores. Cette étude comparée montre également qu’un glissement de la métaphore vers une lecture littérale ou absolue entraîne une déviation herméneutique qui généralement ferme toute accès vers la nouveauté donc vers la vérité ineffable. Pour éviter cette absolutisation et cette dogmatisation, nous affirmons qu’il faut conserver aux mythes et aux métaphores religieuses leur polysémanticité et donc refuser de les réduire à un sens unique, univoque et bien défini de la lecture littérale. Nous espérons par cette mise au point, que des scientifiques et des habitants de la culture scientifique contemporaine en rupture avec les croyances chrétiennes, pourront trouver dans la théopoésie un nouveau paradigme permettant de ouvrir un nouveau dialogue avec l’univers religieux.
Resumo:
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.
Resumo:
Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.
Resumo:
Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.
Resumo:
Il est reconnu que la consommation d’acides gras (AG) oméga-3 (n-3) d’origine marine est bénéfique pour la prévention des maladies cardiovasculaires (MCV), notamment en raison de leurs effets hypotriglycéridémiants. Toutefois, il existe une importante hétérogénéité dans la réponse des triglycérides (TG) plasmatiques à une supplémentation en AG n-3 et ce phénomène est en partie attribuable à des facteurs génétiques. Notre groupe de recherche a récemment réalisé une étude d’association à l’échelle du génome (GWAS) sur les participants de l’étude Fatty Acid Sensor (FAS), qui a permis d’identifier plusieurs loci associés à la réponse des TG suite à une supplémentation de 3g d’AG n-3 par jour. La plupart de ces loci sont localisés dans les gènes IQCJ, NXPH1, PHF17 et MYB. Des effets du génotype ainsi que des interactions gène-diète ont été observés avec plusieurs polymorphismes nucléotidiques simples (SNPs) des quatre gènes candidats. Ces résultats suggèrent que des variations génétiques à l’intérieur de gènes identifiés par GWAS peuvent expliquer en partie la variabilité de la réponse des TG plasmatiques à une supplémentation en AG n-3 d’origine marine.