974 resultados para Modèle de coûts énergétiques de nage
Resumo:
La muqueuse intestinale est exposée à des agents oxydants provenant de l’ingestion d’aliments modifiés, de cellules immuno-inflammatoires et de la flore intestinale. Une diète élevée en fruits et légumes peut diminuer le stress oxydant (SOx) ainsi que l’inflammation via plusieurs mécanismes. Ces effets bénéfiques peuvent être attribuables à leur contenu élevé en polyphénols. La première étude de mon doctorat consistait à tester l’hypothèse que les polyphénols extraits de pelures de pomme (DAPP) pouvaient diminuer le stress oxydant et l'inflammation impliqués dans les maladies inflammatoires de l'intestin (MII). Nous avons caractérisé les polyphénols des DAPP par spectrométrie de masse (LC-MS) et examiné leur potentiel antioxydant et anti-inflammatoire au niveau des cellules intestinales. L’identification des structures chimiques des polyphénols a été effectuée par LC-MS. Le SOx a été induit par l’ajout du complexe fer/ascorbate (Fe/Asc, 200 µM/2 mM) et l’inflammation par la lipopolysaccharide (LPS, 200µg/mL) à des cellules intestinales Caco-2/15 pré-incubées avec les DAPP (250 µg/mL). L’effet du SOx est déterminé par le dosage du malondialdéhyde (MDA), de la composition des acides gras polyinsaturés et de l’activité des enzymes antioxydantes endogènes (SOD et GPx). L’impact des DAPP sur l’inflammation a été testé par l’analyse de l’expression des marqueurs inflammatoires: cyclooxygénase-2 (COX-2), le facteur de nécrose tumorale alpha (TNF-a et l’interleukine-6 (IL-6) et les facteurs de transcription NF-KB, Nrf-2 et PGC1α par immunobuvardage. Nos données ont montré que les flavonols et les flavan-3-ols constituent les composés polyphénoliques majoritaires des DAPP. L’ajout de Fer2+/Asc a provoqué une augmentation de la peroxidation lipidique comparativement aux cellules contrôles, un appauvrissement des acides gras polyinsaturés n-3 et n-6, et une modulation des enzymes antioxydantes, se traduisant par une augmentation de l’activité de la SOD et une diminution de la GPx. En contrepartie, les DAPP ont exhibé leur potentiel à corriger la plupart des perturbations, y compris l’expression protéique anormalement élevée du COX-2 et la production de la prostaglandine E2 (PGE2), ainsi que l’inflammation telle que réflétée par les facteurs NF-κB, TNF-α et IL-6. Par ailleurs, les mécanismes sous-jacents à ces changements bénéfiques des DAPP ont fait intervenir les facteurs de transcription antioxydants (Nrf-2, PGC1α). Vraisemblablement, cette première étude a permis de démontrer la capacité des DAPP à amoindrir le SOx et à réduire l’inflammation, deux processus étroitement impliqués dans les MII. Dans la deuxième étape de mon doctorat, nous avons voulu comparer les résultats de DAPP à ceux des polyphénols dérivant de la canneberge qui est considérée par la communauté scientifique comme le fruit ayant le plus fort potentiel antioxydant. À cette fin, nous avons caractérisé l’effet des composés polyphénoliques de la canneberge (CPC) sur le SOx, la défense antioxydante et l’inflammation au niveau intestinal tout en définissant leur métabolisme intraluminal. Les différents CPC ont été séparés selon leur poids moléculaire par chromatographie et leurs structures chimiques ont été identifiées par LC-MS. Suite à une pré-incubation des cellules Caco-2/15 avec les extraits CPC (250 µg/mL), le Fe/Asc et la LPS ont été administrés comme inducteurs du SOx et de l’inflammation, respectivement. La caractérisation globale des CPC a révélé que les acides phénoliques composaient majoritairement l’extrait de canneberge de petit poids moléculaire (LC) alors que les flavonoïdes et les procyanidines dimériques/trimériques représentaient l’extrait de poids moléculaire moyen (MC) tout en laissant les procyanidines oligo et polymériques à l’extrait de haut poids moléculaire (HC). Les CPC ont permis de restaurer la plupart des perturbations engendrées dans les Caco-2/15 par le Fe/Asc et le LPS. Les CPC exhibaient le potentiel d’abaisser les niveaux de MDA, de corriger la composition des acides gras polyinsaturés n-3 et n-6, d’augmenter l’activité des enzymes antioxydantes (SOD, GPx et CAT) et d’élever l’expression de Nrf2 et PGC1α. En outre, les CPC pouvaient aussi réduire les niveaux élevés des protéines inflammatoires COX-2, TNF-α et IL-6 ainsi que la production des PGE2 par un mécanisme impliquant le NF-κB. Au niveau mitochondrial, les procyanidines oligomériques ont réussi à corriger les dysfonctions reliées à la production d’énergie (ATP), l’apoptose (Bcl-2, Cyt C et AIF) et le statut des facteurs de transcription mitochondriaux (mtTFA, mtTFB1, mtTFB2). Dans le but de bien comprendre les mécanismes d’action des CPC, nous avons défini par LC-MS les composés polyphénoliques qui ont été transportés ou absorbés par l’entérocyte. Nos analyses soulignent le transport (i) des acides cinnamiques et benzoïques (LC); (ii) la quercétine glycosylée et conjuguée et les procyanidines dimériques de type A (MC); et (iii) l’épicatéchine et les procyanidines oligomériques (HC). Les processus de métabolisation (méthylation, glucuronidation et sulfatation) au niveau de l’entérocyte ont probablement permis le transport de ces CPC surtout sous leur forme conjuguée. Les procyanidines oligomériques ayant un degré de polymérisation supérieur à 2 (HC) ont semblé adhérer aux cellules Caco-2/15. L’épicatéchine suivi par les procyanidines dimériques de type A ont été trouvés majoritaires au niveau des mitochondries. Même si nous ignorons encore l’action biologique de chaque composé polyphénolique, nous pouvons suggérer que leurs effets combinatoires exercent des fonctions antioxydantes, anti-inflammatoires et mitochondriales dans le modèle intestinal Caco-2/15. Dans une troisième étape, nous avons procédé à l’évaluation des aspects préventifs et thérapeutique des DAPP tout en sondant les mécanismes sous-jacents dans une étude préclinique. À cette fin, nous avons exploité le modèle de souris avec colite expérimentale provoquée par le Dextran Sulfate de Sodium (DSS). L’induction de l’inflammation intestinale chez la souris C57BL6 a été effectuée par l’administration orale de DSS à 2.5% pendant 10 jours. Des doses physiologiques et supra-physiologiques de DAPP (200 et 400 mg/kg/j, respectivement) ont été administrées par gavage pendant 10 jours pré- et post-DSS. L’inflammation par le DSS a provoqué une perte de poids, un raccourcissement du côlon, le décollement dystrophique de l’épithélium, l’exulcération et les infiltrations de cellules mono et polynucléaires au niveau du côlon. De plus, le DSS a induit une augmentation de la peroxidation lipidique, une régulation à la baisse des enzymes antioxydantes, une expression protéique à la hausse de la myéloperoxidase (MPO), du COX-2 et de la production des PGE2. Par ailleurs, les DAPP ont permis de corriger ou du moins d’alléger la plupart de ces anomalies en situation préventive ou thérapeutique, en plus d’abaisser l’expression protéique de NF-κB et des cytokines inflammatoires (TNF-a et l’IL-6) tout en stimulant les facteurs de transcription antioxydants (Nrf-2, PGC1α). Conséquemment, les polyphénols des DAPP ont exhibé leur puissant pouvoir antioxydant et anti-inflammatoire au niveau intestinal dans un modèle in vivo. Leurs actions sont associées à la régulation des voies de signalisation cellulaire et des changements dans la composition du microbiote. Ces trois projets de recherche permettent d’envisager l’évaluation des effets préventifs et thérapeutiques des DAPP cliniquement chez les patients avec des désordres inflammatoires de l’intestin.
Resumo:
Les antimoniures sont des semi-conducteurs III-V prometteurs pour le développement de dispositifs optoélectroniques puisqu'ils ont une grande mobilité d'électrons, une large gamme spectrale d'émission ou de détection et offrent la possibilité de former des hétérostructures confinées dont la recombinaison est de type I, II ou III. Bien qu'il existe plusieurs publications sur la fabrication de dispositifs utilisant un alliage d'In(x)Ga(1-x)As(y)Sb(1-y) qui émet ou détecte à une certaine longueur d'onde, les détails, à savoir comment sont déterminés les compositions et surtout les alignements de bande, sont rarement explicites. Très peu d'études fondamentales sur l'incorporation d'indium et d'arsenic sous forme de tétramères lors de l'épitaxie par jets moléculaires existent, et les méthodes afin de déterminer l'alignement des bandes des binaires qui composent ces alliages donnent des résultats variables. Un modèle a été construit et a permis de prédire l'alignement des bandes énergétiques des alliages d'In(x)Ga(1-x)As(y)Sb(1-y) avec celles du GaSb pour l'ensemble des compositions possibles. Ce modèle tient compte des effets thermiques, des contraintes élastiques et peut aussi inclure le confinement pour des puits quantiques. De cette manière, il est possible de prédire la transition de type de recombinaison en fonction de la composition. Il est aussi montré que l'indium ségrègue en surface lors de la croissance par épitaxie par jets moléculaires d'In(x)Ga(1-x)Sb sur GaSb, ce qui avait déjà été observé pour ce type de matériau. Il est possible d'éliminer le gradient de composition à cette interface en mouillant la surface d'indium avant la croissance de l'alliage. L'épaisseur d'indium en surface dépend de la température et peut être évaluée par un modèle simple simulant la ségrégation. Dans le cas d'un puits quantique, il y aura une seconde interface GaSb sur In(x)Ga(1-x)Sb où l'indium de surface ira s'incorporer. La croissance de quelques monocouches de GaSb à basse température immédiatement après la croissance de l'alliage permet d'incorporer rapidement ces atomes d'indium et de garder la seconde interface abrupte. Lorsque la composition d'indium ne change plus dans la couche, cette composition correspond au rapport de flux d'atomes d'indium sur celui des éléments III. L'arsenic, dont la source fournit principalement des tétramères, ne s'incorpore pas de la même manière. Les tétramères occupent deux sites en surface et doivent interagir par paire afin de créer des dimères d'arsenic. Ces derniers pourront alors être incorporés dans l'alliage. Un modèle de cinétique de surface a été élaboré afin de rendre compte de la diminution d'incorporation d'arsenic en augmentant le rapport V/III pour une composition nominale d'arsenic fixe dans l'In(x)Ga(1-x)As(y)Sb(1-y). Ce résultat s'explique par le fait que les réactions de deuxième ordre dans la décomposition des tétramères d'arsenic ralentissent considérablement la réaction d'incorporation et permettent à l'antimoine d'occuper majoritairement la surface. Cette observation montre qu'il est préférable d'utiliser une source de dimères d'arsenic, plutôt que de tétramères, afin de mieux contrôler la composition d'arsenic dans la couche. Des puits quantiques d'In(x)Ga(1-x)As(y)Sb(1-y) sur GaSb ont été fabriqués et caractérisés optiquement afin d'observer le passage de recombinaison de type I à type II. Cependant, celui-ci n'a pas pu être observé puisque les spectres étaient dominés par un niveau énergétique dans le GaSb dont la source n'a pu être identifiée. Un problème dans la source de gallium pourrait être à l'origine de ce défaut et la résolution de ce problème est essentielle à la continuité de ces travaux.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.
Resumo:
Les entreprises qui se servent des technologies de l’information et de la communication (TIC) pour innover mesurent des impacts très inégaux sur leurs performances. Cela dépend principalement de l’intensité, l’ampleur et la cohérence de l’innovation systémique auxquelles elles procèdent. En l’état de la connaissance, la littérature identifie le besoin de mieux comprendre cette notion d’alignement systémique. Cette thèse propose d’aborder cette question à l’aide de la notion d’innovation du modèle d’affaires. Une revue systématique de la littérature a été réalisée. D’un point de vue conceptuel, elle contribue à mieux définir le concept de modèle d’affaires, et a permis de réaliser une typologie des différents cadres de modélisation d’affaires. Le cadre conceptuel qui en est issu aborde le sujet de l’innovation du modèle d’affaires à trois niveaux : (1) stratégique à travers la proposition d’une matrice de positionnement de l’innovation de modèle d’affaires et l’identification de trajectoires d’innovation ; (2) configuration du modèle d’affaires à l’aide du cadre de modélisation tétraédrique de Caisse et Montreuil ; et (3) opérationnel-tactique par l’analyse des facteurs clés de succès et des chaines structurantes. Du fait du caractère émergeant de la littérature sur le sujet, la méthodologie choisie est une étude de cas comparés. Trois études de cas d’entreprises québécoises ont été réalisées. Elles oeuvrent dans des secteurs variés, et ont procédé à une innovation significative de leur modèle d’affaires en s’appuyant sur des TIC,. La recherche conclut à la pertinence de l’utilisation du concept de modèle d’affaires en ce qui concerne l’analyse de l’alignement systémique dans un contexte d’innovation appuyée sur les TIC. Neuf propositions de recherche sont énoncées et ouvrent la voie à de futures recherches
Resumo:
'Theory', 'hypothesis', 'model' and 'method' in linguistics: Semasiological and onomasiological perspectives The subject of this thesis is the use of generic scientific terms, in particular the four terms 'theory', 'hypothesis', 'model' and 'method', in linguistic research articles written in French and in Finnish. The thesis examines the types of scientific constructs to which these terms are applied, and seeks to explain the variation in the use of each term. A second objective of the thesis is to analyze the relationships among these terms, and the factors determining the choices made by writers. With its focus on the authentic use of generic scientific terms, the thesis complements the normative and theoretical descriptions of these terms in Science Studies and offers new information on actual writing practices. This thesis adheres to functional and usage-based linguistics, drawing its theoretical background from cognitive linguistics and from functional approaches to terminology. The research material consisted of 120 research articles (856 569 words), representing different domains of linguistics and written in French or Finnish (60 articles in each language). The articles were extracted from peer-reviewed scientific journals and were published between 2000 and 2010. The use of generic scientific terms in the material has been examined from semasiological and onomasiological perspectives. In the first stage, different usages related to each of the four central terms were analyzed. In the second stage, the analysis was extended to other terms and expressions, such as 'theoretical framework', 'approach' and ‘claim’, which were used to name scientific constructs similar to the four terms analyzed in the first stage. Finally, in order to account for the writer’s choice among the terms, a mixed methods approach was adopted, based on the results of a previously conducted questionnaire concerning the differences between these terms as experienced by linguists themselves. Despite the general ideal that scientific terms should be carefully defined, the study shows that the use of these central terms is not without ambiguity. What is understood by these terms may vary according to different conceptual and stylistic factors as well as epistemic and disciplinary traditions. In addition to their polysemy, the semantic potentials of these terms are in part overlapping. In most cases, the variation in the use of these terms is not likely to cause serious misunderstanding. Rather, it allows the researcher to express a specific conceptualization of the scientific constructs mentioned in the article. The discipline of linguistics, however, would benefit from a more elaborate metatheoretical discussion.
Resumo:
Dans un premier chapitre, nous décrivons un modèle de formation d’image affichée sur un écran en revenant sur les concepts que sont la lumière, la géométrie et l’optique. Nous détaillons ensuite les différentes techniques d’affichage stéréoscopique utilisées à l’heure actuelle, en parcourant la stéréoscopie, l’autostéréoscopie et plus particulièrement le principe d’imagerie intégrale. Le deuxième chapitre introduit un nouveau modèle de formation d’image stéréoscopique. Ce dernier nous permet d’observer deux images d’une paire stéréoscopique soumises à des éventuelles transformations et à l’effet d’une ou de plusieurs optiques particulières, pour reproduire la perception de trois dimensions. Nous abordons l’aspect unificateur de ce modèle. En effet il permet de décrire et d’expliquer de nombreuses techniques d’affichage stéréoscopique existantes. Enfin, dans un troisième chapitre nous discutons d’une méthode particulière de création de paires d’images stéréoscopiques à l’aide d’un champ lumineux.
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
Depuis 2010, le modèle Réponse à l'intervention (RàI) est de plus en plus prescrit dans les cadres de référence en orthopédagogie des commissions scolaires du Québec (Boudreau et Allard, 2015). D'abord, pour identifier les élèves susceptibles de présenter un trouble d'apprentissage et, parallèlement, pour organiser des services adaptés aux besoins des élèves en difficulté d'apprentissage incluant ceux intégrés à la classe ordinaire. Ce modèle, validé par la recherche s’opérationnalise, entre autres, par l'approche résolution de problème et celle par protocole standardisé (Fuchs et Fuchs, 2007; Marshall, 2010). Ces approches permettent de préciser la pratique pédagogique et orthopédagogique en déterminant puis hiérarchisant les modalités d'intervention et d'évaluation auprès des élèves ciblés en intensification. Or, ce modèle ne définit pas, à l’heure actuelle, la structure collaborative devant être déployée entre l’orthopédagogue et l’enseignant, deux acteurs importants impliqués dans ce modèle d’identification des troubles d'apprentissage (Barnes et Harlacher, 2008), ce qui nous amène à nous intéresser aux pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un contexte d'implantation du modèle RàI. Dans le cadre de ce mémoire, nous visons ainsi à mieux documenter et définir les pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un tel contexte. Pour ce faire, des entretiens semi-dirigés ont été menés afin d'identifier les pratiques de collaboration utilisées, et dégager celles considérées comme exclusives, communes ou conflictuelles. Au total, 30 thèmes ont été identifiés et 85 pratiques sont réparties dans les différents niveaux du modèle RàI.
Resumo:
Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.
Resumo:
Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.