1000 resultados para Théorie de la Fonctionnelle de la Densité
Resumo:
L’objectif de ce mémoire est d’étudier le rôle de la politesse dans l’interaction verbale. Ce document répondra à la question de savoir si un dialogue peut rester pacifique et sans friction en absence de politesse. Une description brève de la théorie de la politesse est suivie par une analyse. L’analyse montrera toutefois qu’on ne peut pas parler d’absence complète de politesse durant toute l’entièreté d’un échange mais uniquement lors de moments très brefs de celui-ci. Ces fragments d’échange non-polis mais pacifiques se manifesteront lors de dialogues où il existe déjà une relation de confiance entre les locuteurs.
Resumo:
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.
Resumo:
Les caractéristiques physiques d’un site de nidification peuvent influencer la probabilité qu’il soit utilisé et l’issue des tentatives de nidification. La buse pattue (Buteo lagopus) construit un imposant nid, qui peut être réutilisé plusieurs années, en bordure des falaises et des versants en Arctique. Ces habitats escarpés sont perturbés par des mouvements de masse pouvant entraîner la destruction de sites critiques pour la reproduction des buses. Nous avons d’abord examiné l’effet de plusieurs variables environnementales et de la réutilisation d’un nid sur la reproduction de la buse pattue. Ensuite, nous avons évalué la vulnérabilité des nids aux mouvements de masse et identifié les facteurs environnementaux associés à la persistance des nids. L’étude s’est déroulée à l’île Bylot (Nunavut) de 2007 à 2015. La probabilité qu’un nid soit utilisé par un couple augmentait avec la distance du nid actif le plus proche, la présence d’un surplomb au-dessus du nid et la densité des lemmings. Les nids accessibles aux renards et orientés vers le nord étaient associés à un moins bon succès reproducteur. Celui-ci était aussi positivement relié à la densité estivale de lemmings et négativement relié aux précipitations. Nos résultats suggèrent que les caractéristiques physiques du site de nidification offrant un microclimat favorable et une protection contre les prédateurs reflètent des sites de haute qualité. Le succès reproducteur était similaire entre les nouveaux nids et ceux préexistants, suggérant que la construction d’un nid n’entraîne pas de coût sur la reproduction à court terme. Parmi les 82 nids connus, près du tiers ont été détruits par des mouvements de masse et parmi ceux encore intacts, la majorité sont à risque modéré et haut de l’être. La probabilité de destruction était élevée pour les nids construits sur des sédiments non consolidés et positivement associée aux fortes précipitations. La hausse anticipée des précipitations due aux changements climatiques est susceptible d’augmenter la vulnérabilité des nids aux mouvements de masse ce qui pourrait ultimement réduire la disponibilité de sites appropriés pour la reproduction de ce rapace.
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
Les conséquences associées aux changements climatiques peuvent déjà être perçues dans différents secteurs socio-économiques. Tel est le cas des zones côtières. Afin d’assurer la pérennité des populations dans les régions insulaires, différentes mesures d’adaptation côtières peuvent être utilisées. Or, ces mesures peuvent parfois manquer de vision à long terme et d’intégration de l’autre type de réaction aux changements climatiques soit l’atténuation. La difficulté à relier adaptation et atténuation est présente dans plusieurs secteurs, dont les zones côtières. La situation dans les territoires Québécois maritimes (plus précisément les côtes de la Côte-Nord, du Bas- Saint-Laurent et de la Gaspésie-Îles-de-la-Madeleine) est semblable à celle observée ailleurs, mais demeure unique étant donné la composition de ses côtes, l’évolution démographique de ces municipalités et son économie fortement basée sur le tourisme et l’industrie des pêches. Les principaux enjeux retrouvés dans ces territoires sont associés au tourisme, à l’industrie de la pêche, à la densité humaine et aux infrastructures qui en découlent ou au milieu naturel. Ces enjeux présentent différentes vulnérabilités face au changement climatique côtier auxquelles les municipalités doivent s’adapter. Les mesures d’adaptation côtières implantées au Québec peuvent être divisées en deux grandes catégories : les mesures techniques et les mesures règlementaires et politiques. Or, afin de s’adapter adéquatement les municipalités doivent faire preuve de multidisciplinarité et combiner les différentes techniques disponibles, ceci peut présenter une difficulté notable. La situation canadienne à l’extérieur du Québec est similaire pour les territoires Atlantiques Canadiens. Du côté du Pacifique, les types de menaces surviennent dans des proportions différentes à celles de l’Est. De façon générale, les provinces les plus à risques de la hausse du niveau des mers sont aussi celles qui utilisent principalement des mesures de protection d’urgence, optant pour une vision à court terme, ceci incluant le Québec. Le cadre législatif encadrant les territoires côtiers québécois du Golfe est complexe. En effet, il s’agit d’une combinaison de lois et règlements fédéraux et provinciaux qui s’entrecoupent, étant donné l’entrecroisement des compétences gouvernemental dans ce secteur. Ceci peut compliquer d’avantages le travail des municipalités québécoises. Afin de faciliter l’implantation de mesures d’adaptation considérant l’atténuation, les municipalités côtières québécoises pourraient développer un cadre d’évaluation des différentes mesures.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.
Resumo:
Les populations caractérisées par des fluctuations cycliques ont fasciné et continuent de générer un grand intérêt chez la communauté scientifique en raison de la complexité des facteurs de régulation qui en sont responsables. Plusieurs hypothèses ont été proposées pour expliquer ces fluctuations cycliques mais aucun consensus n’a encore été atteint malgré près de 100 ans de recherche. La disponibilité de la nourriture et les effets sociaux (e.g. interactions compétitives) ont été proposés comme facteurs responsables de cycles de certaines espèces. Toutefois, la prédation est probablement le facteur le plus susceptible de causer des fluctuations cycliques chez les populations fauniques en raison de son effet dépendant de la densité avec délai. Un tandem circulaire de raréfaction et densification des prédateurs et des proies par des effets directs (i.e. mortalités) seraient à l’origine des cycles d’abondance. De plus, de récentes études montrent que les effets indirects (comme le stress) de la prédation pourraient être aussi importants que les effets directs pour générer les fluctuations cycliques. Cette thèse vise à identifier les effets directs et indirects de la prédation qui affectent la population de lemmings bruns de l’Île Bylot, Nunavut, caractérisée par des cycles d’abondance de 3-4 ans. Pour ce faire, nous avons d’abord comparé la plausibilité de l’hypothèse de la limitation par nourriture vis-à-vis l’hypothèse de la prédation en déterminant la chronologie saisonnière des cycles des lemmings. Ensuite, nous avons construit en 2012-2013 une clôture de 9 ha coiffée d’un filet anti-prédateur aviaire dans lequel nous avons piégé les lemmings de 2013 à 2015. Une deuxième grille de trappage sans clôture a été utilisée à des fins de comparaisons. Ces deux grilles étaient actives dès 2008, ce qui nous a permis d’avoir un contrôle pré-expérimental pour les données démographiques (effets directs). En 2014 et 2015, nous avons récolté les fèces des lemmings dans les deux grilles de trappage afin de quantifier les métabolites d’hormones de stress. Une validation de la mesure des métabolites fécales des glucocorticoïdes (i.e. hormones de stress) a été menée afin de mesurer le stress des lemmings de façon non-invasive. Les résultats sont clairs : (1) le déclin des lemmings se produit à la fin de l’été alors que les prédateurs sont au plus fort de leur abondance et pas à la fin de l’hiver, supportant ainsi l’hypothèse de la limitation par la prédation. Nos résultats suggèrent aussi (2) que les lemmings à l’intérieur de la clôture avaient une survie plus élevée qu’à l’extérieur, favorisant ainsi une croissance plus forte de la population. Ensuite, (3) les lemmings ont montré des niveaux de stress plus faibles sans prédation sans toutefois que cela ait un impact sur leur reproduction. À la lumière des résultats de cette thèse et en les comparant avec deux autres études ayant aussi réduit expérimentalement l’abondance des prédateurs dans la toundra arctique, nous pouvons conclure que la prédation est la force trophique dominante de régulation de l’abondance des lemmings. Cette étude montre également que le stress induit par la prédation est insuffisant pour avoir un impact sur la dynamique des lemmings en été, soit pendant la saison où la prédation est maximale. Il est possible que cette absence d’effet soit une réponse adaptative des lemmings pour maintenir une reproduction élevée face à une prédation élevée, et ainsi maximiser leur aptitude phénotypique.
Resumo:
But: Le diabète est un problème important de santé publique et la complication oculaire la plus commune est la rétinopathie diabétique (RD). Certaines études indiquent que la choroïde des patients diabétiques est affectée sans signe apparent de RD. Notre hypothèse est que l’élévation du stress oxydant liée à l’hyperglycémie chronique affecte la fonction choroïdienne à un stade précoce de la RD. Nous proposons d’étudier la glycolyse, le métabolisme mitochondrial, le stress nitrosatif et la méthylation de l’ADN ainsi que de caractériser les modifications histologiques dans la choroïde diabétique. Méthodes: L’expression des gènes/protéines associés à la glycolyse, au métabolisme mitochondrial et à la production de l’oxyde nitrique a été comparée par profilage génique et immunobuvardage Western entre les choroïdes saines et diabétiques. Les niveaux globaux de méthylation et d’hydroxyméthylation de l’ADN ont été quantifiés par immunoslot blot et HPLC-MS/MS dans ces tissus. Enfin, des coupes tissulaires d’yeux de donneurs sains ou diabétiques avec RD non proliférante (RDNP) ou proliférante (RDP) ont été colorées au trichrome de Masson et au Weigert. L’épaisseur de la choroïde et de la membrane de Bruch, ainsi que la densité et le diamètre des vaisseaux sanguins choroïdiens ont été analysés. Résultats: Nos résultats montrent une dérégulation de l’expression de certains transcrits de la choroïde diabétique, mais peu de différences au niveau de l’expression protéique des cibles validées. Le niveau global de méthylation de l’ADN est similaire entre les donneurs sains et diabétiques. Nos analyses histologiques démontrent une diminution de l’épaisseur de la choroïde et une dégénérescence des choriocapillaires et des veines/veinules chez les donneurs diabétiques atteints de RDP. Conclusions: L’étude de la choroïde est importante, car l’atteinte de ce tissu a de graves répercussions sur la fonction rétinienne. L’identification de cibles dans la choroïde ouvre de nouvelles perspectives pour un traitement préventif de la RD.
Resumo:
Depuis que la haute énantiopureté est nécessaire dans l’industrie pharmaceutique, les études visant à découvrir les mécanismes pour l’hydrogénation énantiosélective de cétones ou céto-esters sur les surfaces, et à rechercher de nouveaux et plus performants catalyseurs asymétriques, sont d’une grande importance. La microscopie à effet tunnel (STM), la spectroscopie infrarouge de réflexion-absorption, la spectroscopie de désorption à température programmée et la spectrométrie de photoélectrons induits par rayons X sont des méthodes performantes facilitant la compréhension des mécanismes de réaction. En plus de nous permettre de comprendre les mécanismes réactionnels, les études peuvent fournir des informations sur la dynamique des réactions en catalyse hétérogène ainsi que sur le développement de la théorie de la fonctionnelle de la densité (DFT) afin de calculer des interactions faibles dans les processus de surface. D’autres parts, les calculs DFT fournissent une aide essentielle à l’interprétation des données de STM et spectroscopie de surface. Dans cette thèse, certains cétones et céto-esters sur la surface de platine sont étudiées par les techniques sophistiquées mentionnées ci-dessus. Mes études démontrent que la combinaison de l’utilisation de la spectroscopie de routine, des nanotechnologies et de nombreux calculs élaborés, est une méthode efficace pour étudier les réactions à la surface car ces techniques explorent les différents aspects de la surface ainsi que s’entraident mutuellement lors de certaines interprétations.
Resumo:
[...]L'objectif précis de la présente recherche est d'observer si une caractéristique du développement psychologique des individus - la différenciation psychologique - exerce une influence sur les préférences interpersonnelles que se manifestent entre eux des élèves dans le cadre de quelques-unes de leurs activités sociales sur les lieux de leur institution d'enseignement. Il s'agit plus particulièrement de vérifier si la différenciation psychologique constitue une caractéristique individuelle associée au statut sociométrique - établi selon un critère de popularité - d'élèves québécois francophones, de niveau secondaire IV, observés en situation de travail en équipe lors d'une classe de français et lors d'une classe de physique. Une autre situation qui est considérée dans la présente recherche concerne les relations sociales entre des élèves à la cafétéria, à l'heure du repas. Dans toutes ces situations d'interaction sociale, nous nous intéressons donc à étudier le rôle particulier d'une caractéristique individuelle susceptible d'influencer la désirabilité sociale de l’individu. L'idée de considérer la variable qu'est la différenciation psychologique comme étant particulièrement importante dans cette recherche découle de deux raisons principales. La première de ces raisons se rapporte au fait que la théorie qui est rattachée à cette variable, la théorie de la différenciation psychologique, a déjà suscité l'intérêt d'un grand nombre de recherches dans les domaines de l'étude de la personnalité et des comportements interpersonnels et qu'il existe aussi à ce sujet quelques travaux sur l'étude de l'attirance interpersonnelle dans des classes d'élèves. Pour cette raison, nous pouvons tenter ici de pousser plus loin la démarche entreprise par d'autres chercheurs. La seconde raison concerne le fait qu'il s'agit d'une variable psychologique dont la relation a déjà été étudiée en regard de quelques matières d'enseignement scolaire et aussi en regard de la mesure de l'intelligence. Des recherches effectuées dans le domaine scolaire révèlent par exemple que la mesure de la différenciation psychologique peut servir à estimer quel sera le rendement académique des élèves quant aux matières d'enseignement faisant appel à des habiletés d'analyse et de raisonnement mathématique. [...]
Resumo:
Cette étude visait à caractériser la croissance, la capacité photosynthétique, la concentration en azote et protéines totales solubles, la production de protéines recombinantes (HA) ainsi que la quantité de lumière interceptée à différents stades de développement de plants de Nicotiana benthamiana afin d’optimiser la production de vaccins. L’évolution des réponses physiologiques étudiées fut similaire chez toutes les feuilles primaires, suggérant que le processus de sénescence s’initie et progresse de façon semblable indépendamment de leur ordre d’initiation. Toutefois, la superposition des patrons temporels de sénescence et de croissance foliaire a mené à un rendement HA maximal se situant invariablement dans la partie médiane du plant lorsqu’exprimé sur une base foliaire. À l’échelle du plant entier, nos résultats suggèrent qu’il est possible d’augmenter la production de vaccins en récoltant les plants à un stade de développement plus tardif, ou en augmentant la densité de culture et en récoltant ces plants plus tôt.
Resumo:
Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.