25 resultados para Décharge à pression atmosphérique
em Université Laval Mémoires et thèses électroniques
Resumo:
Environ 90% des composés produits industriellement sont fabriqués à l’aide de catalyseurs. C’est pourquoi la conception de catalyseurs toujours plus performants pour améliorer les procédés industriels actuels est toujours d’intérêt. De la grande variété de complexes avec des métaux de transition rapportés jusqu’à présent, les complexes zwitterioniques attirent notre attention par leurs activités catalytiques souvent supérieures aux complexes cationiques normaux. Un complexe métallique zwitterionique est un fragment métal-ligand neutre où la charge positive est située sur le centre métallique et où la charge négative est délocalisée sur un des ligands liés au métal. Nous proposons la synthèse de ligands anioniques phosphine comportant des groupements borates et boratabenzènes. Cette dernière espèce est un cycle à 6 membres où l’un des atomes de carbone est remplacé par un atome de bore et qui est négativement chargé. La capacité de ces phosphines anioniques à se lier à un centre métallique à l’aide de la paire libre du phosphore est due à la nature du lien P-B qui défavorise l’interaction entre la paire libre du phosphore et l’orbitale p vide du bore. Les propriétés de di-tert-butylphosphido-boratabenzène (DTBB) comme ligand phosphine anionique hautement donneur et encombré ainsi que la découverte de ses modes de coordination inhabituels pour stabiliser les métaux de transition insaturés ont été étudiés au cours de ce travail. De nouvelles perspectives sur les modes de coordination de phosphido-boratabenzène et la force de l’interaction du lien P-B seront discutées ainsi que les applications catalytiques. Nous avons d’abord étudié la coordination η1 avec des complexes de fer, ce qui nous a fourni des données quantitatives précieuses sur la capacité du DTBB d’agir comme ligand très donneur par rapport aux autres ligands donneurs bien connus. La capacité du DTBB à changer de mode de coordination pour soutenir les besoins électroniques du métal a été démontrée par la découverte d’une nouvelle espèce ferrocenyl phosphido-boratabenzène et sa nucléophilie a été étudiée. Au meilleur de notre connaissance, aucun exemple d’un ligand boratabenzène coordonné aux métaux du groupe 11 n’existe dans la littérature. Voilà pourquoi nous avons décidé d’explorer les modes de coordination du ligand DTBB avec Cu(I), Ag(I) et Au(I). A notre grande surprise, le ligand DTBB est capable de stabiliser les métaux du groupe 11 aux états d’oxydation faibles par une liaison MP qui est une coordination du type η1, un mode de coordination guère observé pour les ligands boratabenzène. Pendant nos travaux, notre attention s’est tournée vers la synthèse d’un complexe de rhodium(I) afin de tester son utilité en catalyse. A notre grande satisfaction, le complexe Rh-DTBB agit comme un précatalyseur pour l’hydrogénation des alcènes et alcynes à la température ambiante et à pression atmosphérique et son activité est comparable à celle du catalyseur de Wilkinson. Dans un désir d’élargir les applications de notre recherche, notre attention se tourna vers l’utilisation des composés du bore autres que le boratabenzène. Nous avons décidé de synthétiser une nouvelle espèce phosphido-borate encombrée. Lorsqu’elle réagit avec des métaux, l’espèce phosphido-borate subit un clivage de la liaison P-B. Toutefois, cette observation met en évidence la singularité et les avantages de la stabilité de la liaison P-B lors de l’utilisation du fragment boratabenzène. Ces observations enrichissent notre compréhension des conditions dans lesquelles la liaison P-B du ligand DTBB peut être clivée. Ces travaux ont mené à la découverte d’un nouveau ligand ansa-boratabenzène avec une chimie de coordination prometteuse.
Resumo:
Les graines de lin sont des oléagineux largement cultivés au Canada. Cependant, les résidus générés suite au processus d’extraction de l’huile contiennent une importante quantité de protéines et peuvent être valorisées dans l’alimentation humaine en raison, principalement, de certaines fractions peptidiques possédant des propriétés bioactives. Dans le cadre de ce travail, l’influence des hautes pressions hydrostatiques (HPH) sur un isolat de protéines de lin a été étudiée concernant les modifications de la structure protéique, l’hydrolyse enzymatique ainsi que l’activité antioxydante des hydrolysats. Ainsi, des solutions protéiques de lin (1% m/v) ont été soumises à un traitement de HPH à 600 MPa pendant 5 et 20 minutes, à 20°C et comparés à des échantillons non-pressurisés. Deux traitements subséquents d’hydrolyse ont été effectués suite au traitement ou non de pressurisation : une première hydrolyse trypsique suivie d’une deuxième par la pronase. Dans un premier temps, la caractérisation de l’isolat protéique de lin pressurisé et non pressurisé a été réalisée par spectrofluorimétrie et par une analyse de la taille des particules afin d’étudier l’effet de la pressurisation sur les HPH la matrice protéique végétale. Par la suite, les hydrolysats protéiques ont été caractérisés par HPLC-MS et leur capacité antioxydante a été déterminée par ORAC. Les résultats ont démontré que le niveau de pressurisation et la durée du traitement ont un impact sur la structure protéique en induisant la dissociation des protéines, et la formation d’agrégats. Ceux-ci seraient occasionnés par la décompression ou créés durant l’entreposage des isolats. Suite à l’hydrolyse enzymatique des solutions protéiques pressurisées ou non par la trypsine seule et par la trypsine-pronase, les analyses chromatographiques ont révélé que la concentration de certains peptides a été modifiée lorsque la trypsine seule était utilisée après un traitement à HPH. Enfin, les HPH ont amélioré la capacité antioxydante des hydrolysats obtenus lors de l’hydrolyse trypsine-pronase comparativement au contrôle non-pressurisé.
Resumo:
La carbonatation minérale dans les résidus miniers est un moyen sûr et permanent de séquestrer le CO2 atmosphérique. C’est un processus naturel et passif qui ne nécessite aucun traitement particulier et donc avantageux d’un point de vue économique. Bien que la quantité de CO2 qu’il soit possible de séquestrer selon ce processus est faible à l’échelle globale, dans le cadre d’un marché du carbone, les entreprises minières pourraient obtenir des crédits et ainsi revaloriser leurs résidus. À l’heure actuelle, il y a peu d’informations pour quantifier le potentiel de séquestration du CO2 de façon naturelle et passive dans les piles de résidus miniers. Il est donc nécessaire d’étudier le phénomène pour comprendre comment évolue la réaction à travers le temps et estimer la quantité de CO2 qui peut être séquestrée naturellement dans les piles de résidus. Plusieurs travaux de recherche se sont intéressés aux résidus miniers de Thetford Mines (Québec, Canada), avec une approche principalement expérimentale en laboratoire. Ces travaux ont permis d’améliorer la compréhension du processus de carbonatation, mais ils nécessitent une validation à plus grande échelle sous des conditions atmosphériques réelles. L’objectif général de cette étude est de quantifier le processus de carbonatation minérale des résidus miniers sous des conditions naturelles, afin d’estimer la quantité de CO2 pouvant être piégée par ce processus. La méthodologie utilisée repose sur la construction de deux parcelles expérimentales de résidus miniers situées dans l’enceinte de la mine Black Lake (Thetford Mines). Les résidus miniers sont principalement constitués de grains et de fibres de chrysotile et lizardite mal triés, avec de petites quantités d’antigorite, de brucite et de magnétite. Des observations spatiales et temporelles ont été effectuées dans les parcelles concernant la composition et la pression des gaz, la température des résidus, la teneur en eau volumique, la composition minérale des résidus ainsi que la chimie de l’eau des précipitations et des lixiviats provenant des parcelles. Ces travaux ont permis d’observer un appauvrissement notable du CO2 dans les gaz des parcelles (< 50 ppm) ainsi que la précipitation d’hydromagnésite dans les résidus, ce qui suggère que la carbonatation minérale naturelle et passive est un processus potentiellement important dans les résidus miniers. Après 4 ans d’observations, le taux de séquestration du CO2 dans les parcelles expérimentales a été estimé entre 3,5 et 4 kg/m3/an. Ces observations ont permis de développer un modèle conceptuel de la carbonatation minérale naturelle et passive dans les parcelles expérimentales. Dans ce modèle conceptuel, le CO2 atmosphérique (~ 400 ppm) se dissout dans l’eau hygroscopique contenue dans les parcelles, où l’altération des silicates de magnésium forme des carbonates de magnésium. La saturation en eau dans les cellules est relativement stable dans le temps et varie entre 0,4 et 0,65, ce qui est plus élevé que les valeurs de saturation optimales proposées dans la littérature, réduisant ainsi le transport de CO2 dans la zone non saturée. Les concentrations de CO2 en phase gazeuse, ainsi que des mesures de la vitesse d’écoulement du gaz dans les cellules suggèrent que la réaction est plus active près de la surface et que la diffusion du CO2 est le mécanisme de transport dominant dans les résidus. Un modèle numérique a été utilisé pour simuler ces processus couplés et valider le modèle conceptuel avec les observations de terrain. Le modèle de transport réactif multiphase et multicomposant MIN3P a été utilisé pour réaliser des simulations en 1D qui comprennent l’infiltration d’eau à travers le milieu partiellement saturé, la diffusion du gaz, et le transport de masse réactif par advection et dispersion. Même si les écoulements et le contenu du lixivat simulés sont assez proches des observations de terrain, le taux de séquestration simulé est 22 fois plus faible que celui mesuré. Dans les simulations, les carbonates précipitent principalement dans la partie supérieure de la parcelle, près de la surface, alors qu’ils ont été observés dans toute la parcelle. Cette différence importante pourrait être expliquée par un apport insuffisant de CO2 dans la parcelle, qui serait le facteur limitant la carbonatation. En effet, l’advection des gaz n’a pas été considérée dans les simulations et seule la diffusion moléculaire a été simulée. En effet, la mobilité des gaz engendrée par les fluctuations de pression barométrique et l’infiltration de l’eau, ainsi que l’effet du vent doivent jouer un rôle conséquent pour alimenter les parcelles en CO2.
Resumo:
Ce mémoire présente l’étude numérique d’un emballement de turbine hydraulique axiale à échelle modèle. Cet état transitoire est simulé du point de meilleur rendement jusqu’à l’atteinte de 95% de la vitesse d’emballement. Pour ce faire, une méthodologie numérique est développée à l’aide du logiciel commercial ANSYS CFX en utilisant une approche "Unsteady Reynolds Averaged Navier-Stokes" avec modèle de turbulence k-ε. Cette méthodologie numérique a été validée grâce à des mesures expérimentales de pression acquises en situation d’emballement sur les aubes d’une roue de turbine axiale étudiée au Laboratoire de Machines Hydrauliques de l’Université Laval. La validation des simulations numériques a été réalisée grâce à des comparaisons dans les domaines temporel et fréquentiel entre les pressions mesurées expérimentalement et calculées numériquement. Les analyses fréquentielles en transitoire ont été effectuées à l’aide de transformées en ondelettes afin de représenter l’évolution temporelle du spectre de fréquence. Des analyses qualitatives de phénomènes hydrauliques prenant place dans la turbine sont aussi présentées. Les analyses effectuées ont permis de confirmer le développement d’un tourbillon en précession par rapport à la roue dans l’aspirateur provocant les fluctuations de pression dominantes à des fréquences subsynchrones. La comparaison entre les données expérimentales et numériques a permis de valider une stratégie de simulation transitoire et d’en définir les limites en vue de prochaines simulations d’emballement. Des tests supplémentaires sont suggérés pour améliorer la précision ou le niveau de confiance de la méthode.
Resumo:
La croissance du phytoplancton est limitée par les faibles concentrations de fer (Fe) dans près de 40% de l’océan mondial. Le Pacifique subarctique Nord-Est représente une de ces zones limitées en fer et désignées High Nutrient - Low Chlorophyll (HNLC). Cet écosystème, dominé par des cellules de petite taille telles les prymnésiophytes, est caractérisé par de très faibles concentrations estivales de chlorophylle a et de fortes concentrations de macronutriments. Il a été maintes fois démontré que les ajouts de fer, sous différentes formes chimiques (habituellement FeSO4), dans les zones HNLC, stimulent la croissance et modifient la structure des communautés planctoniques en favorisant la croissance des cellules de grande taille, notamment les diatomées. Ces effets sur la communauté planctonique ont le potentiel d’influencer les grands mécanismes régulateurs du climat, tels la pompe biologique de carbone et la production de diméthylsulfure (DMS). Les poussières provenant des déserts du nord de la Chine sont reconnues depuis longtemps comme une source sporadique importante de fer pour le Pacifique Nord-Est. Malgré leur importance potentielle, l’influence directe exercée par ces poussières sur l’écosystème planctonique de cette zone HNLC n’a jamais été étudiée. Il s’agit d’une lacune importante puisque le fer associé aux poussières est peu soluble dans l’eau de mer, que la proportion biodisponible n’est pas connue et que les poussières peuvent avoir un effet inhibiteur chez le phytoplancton. Cette thèse propose donc, dans un premier temps, de mesurer pour la première fois l’effet de la fertilisation de la communauté planctonique du Pacifique Nord-Est par un gradient de concentrations de poussières désertiques naturelles. Cette première expérimentation a démontré que le fer contenu dans les poussières asiatiques est biodisponible et qu’une déposition équivalente à celles prenant place au printemps dans le Pacifique Nord-Est peut résulter en une stimulation significative de la prise de nutriments et de la croissance du phytoplancton. Mes travaux ont également montré que l’ajout de 0,5 mg L-1 de poussières peut résulter en la production d’autant de biomasse algale que l’ajout de FeSO4, l’espèce chimique utilisée lors des expériences d’enrichissement en fer à grande échelle. Cependant, les ajouts de FeSO4 favorisent davantage les cellules de petite taille que les ajouts de poussières, observation démontrant que le FeSO4 n’est pas un proxy parfait des poussières asiatiques. Dans un deuxième temps, je me suis intéressée à une source alternative de fer atmosphérique, les cendres volcaniques. Mon intérêt pour cette source de fer a été attisé par les observations d’une floraison spectaculaire dans le Pacifique Nord-Est, ma région d’étude, associée à l’éruption de 2008 du volcan Kasatochi dans les îles Aléoutiennes. Forte de mon expérience sur les poussières, j’ai quantifié l’effet direct de ces cendres volcaniques sur la communauté planctonique du Pacifique Nord-Est. Mes résultats ont montré que le fer contenu dans les cendres volcaniques est également biodisponible pour le phytoplancton. Ils ont également montré que cette source de fer peut être aussi importante que les poussières désertiques dans la régulation de la croissance du phytoplancton dans cette partie de l’océan global à l’échelle millénaire. Dans un troisième temps, j’ai estimé comment l’acidification des océans modulera les réponses des communautés planctoniques aux dépositions naturelles de fer mises en évidence lors de mes expériences précédentes. Pour ce faire, j’ai effectué des enrichissements de poussière dans de l’eau de mer au pH actuel de 8.0 et dans l’eau de mer acidifiée à un pH de 7.8. Mes résultats ont montré une diminution du taux de croissance du phytoplancton dans le milieu acidifié mais pas de changement notable dans la structure de la communauté. Les ajouts de poussières et de cendres, de même que les variations de pH, n’ont pas eu d’effet significatif sur la production de DMS et de son précurseur le diméthylsulfoniopropionate (DMSP), probablement en raison de la courte durée (4 jours) des expériences. L’ensemble des résultats de cette thèse montre que le fer contenu dans diverses sources atmosphériques naturelles est biodisponible pour le phytoplancton du Pacifique Nord-Est et que des taux de déposition réalistes peuvent stimuler la croissance de manière notable dans les premiers jours suivant une tempête désertique ou une éruption volcanique. Finalement, les résultats de mes expériences à stresseurs multiples Fer/acidification suggèrent une certaine résistance des communautés phytoplanctoniques à la diminution du pH prédite d’ici la fin du siècle pour les eaux de surface des océans.
Resumo:
Le glaucome est un groupe hétérogène de maladies qui sont caractérisées par l’apoptose des cellules ganglionnaires de la rétine et la dégénérescence progressive du nerf optique. Il s’agit de la première cause de cécité irréversible, qui touche environ 60 millions de personnes dans le monde. Sa forme la plus commune est le glaucome à angle ouvert (GAO), un trouble polygénique causé principalement par une prédisposition génétique, en interaction avec d’autres facteurs de risque tels que l’âge et la pression intraoculaire élevée (PIO). Le GAO est une maladie génétique complexe, bien que certaines formes sévères sont autosomiques dominantes. Dix-sept loci ont été liés à la maladie et acceptés par la « Human Genome Organisation » (HUGO) et cinq gènes ont été identifiés à ces loci (MYOC, OPTN, WDR36, NTF4, ASB10). Récemment, des études d’association sur l’ensemble du génome ont identifié plus de 20 facteurs de risque fréquents, avec des effets relativement faibles. Depuis plus de 50 ans, notre équipe étudie 749 membres de la grande famille canadienne-française CA où la mutation MYOCK423E cause une forme autosomale dominante de GAO dont l’âge de début est fortement variable. Premièrement, il a été montré que cette variabilité de l’âge de début de l’hypertension intraoculaire possède une importante composante génétique causée par au moins un gène modificateur. Ce modificateur interagit avec la mutation primaire et altère la sévérité du glaucome chez les porteurs de MYOCK423E. Un gène modificateur candidat WDR36 a été génotypé dans 2 grandes familles CA et BV. Les porteurs de variations non-synonymes de WDR36 ainsi que de MYOCK423E de la famille CA ont montré une tendance à développer la maladie plus jeune. Un outil de forage de données a été développé pour représenter des informations connues relatives à la maladie et faciliter la priorisation des gènes candidats. Cet outil a été appliqué avec succès à la dépression bipolaire et au glaucome. La suite du projet consiste à finaliser un balayage de génome sur la famille CA et à séquencer les loci afin d’identifier les variations modificatrices du glaucome. Éventuellement, ces variations permettront d’identifier les individus dont le glaucome risque d’être plus agressif.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
Les concentrés de protéines de lait sont couramment utilisés comme ingrédients lors de la standardisation du lait de fromagerie. La concentration des protéines est généralement réalisée par ultrafiltration (UF) à l’aide de membranes polymériques ayant un seuil de coupure de 10 kDa, et ce, jusqu’à un facteur de concentration volumique de 3.5X. Dans l’optique d’améliorer l’efficience du procédé d’UF, l’étude avait pour but de caractériser l’impact du mode opératoire (pression transmembranaire constante (465 et 672 kPa) et flux constant) ainsi que la température (10°C et 50°C) sur la performance du système jusqu’à un facteur de concentration volumique de 3.6X. Le module de filtration à l’échelle pilote comprenait une membrane d’UF en polyéthersulfone de 10 kDa d’une surface de 2,04 m2. La performance du système a été caractérisée sur le flux de perméation, la sélectivité et la consommation énergétique totale. L’étude a montré que le flux de perméation était 1,9 fois plus élevé à une température de 50°C comparativement à 10°C lors de l’UF du lait. Le coefficient de rejet des protéines n’a pas été affecté significativement par la pression transmembranaire et la température (P< 0,05). L’effet de la température a été observé au niveau de la teneur en calcium, laquelle était plus élevée de 12% dans les rétentats générés à 50C. La consommation énergétique totale du système d’UF était plus élevée à 10C comparativement à 50C, représentant 0,32±0,02 et 0,26±0,04 kWh/kg rétentat respectivement. Les résultats montrent que le ratio d’efficience énergétique (rapport entre le flux de perméation et la consommation énergétique) optimal a été obtenu à faible pression transmembranaire constante et à 50C. L’approche développée dans le cadre de ce projet fournira des outils aux industriels laitiers pour améliorer l’éco-efficience de leurs procédés de séparation baromembranaire.
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Resumo:
Les sources laser à large bande possédant les caractéristiques requises pour émettre sur la plage spectrale correspondant à la seconde fenêtre de transmission atmosphérique (3 à 5 μm) exercent un attrait considérable pour divers domaines tels que la télédétection de polluants atmosphériques et les contremesures infrarouges. Les supercontinua générés à l’intérieur de fibres optiques représentent une option intéressante pour réaliser ce type de sources laser. En effet, ils possèdent une intensité élevée, un large contenu spectral, une excellente directionnalité de faisceau, ainsi qu’un bon potentiel pour constituer des sources lumineuses compactes et robustes. Toutefois, la génération d’un tel supercontinuum implique certains défis à relever sur le plan de la conception des fibres optiques employées. En fait, ces fibres optiques doivent présenter de faibles pertes de propagation sur la plage spectrale de 3 à 5 μm, posséder un paramètre de non-linéarité élevé et permettre le pompage en régime anomal de dispersion à des longueurs d’onde pour lesquelles des sources laser compactes sont offertes commercialement. En matière de robustesse, ces fibres doivent également démontrer de bonnes propriétés mécaniques ainsi qu’une stabilité chimique appropriée vis-à-vis de la corrosion causée par l’humidité. Dans le cadre de cette thèse, un nouveau type de fibres composites à saut d’indice fortement contrasté a été développé pour atteindre ces objectifs de génération de supercontinuum. Ce type de fibres combine respectivement un verre de tellurite et un verre de germanate pour son coeur et sa gaine permettant ainsi d’atteindre une différence d’indice de réfraction d’environ 0.3 entre ces deux dernières structures. Grâce à cet important saut d’indice, ces fibres peuvent fortement confiner les modes optiques à l’intérieur de leur coeur, ce qui leur donne la possibilité d’atteindre un niveau élevé de non-linéarité et d’optimiser leurs caractéristiques de dispersion chromatique pour la génération du supercontinuum. D’autre part, leur section transversale toute solide leur confère aussi une meilleure stabilité environnementale comparativement à celle démontrée par les fibres optiques microstructurées à base de verres d’oxydes de métaux lourds, de verres de chalcogénure et de verres fluorés. Toutefois, leur fabrication nécessite l’appariement de verres dont les propriétés thermomécaniques concordent suffisamment ensemble pour permettre leur fibrage. Les travaux effectués ici démontrent la production de fibres optiques composites et leur potentiel pour la génération du supercontinuum dans l’infrarouge moyen.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
L’hypertension artérielle pulmonaire (HTAP) est une maladie caractérisée par l’augmentation progressive des résistances vasculaires pulmonaires causant une augmentation de la pression artérielle pulmonaire qui mène au décès prématuré des patients. Malgré une amélioration rapide ces dernières années des traitements spécifiques, les patients souffrant d’HTAP demeurent dyspnéiques et intolérants à l’effort. L’atteinte vasculaire pulmonaire est actuellement irréversible. Elle est également la source de plusieurs anomalies au niveau des systèmes cardiovasculaires, ventilatoires et musculaires constituant les principaux déterminants physiologiques de la capacité à l’effort des patients. Cette thèse a investigué différentes facettes de la tolérance à l’effort en HTAP : les différents mécanismes ayant un impact sur l’apport musculaire en oxygène, l’altération des voies de signalisation cellulaire impliquées dans l’angiogenèse musculaire et les mécanismes ayant un impact sur la régulation du débit sanguin et l’oxygénation cérébrale en HTAP. Nous avons premièrement documenté une diminution de l’apport en oxygène aux muscles squelettiques à l’effort des patients en relation avec une diminution de la densité capillaire musculaire. Ce défaut d’angiogenèse corrélait d’ailleurs avec la capacité à l’effort des sujets. Par la suite, nous avons étudié les voies de signalisations cellulaires de l’angiogenèse musculaire. Ces résultats ont permis de démontrer une diminution de l’expression de miR-126, unique aux patients HTAP, qui était responsable de la diminution de la densité capillaire et qui contribuait à leur intolérance à l’effort. De plus, il était possible de moduler in vivo l’expression de miR-126. L’expérimentation in vivo, à l’aide d’un modèle murin d’HTAP, a permis de rétablir l’expression de miR-126, d’augmenter la microcirculation musculaire et d’améliorer la tolérance à l’effort des animaux, ce qui met en lumière le potentiel thérapeutique de l’angiogenèse musculaire pour améliorer la capacité à l’effort en HTAP. Notre dernier projet a démontré que les patients HTAP présentaient une diminution de débit sanguin cérébral. Ce projet a également démontré que les changements de pression artérielle sont moins bien amortis par les vaisseaux cérébraux des patients et que leurs vaisseaux cérébraux étaient moins réactifs aux changements de CO2. Les patients présentaient aussi une augmentation de la sensibilité des chémorécepteurs centraux qui contribuait à augmenter leur ventilation au repos, mais aussi à l’exercice. Finalement, à l’effort, nous avons démontré que le débit sanguin cérébral des patients HTAP était principalement influencé par la pression artérielle alors que chez les sujets sains, le débit sanguin cérébral était influencé principalement par la PETCO2. Nous avons également démontré que les patients HTAP présentaient une diminution progressive de leur oxygénation cérébrale, qui corrélait avec leur capacité à l’effort. Les résultats obtenus au cours de ce doctorat démontrent bien que la capacité à l’effort en HTAP est aussi déterminée par plusieurs anomalies physiopathologiques périphériques.
Resumo:
Au cours des dernières décennies, les restructurations d’entreprises ont connu une transformation majeure. En plus des restructurations ponctuelles, de type « crise » dans des secteurs de l’économie en déclin, il est possible de constater des restructurations de type « permanent » dont l’objectif principal est la quête de profit et l’augmentation de la productivité de l’entreprise. Perçus comme nuisibles à la rentabilité des entreprises, la syndicalisation, la négociation collective et les moyens de pression, poussent ainsi certaines entreprises à se restructurer. Les restructurations d’entreprises, produit de l’exercice de la liberté d’entreprendre, impliquent des conséquences importantes sur l’emploi des travailleurs, en plus d’affecter à bien des égards leur liberté d’association. Dans cette perspective, il est pertinent de s’interroger sur l’articulation entre la liberté d’entreprendre et la liberté d’association dans le contexte de restructurations d’entreprises. Les différentes théories du droit s’accordent quant à l’importance de la cohérence du système juridique tant à l’interne qu’à l’externe. L’essentiel de notre analyse repose, en conséquence, sur un souci de cohérence du système juridique lors de l’affrontement des libertés d’entreprendre et d’association dans le cadre de restructurations d’entreprises, par le biais, entre autre, de l’étude de la juridicité et de la normativité de ces principes du droit. D’une part, la liberté d’association est un principe du droit à statut constitutionnel, d’ordre public et qui occupe une place importante en droit international. D’autre part, la liberté d’entreprendre est un principe du droit implicite, dont les fondements et la mise en œuvre demeurent ambigus. Pourtant notre étude démontre que la jurisprudence accorde une interprétation restrictive à la liberté d’association et large à la liberté d’entreprendre. Cette réalité accorde à la liberté d’entreprendre une mainmise sur la liberté d’association, particulièrement dans les cas de restructurations d’entreprises. Il n’y a qu’à citer comme exemple le droit de cesser de faire affaire même pour des motifs socialement condamnables, énoncé à plusieurs reprises par la Cour suprême du Canada. Le principe de cohérence du système juridique devrait nous amener à une interprétation plus large de la liberté d’association afin de respecter la hiérarchie des droits et d’autres principes généraux du droit, tels que l’égalité, la dignité et la bonne foi, et ce, même si cette interprétation a parfois pour effet de restreindre la liberté d’entreprendre dans le contexte de restructurations d’entreprises.
Resumo:
L’objectif de ce mémoire est d’évaluer l’influence des amis sur la productivité des individus à partir de données d’une entreprise de reboisement. La productivité de chaque employé est observée et correspond au nombre d’arbres plantés par jour. Ces données sont appariées avec des informations au réseau d’amitié des employés. Nous avons utilisé un modèle linéaire en moyenne pour estimer les effets de pairs. Nous trouvons une influence positive des amis. Tout choc sur la productivité est amplifié entre 1 et 2.
Resumo:
Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.