20 resultados para pression intraoculaire
em Université Laval Mémoires et thèses électroniques
Resumo:
Le glaucome est un groupe hétérogène de maladies qui sont caractérisées par l’apoptose des cellules ganglionnaires de la rétine et la dégénérescence progressive du nerf optique. Il s’agit de la première cause de cécité irréversible, qui touche environ 60 millions de personnes dans le monde. Sa forme la plus commune est le glaucome à angle ouvert (GAO), un trouble polygénique causé principalement par une prédisposition génétique, en interaction avec d’autres facteurs de risque tels que l’âge et la pression intraoculaire élevée (PIO). Le GAO est une maladie génétique complexe, bien que certaines formes sévères sont autosomiques dominantes. Dix-sept loci ont été liés à la maladie et acceptés par la « Human Genome Organisation » (HUGO) et cinq gènes ont été identifiés à ces loci (MYOC, OPTN, WDR36, NTF4, ASB10). Récemment, des études d’association sur l’ensemble du génome ont identifié plus de 20 facteurs de risque fréquents, avec des effets relativement faibles. Depuis plus de 50 ans, notre équipe étudie 749 membres de la grande famille canadienne-française CA où la mutation MYOCK423E cause une forme autosomale dominante de GAO dont l’âge de début est fortement variable. Premièrement, il a été montré que cette variabilité de l’âge de début de l’hypertension intraoculaire possède une importante composante génétique causée par au moins un gène modificateur. Ce modificateur interagit avec la mutation primaire et altère la sévérité du glaucome chez les porteurs de MYOCK423E. Un gène modificateur candidat WDR36 a été génotypé dans 2 grandes familles CA et BV. Les porteurs de variations non-synonymes de WDR36 ainsi que de MYOCK423E de la famille CA ont montré une tendance à développer la maladie plus jeune. Un outil de forage de données a été développé pour représenter des informations connues relatives à la maladie et faciliter la priorisation des gènes candidats. Cet outil a été appliqué avec succès à la dépression bipolaire et au glaucome. La suite du projet consiste à finaliser un balayage de génome sur la famille CA et à séquencer les loci afin d’identifier les variations modificatrices du glaucome. Éventuellement, ces variations permettront d’identifier les individus dont le glaucome risque d’être plus agressif.
Resumo:
Les graines de lin sont des oléagineux largement cultivés au Canada. Cependant, les résidus générés suite au processus d’extraction de l’huile contiennent une importante quantité de protéines et peuvent être valorisées dans l’alimentation humaine en raison, principalement, de certaines fractions peptidiques possédant des propriétés bioactives. Dans le cadre de ce travail, l’influence des hautes pressions hydrostatiques (HPH) sur un isolat de protéines de lin a été étudiée concernant les modifications de la structure protéique, l’hydrolyse enzymatique ainsi que l’activité antioxydante des hydrolysats. Ainsi, des solutions protéiques de lin (1% m/v) ont été soumises à un traitement de HPH à 600 MPa pendant 5 et 20 minutes, à 20°C et comparés à des échantillons non-pressurisés. Deux traitements subséquents d’hydrolyse ont été effectués suite au traitement ou non de pressurisation : une première hydrolyse trypsique suivie d’une deuxième par la pronase. Dans un premier temps, la caractérisation de l’isolat protéique de lin pressurisé et non pressurisé a été réalisée par spectrofluorimétrie et par une analyse de la taille des particules afin d’étudier l’effet de la pressurisation sur les HPH la matrice protéique végétale. Par la suite, les hydrolysats protéiques ont été caractérisés par HPLC-MS et leur capacité antioxydante a été déterminée par ORAC. Les résultats ont démontré que le niveau de pressurisation et la durée du traitement ont un impact sur la structure protéique en induisant la dissociation des protéines, et la formation d’agrégats. Ceux-ci seraient occasionnés par la décompression ou créés durant l’entreposage des isolats. Suite à l’hydrolyse enzymatique des solutions protéiques pressurisées ou non par la trypsine seule et par la trypsine-pronase, les analyses chromatographiques ont révélé que la concentration de certains peptides a été modifiée lorsque la trypsine seule était utilisée après un traitement à HPH. Enfin, les HPH ont amélioré la capacité antioxydante des hydrolysats obtenus lors de l’hydrolyse trypsine-pronase comparativement au contrôle non-pressurisé.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
Les concentrés de protéines de lait sont couramment utilisés comme ingrédients lors de la standardisation du lait de fromagerie. La concentration des protéines est généralement réalisée par ultrafiltration (UF) à l’aide de membranes polymériques ayant un seuil de coupure de 10 kDa, et ce, jusqu’à un facteur de concentration volumique de 3.5X. Dans l’optique d’améliorer l’efficience du procédé d’UF, l’étude avait pour but de caractériser l’impact du mode opératoire (pression transmembranaire constante (465 et 672 kPa) et flux constant) ainsi que la température (10°C et 50°C) sur la performance du système jusqu’à un facteur de concentration volumique de 3.6X. Le module de filtration à l’échelle pilote comprenait une membrane d’UF en polyéthersulfone de 10 kDa d’une surface de 2,04 m2. La performance du système a été caractérisée sur le flux de perméation, la sélectivité et la consommation énergétique totale. L’étude a montré que le flux de perméation était 1,9 fois plus élevé à une température de 50°C comparativement à 10°C lors de l’UF du lait. Le coefficient de rejet des protéines n’a pas été affecté significativement par la pression transmembranaire et la température (P< 0,05). L’effet de la température a été observé au niveau de la teneur en calcium, laquelle était plus élevée de 12% dans les rétentats générés à 50C. La consommation énergétique totale du système d’UF était plus élevée à 10C comparativement à 50C, représentant 0,32±0,02 et 0,26±0,04 kWh/kg rétentat respectivement. Les résultats montrent que le ratio d’efficience énergétique (rapport entre le flux de perméation et la consommation énergétique) optimal a été obtenu à faible pression transmembranaire constante et à 50C. L’approche développée dans le cadre de ce projet fournira des outils aux industriels laitiers pour améliorer l’éco-efficience de leurs procédés de séparation baromembranaire.
Resumo:
Environ 90% des composés produits industriellement sont fabriqués à l’aide de catalyseurs. C’est pourquoi la conception de catalyseurs toujours plus performants pour améliorer les procédés industriels actuels est toujours d’intérêt. De la grande variété de complexes avec des métaux de transition rapportés jusqu’à présent, les complexes zwitterioniques attirent notre attention par leurs activités catalytiques souvent supérieures aux complexes cationiques normaux. Un complexe métallique zwitterionique est un fragment métal-ligand neutre où la charge positive est située sur le centre métallique et où la charge négative est délocalisée sur un des ligands liés au métal. Nous proposons la synthèse de ligands anioniques phosphine comportant des groupements borates et boratabenzènes. Cette dernière espèce est un cycle à 6 membres où l’un des atomes de carbone est remplacé par un atome de bore et qui est négativement chargé. La capacité de ces phosphines anioniques à se lier à un centre métallique à l’aide de la paire libre du phosphore est due à la nature du lien P-B qui défavorise l’interaction entre la paire libre du phosphore et l’orbitale p vide du bore. Les propriétés de di-tert-butylphosphido-boratabenzène (DTBB) comme ligand phosphine anionique hautement donneur et encombré ainsi que la découverte de ses modes de coordination inhabituels pour stabiliser les métaux de transition insaturés ont été étudiés au cours de ce travail. De nouvelles perspectives sur les modes de coordination de phosphido-boratabenzène et la force de l’interaction du lien P-B seront discutées ainsi que les applications catalytiques. Nous avons d’abord étudié la coordination η1 avec des complexes de fer, ce qui nous a fourni des données quantitatives précieuses sur la capacité du DTBB d’agir comme ligand très donneur par rapport aux autres ligands donneurs bien connus. La capacité du DTBB à changer de mode de coordination pour soutenir les besoins électroniques du métal a été démontrée par la découverte d’une nouvelle espèce ferrocenyl phosphido-boratabenzène et sa nucléophilie a été étudiée. Au meilleur de notre connaissance, aucun exemple d’un ligand boratabenzène coordonné aux métaux du groupe 11 n’existe dans la littérature. Voilà pourquoi nous avons décidé d’explorer les modes de coordination du ligand DTBB avec Cu(I), Ag(I) et Au(I). A notre grande surprise, le ligand DTBB est capable de stabiliser les métaux du groupe 11 aux états d’oxydation faibles par une liaison MP qui est une coordination du type η1, un mode de coordination guère observé pour les ligands boratabenzène. Pendant nos travaux, notre attention s’est tournée vers la synthèse d’un complexe de rhodium(I) afin de tester son utilité en catalyse. A notre grande satisfaction, le complexe Rh-DTBB agit comme un précatalyseur pour l’hydrogénation des alcènes et alcynes à la température ambiante et à pression atmosphérique et son activité est comparable à celle du catalyseur de Wilkinson. Dans un désir d’élargir les applications de notre recherche, notre attention se tourna vers l’utilisation des composés du bore autres que le boratabenzène. Nous avons décidé de synthétiser une nouvelle espèce phosphido-borate encombrée. Lorsqu’elle réagit avec des métaux, l’espèce phosphido-borate subit un clivage de la liaison P-B. Toutefois, cette observation met en évidence la singularité et les avantages de la stabilité de la liaison P-B lors de l’utilisation du fragment boratabenzène. Ces observations enrichissent notre compréhension des conditions dans lesquelles la liaison P-B du ligand DTBB peut être clivée. Ces travaux ont mené à la découverte d’un nouveau ligand ansa-boratabenzène avec une chimie de coordination prometteuse.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
L’hypertension artérielle pulmonaire (HTAP) est une maladie caractérisée par l’augmentation progressive des résistances vasculaires pulmonaires causant une augmentation de la pression artérielle pulmonaire qui mène au décès prématuré des patients. Malgré une amélioration rapide ces dernières années des traitements spécifiques, les patients souffrant d’HTAP demeurent dyspnéiques et intolérants à l’effort. L’atteinte vasculaire pulmonaire est actuellement irréversible. Elle est également la source de plusieurs anomalies au niveau des systèmes cardiovasculaires, ventilatoires et musculaires constituant les principaux déterminants physiologiques de la capacité à l’effort des patients. Cette thèse a investigué différentes facettes de la tolérance à l’effort en HTAP : les différents mécanismes ayant un impact sur l’apport musculaire en oxygène, l’altération des voies de signalisation cellulaire impliquées dans l’angiogenèse musculaire et les mécanismes ayant un impact sur la régulation du débit sanguin et l’oxygénation cérébrale en HTAP. Nous avons premièrement documenté une diminution de l’apport en oxygène aux muscles squelettiques à l’effort des patients en relation avec une diminution de la densité capillaire musculaire. Ce défaut d’angiogenèse corrélait d’ailleurs avec la capacité à l’effort des sujets. Par la suite, nous avons étudié les voies de signalisations cellulaires de l’angiogenèse musculaire. Ces résultats ont permis de démontrer une diminution de l’expression de miR-126, unique aux patients HTAP, qui était responsable de la diminution de la densité capillaire et qui contribuait à leur intolérance à l’effort. De plus, il était possible de moduler in vivo l’expression de miR-126. L’expérimentation in vivo, à l’aide d’un modèle murin d’HTAP, a permis de rétablir l’expression de miR-126, d’augmenter la microcirculation musculaire et d’améliorer la tolérance à l’effort des animaux, ce qui met en lumière le potentiel thérapeutique de l’angiogenèse musculaire pour améliorer la capacité à l’effort en HTAP. Notre dernier projet a démontré que les patients HTAP présentaient une diminution de débit sanguin cérébral. Ce projet a également démontré que les changements de pression artérielle sont moins bien amortis par les vaisseaux cérébraux des patients et que leurs vaisseaux cérébraux étaient moins réactifs aux changements de CO2. Les patients présentaient aussi une augmentation de la sensibilité des chémorécepteurs centraux qui contribuait à augmenter leur ventilation au repos, mais aussi à l’exercice. Finalement, à l’effort, nous avons démontré que le débit sanguin cérébral des patients HTAP était principalement influencé par la pression artérielle alors que chez les sujets sains, le débit sanguin cérébral était influencé principalement par la PETCO2. Nous avons également démontré que les patients HTAP présentaient une diminution progressive de leur oxygénation cérébrale, qui corrélait avec leur capacité à l’effort. Les résultats obtenus au cours de ce doctorat démontrent bien que la capacité à l’effort en HTAP est aussi déterminée par plusieurs anomalies physiopathologiques périphériques.
Resumo:
Au cours des dernières décennies, les restructurations d’entreprises ont connu une transformation majeure. En plus des restructurations ponctuelles, de type « crise » dans des secteurs de l’économie en déclin, il est possible de constater des restructurations de type « permanent » dont l’objectif principal est la quête de profit et l’augmentation de la productivité de l’entreprise. Perçus comme nuisibles à la rentabilité des entreprises, la syndicalisation, la négociation collective et les moyens de pression, poussent ainsi certaines entreprises à se restructurer. Les restructurations d’entreprises, produit de l’exercice de la liberté d’entreprendre, impliquent des conséquences importantes sur l’emploi des travailleurs, en plus d’affecter à bien des égards leur liberté d’association. Dans cette perspective, il est pertinent de s’interroger sur l’articulation entre la liberté d’entreprendre et la liberté d’association dans le contexte de restructurations d’entreprises. Les différentes théories du droit s’accordent quant à l’importance de la cohérence du système juridique tant à l’interne qu’à l’externe. L’essentiel de notre analyse repose, en conséquence, sur un souci de cohérence du système juridique lors de l’affrontement des libertés d’entreprendre et d’association dans le cadre de restructurations d’entreprises, par le biais, entre autre, de l’étude de la juridicité et de la normativité de ces principes du droit. D’une part, la liberté d’association est un principe du droit à statut constitutionnel, d’ordre public et qui occupe une place importante en droit international. D’autre part, la liberté d’entreprendre est un principe du droit implicite, dont les fondements et la mise en œuvre demeurent ambigus. Pourtant notre étude démontre que la jurisprudence accorde une interprétation restrictive à la liberté d’association et large à la liberté d’entreprendre. Cette réalité accorde à la liberté d’entreprendre une mainmise sur la liberté d’association, particulièrement dans les cas de restructurations d’entreprises. Il n’y a qu’à citer comme exemple le droit de cesser de faire affaire même pour des motifs socialement condamnables, énoncé à plusieurs reprises par la Cour suprême du Canada. Le principe de cohérence du système juridique devrait nous amener à une interprétation plus large de la liberté d’association afin de respecter la hiérarchie des droits et d’autres principes généraux du droit, tels que l’égalité, la dignité et la bonne foi, et ce, même si cette interprétation a parfois pour effet de restreindre la liberté d’entreprendre dans le contexte de restructurations d’entreprises.
Resumo:
La carbonatation minérale dans les résidus miniers est un moyen sûr et permanent de séquestrer le CO2 atmosphérique. C’est un processus naturel et passif qui ne nécessite aucun traitement particulier et donc avantageux d’un point de vue économique. Bien que la quantité de CO2 qu’il soit possible de séquestrer selon ce processus est faible à l’échelle globale, dans le cadre d’un marché du carbone, les entreprises minières pourraient obtenir des crédits et ainsi revaloriser leurs résidus. À l’heure actuelle, il y a peu d’informations pour quantifier le potentiel de séquestration du CO2 de façon naturelle et passive dans les piles de résidus miniers. Il est donc nécessaire d’étudier le phénomène pour comprendre comment évolue la réaction à travers le temps et estimer la quantité de CO2 qui peut être séquestrée naturellement dans les piles de résidus. Plusieurs travaux de recherche se sont intéressés aux résidus miniers de Thetford Mines (Québec, Canada), avec une approche principalement expérimentale en laboratoire. Ces travaux ont permis d’améliorer la compréhension du processus de carbonatation, mais ils nécessitent une validation à plus grande échelle sous des conditions atmosphériques réelles. L’objectif général de cette étude est de quantifier le processus de carbonatation minérale des résidus miniers sous des conditions naturelles, afin d’estimer la quantité de CO2 pouvant être piégée par ce processus. La méthodologie utilisée repose sur la construction de deux parcelles expérimentales de résidus miniers situées dans l’enceinte de la mine Black Lake (Thetford Mines). Les résidus miniers sont principalement constitués de grains et de fibres de chrysotile et lizardite mal triés, avec de petites quantités d’antigorite, de brucite et de magnétite. Des observations spatiales et temporelles ont été effectuées dans les parcelles concernant la composition et la pression des gaz, la température des résidus, la teneur en eau volumique, la composition minérale des résidus ainsi que la chimie de l’eau des précipitations et des lixiviats provenant des parcelles. Ces travaux ont permis d’observer un appauvrissement notable du CO2 dans les gaz des parcelles (< 50 ppm) ainsi que la précipitation d’hydromagnésite dans les résidus, ce qui suggère que la carbonatation minérale naturelle et passive est un processus potentiellement important dans les résidus miniers. Après 4 ans d’observations, le taux de séquestration du CO2 dans les parcelles expérimentales a été estimé entre 3,5 et 4 kg/m3/an. Ces observations ont permis de développer un modèle conceptuel de la carbonatation minérale naturelle et passive dans les parcelles expérimentales. Dans ce modèle conceptuel, le CO2 atmosphérique (~ 400 ppm) se dissout dans l’eau hygroscopique contenue dans les parcelles, où l’altération des silicates de magnésium forme des carbonates de magnésium. La saturation en eau dans les cellules est relativement stable dans le temps et varie entre 0,4 et 0,65, ce qui est plus élevé que les valeurs de saturation optimales proposées dans la littérature, réduisant ainsi le transport de CO2 dans la zone non saturée. Les concentrations de CO2 en phase gazeuse, ainsi que des mesures de la vitesse d’écoulement du gaz dans les cellules suggèrent que la réaction est plus active près de la surface et que la diffusion du CO2 est le mécanisme de transport dominant dans les résidus. Un modèle numérique a été utilisé pour simuler ces processus couplés et valider le modèle conceptuel avec les observations de terrain. Le modèle de transport réactif multiphase et multicomposant MIN3P a été utilisé pour réaliser des simulations en 1D qui comprennent l’infiltration d’eau à travers le milieu partiellement saturé, la diffusion du gaz, et le transport de masse réactif par advection et dispersion. Même si les écoulements et le contenu du lixivat simulés sont assez proches des observations de terrain, le taux de séquestration simulé est 22 fois plus faible que celui mesuré. Dans les simulations, les carbonates précipitent principalement dans la partie supérieure de la parcelle, près de la surface, alors qu’ils ont été observés dans toute la parcelle. Cette différence importante pourrait être expliquée par un apport insuffisant de CO2 dans la parcelle, qui serait le facteur limitant la carbonatation. En effet, l’advection des gaz n’a pas été considérée dans les simulations et seule la diffusion moléculaire a été simulée. En effet, la mobilité des gaz engendrée par les fluctuations de pression barométrique et l’infiltration de l’eau, ainsi que l’effet du vent doivent jouer un rôle conséquent pour alimenter les parcelles en CO2.
Resumo:
L’objectif de ce mémoire est d’évaluer l’influence des amis sur la productivité des individus à partir de données d’une entreprise de reboisement. La productivité de chaque employé est observée et correspond au nombre d’arbres plantés par jour. Ces données sont appariées avec des informations au réseau d’amitié des employés. Nous avons utilisé un modèle linéaire en moyenne pour estimer les effets de pairs. Nous trouvons une influence positive des amis. Tout choc sur la productivité est amplifié entre 1 et 2.
Resumo:
Dans ce projet de recherche, le dépôt des couches minces de carbone amorphe (généralement connu sous le nom de DLC pour Diamond-Like Carbon en anglais) par un procédé de dépôt chimique en phase vapeur assisté par plasma (ou PECVD pour Plasma Enhanced Chemical Vapor deposition en anglais) a été étudié en utilisant la Spectroscopie d’Émission Optique (OES) et l’analyse partielle par régression des moindres carrés (PLSR). L’objectif de ce mémoire est d’établir un modèle statistique pour prévoir les propriétés des revêtements DLC selon les paramètres du procédé de déposition ou selon les données acquises par OES. Deux séries d’analyse PLSR ont été réalisées. La première examine la corrélation entre les paramètres du procédé et les caractéristiques du plasma pour obtenir une meilleure compréhension du processus de dépôt. La deuxième série montre le potentiel de la technique d’OES comme outil de surveillance du procédé et de prédiction des propriétés de la couche déposée. Les résultats montrent que la prédiction des propriétés des revêtements DLC qui était possible jusqu’à maintenant en se basant sur les paramètres du procédé (la pression, la puissance, et le mode du plasma), serait envisageable désormais grâce aux informations obtenues par OES du plasma (particulièrement les indices qui sont reliées aux concentrations des espèces dans le plasma). En effet, les données obtenues par OES peuvent être utilisées pour surveiller directement le processus de dépôt plutôt que faire une étude complète de l’effet des paramètres du processus, ceux-ci étant strictement reliés au réacteur plasma et étant variables d’un laboratoire à l’autre. La perspective de l’application d’un modèle PLSR intégrant les données de l’OES est aussi démontrée dans cette recherche afin d’élaborer et surveiller un dépôt avec une structure graduelle.
Resumo:
La présente thèse propose une étude expérimentale du décollement dans le diffuseur d’un modèle de turbine hydroélectrique bulbe. Le décollement se produit quand la turbine est opérée à forte charge et il réduit la section effective de récupération du diffuseur. La diminution de la performance du diffuseur à forte charge engendre une baisse brusque de l’efficacité de la turbine et de la puissance extraite. Le modèle réduit de bulbe est fidèle aux machines modernes avec un diffuseur particulièrement divergent. Les performances de la turbine sont mesurées sur une large gamme de points d’opération pour déterminer les conditions les plus intéressantes pour l’étude du décollement et pour étudier la distribution paramétrique de ce phénomène. La pression est mesurée le long de l’aspirateur par des capteurs dynamiques affleurants alors que les champs de vitesse dans la zone de décollement sont mesurés avec une méthode PIV à deux composantes. Les observations à la paroi sont pour leur part faites à l’aide de brins de laine. Pour un débit suffisant, le gradient de pression adverse induit par la géométrie du diffuseur affaiblit suffisamment la couche limite, entraînant ainsi l’éjection de fluide de la paroi le long d’une large enveloppe tridimensionelle. Le décollement instationnaire tridimensionnel se situe dans la même zone du diffuseur indépendamment du point d’opération. L’augmentation du débit provoque à la fois une extension de la zone de décollement et une augmentation de l’occurrence de ses manifestations. La position et la forme du front de décollement fluctue significativement sans périodicité. L’analyse topologique et celle des tourbillons des champs de vitesse instantanés montrent une topologie du front de décollement complexe qui diffère beaucoup d’une réalisation à l’autre. Bien que l’écoulement soit turbulent, les tourbillons associés aux foyers du front sont clairement plus gros et plus intenses que ceux de la turbulence. Cela suggère que le mécanisme d’enroulement menant aux tourbillons du décollement est clairement distinct des mécanismes de la turbulence.
Resumo:
Les virus influenza de type A sont des pathogènes respiratoires causant des épidémies saisonnières et des pandémies de manière plus occasionnelles. Au cours d’une saison, 10 à 20 % de la population mondiale est touchée, ce qui constitue un problème majeur de santé publique. Les virus de sous-type A/H3N2 sont associés à une plus forte morbidité et mortalité que les virus de sous-type A/H1N1. La vaccination reste le moyen le plus efficace de contrôler les infections, cependant l’efficacité de ces vaccins est de courte durée et compromise en cas de non-appariemment entre les souches circulantes et vaccinales. La première partie de cette thèse a été consacrée à l’optimisation des vaccins inactivés A/H3N2 en testant de nouveaux adjuvants et de nouvelles voies d’administration chez la souris et le furet. Nous avons démontré que l’adjuvant AS25 semble prometteur pour le développement de vaccins plus efficaces. La seconde partie de cette thèse a été consacrée à suivre l’évolution moléculaire et antigénique des souches A/H3N2 circulantes au Québec entre 2009 et 2011. Notre conclusion est qu’il n’y a pas que le nombre de mutations dans la HA qui est important, en ce sens que la nature et la localisation de ces dernières jouent un rôle clé lors d’une dérive antigénique. Après avoir suivi les souches A/H3N2 sous pression immunitaire, nous avons suivi dans la troisième partie de cette thèse une souche A/H3N2 sous pression d’un nouvel antiviral; le laninamivir. Les antiviraux sont la première ligne de défense en cas de pandémie ou lors d’une épidémie lorsqu’il y a un mésappariemment entre les souches circulante et vaccinale. Notre conclusion est que la réplication de notre mutant est conservé in vitro mais non in vivo. Les différentes expériences effectuées au cours de cette thèse ont permis de suivre l’évolution des souches A/H3N2 et de mettre en œuvre de nouveaux moyens de prévention et de traitement.
Resumo:
À l’aide d’un modèle théorique, je remets en question l’idée généralement admise que le lobbying informationnel ne peut pas être nuisible pour les citoyens puisque le décideur public possède davantage d’information. Dans mon modèle, un décideur public doit choisir de maintenir le statu quo ou implémenter la réforme pour chacune des deux problématiques présentes. Ces problématiques ont une importance relative qui diffère. Le décideur public peut donc désirer acquérir de l’information sur ces dernières afin de prendre la meilleure décision possible. Cependant, il fait face à deux contraintes. La première est qu’il ne peut pas nécessairement implémenter la réforme sur les deux problématiques, le décideur public doit établir un agenda. La seconde contrainte est qu’il ne dispose pas nécessairement des moyens pour acquérir de l’information sur les problématiques qu’il désire. Deux groupes d’intérêts sont également présents. Ces derniers tentent d’influencer le décideur public en lui transmettant de l’information. Ils peuvent ni la cacher, ni la modifier. Les groupes d’intérêts acquièrent d’abord de l’information de manière simultanée, puis le décideur public, après avoir observé leur information, décide s’il acquiert de l’information, et ce, de manière séquentielle. La présence des deux contraintes du décideur public, ainsi que l’importance relative différente des deux problématiques peuvent mener à la situation où les citoyens sont mieux sans les groupes d’intérêts, et ce malgré le fait que les préférences du décideur public sont alignées avec celle des citoyens. Cela s’explique par le fait que l’information transmise par les groupes d’intérêts peut venir modifier l’ordre d’importance des problématiques pour le décideur public en plaçant la problématique de moindre importance au-dessus de l’autre. Le lobbying informationnel peut donc être nuisible aux citoyens, malgré le fait que le décideur public ait davantage d’information.
Resumo:
Le projet de recherche est une étude prospective consistant à déterminer la séquence de récupération des fibres sensitives de la troisième division du nerf trijumeau (V3) suite à une ostéotomie sagittale mandibulaire bilatérale (OSMB). Dix-neuf sujets ont été recrutés entre les mois de mars et septembre 2008. Tous ont eu une chirurgie orthognathique d’OSMB afin de corriger une malocclusion. La sensibilité dans le territoire cutané innervé par V3 de chacun des sujets a été évaluée en pré-opératoire de même qu’à cinq autres reprises en post-opératoire (2, 4, 20, 36 et 52 semaines). Deux méthodes d’évaluation objectives de la récupération nerveuse sensitive ont été utilisées. La première consistait à utiliser un appareil nommé Neurometer afin de déterminer l’intensité minimale de courant électrique (Current Perception Threshold [CPT]) pouvant être ressentie spécifiquement par chacun des trois types de fibres nerveuses sensitives (A-Bêta, A-Delta et C) dans le territoire cutané de V3. La deuxième méthode consistait à utiliser les monofilaments de Semmes-Weinstein afin de déterminer le seuil minimal de pression (Von Frey) pouvant être ressenti dans le même territoire cutané. De plus, lors de chacun des rendez-vous post-opératoires, il a été demandé à chaque sujet de quantifier subjectivement sa sensibilité à l’aide d’une échelle visuelle analogue. Cela a permis de corréler les valeurs de CPT, les seuils de perception de la pression et l’évaluation subjective que le patient a de sa propre sensibilité. Il a été démontré que la séquence de récupération des fibres sensitives de V3 suite à une OSMB est la suivante : les fibres A-Delta récupèrent en premier, suivies des fibres C puis des fibres A-Bêta.