281 resultados para Quantité d’énergie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est de mieux comprendre l’effet d’une fertilisation en lisier de porc sur la productivité d’une plantation de saule tout en évaluant les risques d’impact négatif sur l’environnement. Nous avons évalué la réponse des plants à des quantités croissantes de lisiers en plus de la comparer à celle d’une fertilisation minérale. Nous avons aussi vérifié l’impact du lisier sur les teneurs nutritionnelles du sol ainsi que sur les concentrations en nitrates et phosphore de la solution du sol. Bien que l’azote du lisier soit moins efficace que celui des engrais minéraux, les résultats de notre étude montrent que le lisier est un bon engrais pour les plantations de saules. En effet, les rendements sur deux ans des parcelles ayant reçu les quantités croissantes de lisier étaient de l’ordre de 30,3 à 32,9 t/ha. Nous avons observé l’augmentation des teneurs en nitrate, cuivre et zinc dans le sol en fonction des apports croissants de lisier. Ces teneurs ont d’ailleurs diminué lors de la deuxième saison de croissance, ce qui pourrait être dû au prélèvement par les saules. Les concentrations printanières des eaux de lysimètres indiquent que la quantité maximale de lisier telle que testée lors de nos essais comporte un certain facteur de risque de lessivage des nitrates. Nous n’avons pas analysé la solution du sol des parcelles fertilisées avec des quantités plus faibles de lisier, mais nous pouvons croire qu’elles auraient induit des concentrations en nitrate comportant moins de risque de lessivage tout en assurant une productivité considérable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Il a été démontré que les enfants opérés pour une amygdalectomie éprouvaient des niveaux de douleur modérée à sévère, et ce pendant plusieurs jours suite à la chirurgie. Suite au retour à domicile, plusieurs parents ont tendance à administrer l’analgésie de façon non-optimale à leur enfant et ce pour diverses raisons, ce qui contribue au maintien de niveaux de douleur élevés et à l’incidence de complications postopératoires. But : Cette étude avait pour but d’évaluer l’effet d'un suivi infirmier téléphonique, effectué auprès de parents d'enfants opérés pour une amygdalectomie, sur la gestion de la douleur et la prévention de complications postopératoires. Méthode : Cette étude clinique randomisée a comparé un groupe expérimental (suivi infirmier téléphonique) à un groupe contrôle (traitement standard) (n = 52). Le suivi infirmier téléphonique fut effectué au 1er, 3e, 5e et 10e jour postopératoire et permettait d’évaluer l’évolution du client et d’offrir un enseignement personnalisé selon un cadre prédéfini. Les critères d’évaluation furent l’intensité de la douleur, la quantité d’analgésie administrée à l’enfant, les complications postopératoires et le recours à des services de santé non-planifiés. Résultats : Les enfants du groupe expérimental ont présenté une intensité de douleur plus faible au 3e jour postopératoire, le matin (P= 0.041) et le soir (P= 0.010). Les enfants de ce groupe ont reçu davantage de doses d’analgésiques au 1er jour postopératoire (P= 0.007) et au 5e jour postopératoire (P= 0.043). Ils ont eu moins de vomissements au congé de l’hôpital (P= 0.040) et au 3e jour postopératoire (P= 0.042), moins de somnolence au 1er jour postopératoire (P= 0.041), une meilleure hydratation au 1er (P= 0.014) et 3e jour postopératoire (P= 0.019), mais ont souffert davantage de constipation au 3e jour postopératoire (P< 0.001). Aucune différence significative n’a été observée quant au recours à des services de santé. Conclusion : Le suivi infirmier téléphonique, effectué auprès de parents d'enfants opérés pour une amygdalectomie, a certains effets bénéfiques sur la gestion de la douleur et la prévention de complications postopératoires, mais n’a pas eu d’effet significatif sur le recours à des services de santé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières décennies, la popularité des plantes médicinales s’est accrue auprès des civilisations occidentales de sorte que la quantité de plantes récoltées, la plupart provenant de populations sauvages, a grandement augmenté. Dans ce contexte, l’objectif principal de mon mémoire est d’évaluer l’impact de la récolte de deux plantes médicinales (Sarracenia purpurea et Rhododendron groenlandicum) utilisées par la Nation Crie du Nord du Québec. Pour y parvenir, des parcelles expérimentales, simulant différentes intensités de récolte (S. purpurea) et différentes méthodes de récolte (R. groenlandicum), ont été mises en place, puis des suivis annuels de la reprise ont été réalisés. Les résultats obtenus suggèrent que les techniques de récolte chez R. groenlandicum devraient exclure les nouvelles pousses, leur exploitation causant une forte mortalité. Par ailleurs, chez S. purpurea, la récolte de 20 % des individus semble peu dommageable, mais critique lorsque plus de 50 % des plants sont récoltés. Un modèle démographique pour S. purpurea a aussi été construit à partir des observations de terrain. Ce modèle a permis de réaliser des projections temporelles en variant les taux de récoltes ainsi que les intervalles entre les récoltes. Les résultats indiquent qu’une récolte de 20 % des individus est acceptable une fois tous les 20 ans. Pour une récolte plus régulière, 5 % tous les trois ans serait soutenable. Mon projet permettra d’assurer une exploitation soutenable de deux plantes médicinales ayant un grand potentiel pour le traitement du diabète de type II.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interaction d’un ligand avec un récepteur à sept domaines transmembranaires (7TMR) couplé aux protéines G, mène à l’adoption de différentes conformations par le récepteur. Ces diverses conformations pourraient expliquer l’activation différentielle des voies de signalisation. Or, le lien entre la conformation et l’activité du récepteur n’est pas tout à fait claire. Selon les modèles classiques pharmacologiques, comme le modèle du complexe ternaire, il n’existe qu’un nombre limité de conformations qu’un récepteur peut adopter. Afin d’établir un lien entre la structure et la fonction des récepteurs, nous avons choisi dans un premier temps, le récepteur de chimiokine CXCR4 comme récepteur modèle. Ce dernier, est une cible thérapeutique prometteuse, impliqué dans l’entrée du VIH-1 dans les cellules cibles et dans la dissémination de métastases cancéreuses. Grâce au transfert d’énergie par résonance de bioluminescence (BRET) nous pouvons détecter les changements conformationnels des homodimères constitutifs de CXCR4 dans les cellules vivantes. En conséquence, nous avons mesuré les conformations de mutants de CXCR4 dont les mutations affecteraient sa fonction. Nous montrons que la capacité des mutants à activer la protéine Galphai est altérée suite au traitement avec l’agoniste SDF-1. Notamment, ces mutations altèrent la conformation du récepteur à l’état basal ainsi que la réponse conformationnelle induite suite au traitement avec l’agoniste SDF-1, l’agoniste partiel AMD3100 ou l’agoniste inverse TC14012. Ainsi, différentes conformations de CXCR4 peuvent donner lieu à une activation similaire de la protéine G, ce qui implique une flexibilité des récepteurs actifs qui ne peut pas être expliquée par le modèle du complexe ternaire (Berchiche et al. 2007). Également, nous nous sommes intéressés au récepteur de chimiokine CCR2, exprimé à la surface des cellules immunitaires. Il joue un rôle important dans l’inflammation et dans des pathologies inflammatoires telles que l’asthme. CCR2 forme des homodimères constitutifs et possède différents ligands naturels dont la redondance fonctionnelle a été suggérée. Nous avons étudié le lien entre les conformations et les activations d’effecteurs (fonctions) de CCR2. Notre hypothèse est que les différents ligands naturels induisent différentes conformations du récepteur menant à différentes fonctions. Nous montrons que les réponses de CCR2 aux différents ligands ne sont pas redondantes au niveau pharmacologique et que les chimiokines CCL8, CCL7 et CCL13 (MCP-2 à MCP-4) sont des agonistes partiels de CCR2, du moins dans les systèmes que nous avons étudiés. Ainsi, l’absence de redondance fonctionnelle parmi les chimiokines liant le même récepteur, ne résulterait pas de mécanismes complexes de régulation in vivo, mais ferait partie de leurs propriétés pharmacologiques intrinsèques (Berchiche et al. 2011). Enfin, nous nous sommes intéressés au récepteur de chimiokine CXCR7. Récemment identifié, CXCR7 est le deuxième récepteur cible de la chimiokine SDF-1. Cette chimiokine a été considérée comme étant capable d’interagir uniquement avec le récepteur CXCR4. Notamment, CXCR4 et CXCR7 possèdent un patron d’expression semblable dans les tissus. Nous avons évalué l’effet de l’AMD3100, ligand synthétique de CXCR4, sur la conformation et la signalisation de CXCR7. Nos résultats montrent qu’AMD3100, tout comme SDF-1, lie CXCR7 et augmente la liaison de SDF-1 à CXCR7. Grâce au BRET, nous montrons aussi qu’AMD3100 seul est un agoniste de CXCR7 et qu’il est un modulateur allostérique positif de la liaison de SDF-1 à CXCR7. Aussi, nous montrons pour la première fois le recrutement de la beta-arrestine 2 à CXCR7 en réponse à un agoniste. L’AMD3100 est un ligand de CXCR4 et de CXCR7 avec des effets opposés, ce qui appelle à la prudence lors de l’utilisation de cette molécule pour l’étude des voies de signalisation impliquant SDF-1 (Kalatskaya et al. 2009). En conclusion, nos travaux amènent des évidences qu’il existe plusieurs conformations actives des récepteurs et appuient les modèles de structure-activité des récepteurs qui prennent en considération leur flexibilité conformationnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements évolutifs nous instruisent sur les nombreuses innovations permettant à chaque organisme de maximiser ses aptitudes en choisissant le partenaire approprié, telles que les caractéristiques sexuelles secondaires, les patrons comportementaux, les attractifs chimiques et les mécanismes sensoriels y répondant. L'haploïde de la levure Saccharomyces cerevisiae distingue son partenaire en interprétant le gradient de la concentration d'une phéromone sécrétée par les partenaires potentiels grâce à un réseau de protéines signalétiques de type kinase activées par la mitose (MAPK). La décision de la liaison sexuelle chez la levure est un événement en "tout–ourien", à la manière d'un interrupteur. Les cellules haploïdes choisissent leur partenaire sexuel en fonction de la concentration de phéromones qu’il produit. Seul le partenaire à proximité sécrétant des concentrations de phéromones égales ou supérieures à une concentration critique est retenu. Les faibles signaux de phéromones sont attribués à des partenaires pouvant mener à des accouplements infructueux. Notre compréhension du mécanisme moléculaire contrôlant cet interrupteur de la décision d'accouplement reste encore mince. Dans le cadre de la présente thèse, je démontre que le mécanisme de décision de la liaison sexuelle provient de la compétition pour le contrôle de l'état de phosphorylation de quatre sites sur la protéine d'échafaudage Ste5, entre la MAPK, Fus3, et la phosphatase,Ptc1. Cette compétition résulte en la dissociation de type « intérupteur » entre Fus3 et Ste5, nécessaire à la prise de décision d'accouplement en "tout-ou-rien". Ainsi, la décision de la liaison sexuelle s'effectue à une étape précoce de la voie de réponse aux phéromones et se produit rapidement, peut-être dans le but de prévenir la perte d’un partenaire potentiel. Nous argumentons que l'architecture du circuit Fus3-Ste5-Ptc1 génère un mécanisme inédit d'ultrasensibilité, ressemblant à "l'ultrasensibilité d'ordre zéro", qui résiste aux variations de concentration de ces protéines. Cette robustesse assure que l'accouplement puisse se produire en dépit de la stochasticité cellulaire ou de variations génétiques entre individus.Je démontre, par la suite, qu'un évènement précoce en réponse aux signaux extracellulaires recrutant Ste5 à la membrane plasmique est également ultrasensible à l'augmentation de la concentration de phéromones et que cette ultrasensibilité est engendrée par la déphosphorylation de huit phosphosites en N-terminal sur Ste5 par la phosphatase Ptc1 lorsqu'elle est associée à Ste5 via la protéine polarisante, Bem1. L'interférence dans ce mécanisme provoque une perte de l'ultrasensibilité et réduit, du même coup, l'amplitude et la fidélité de la voie de réponse aux phéromones à la stimulation. Ces changements se reflètent en une réduction de la fidélité et de la précision de la morphologie attribuable à la réponse d'accouplement. La polarisation dans l'assemblage du complexe protéique à la surface de la membrane plasmique est un thème général persistant dans tous les organismes, de la bactérie à l'humain. Un tel complexe est en mesure d'accroître l'efficacité, la fidélité et la spécificité de la transmission du signal. L'ensemble de nos découvertes démontre que l'ultrasensibilité, la précision et la robustesse de la réponse aux phéromones découlent de la régulation de la phosphorylation stoichiométrique de deux groupes de phosphosites sur Ste5, par la phosphatase Ptc1, un groupe effectuant le recrutement ultrasensible de Ste5 à la membrane et un autre incitant la dissociation et l'activation ultrasensible de la MAPK terminal Fus3. Le rôle modulateur de Ste5 dans la décision de la destinée cellulaire étend le répertoire fonctionnel des protéines d'échafaudage bien au-delà de l'accessoire dans la spécificité et l'efficacité des traitements de l'information. La régulation de la dynamique des caractères signal-réponse à travers une telle régulation modulaire des groupes de phosphosites sur des protéines d'échafaudage combinées à l'assemblage à la membrane peut être un moyen général par lequel la polarisation du destin cellulaire est obtenue. Des mécanismes similaires peuvent contrôler les décisions cellulaires dans les organismes complexes et peuvent être compromis dans des dérèglements cellulaires, tel que le cancer. Finalement, sur un thème relié, je présente la découverte d'un nouveau mécanisme où le seuil de la concentration de phéromones est contrôlé par une voie sensorielle de nutriments, ajustant, de cette manière, le point prédéterminé dans lequel la quantité et la qualité des nutriments accessibles dans l'environnement déterminent le seuil à partir duquel la levure s'accouple. La sous-unité régulatrice de la kinase à protéine A (PKA),Bcy1, une composante clé du réseau signalétique du senseur aux nutriments, interagit directement avec la sous-unité α des petites protéines G, Gpa1, le premier effecteur dans le réseau de réponse aux phéromones. L'interaction Bcy1-Gpa1 est accrue lorsque la cellule croit en présence d'un sucre idéal, le glucose, diminuant la concentration seuil auquel la décision d'accouplement est activée. Compromettre l'interaction Bcy1-Gpa1 ou inactiver Bcy1 accroît la concentration seuil nécessaire à une réponse aux phéromones. Nous argumentons qu'en ajustant leur sensibilité, les levures peuvent intégrer le stimulus provenant des phéromones au niveau du glucose extracellulaire, priorisant la décision de survie dans un milieu pauvre ou continuer leur cycle sexuel en choisissant un accouplement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le LiFePO4 est un matériau prometteur pour les cathodes des batteries au lithium. Il possède une bonne stabilité à haute température et les précurseurs utilisés pour la synthèse sont peu couteux. Malheureusement, sa faible conductivité nuit aux performances électrochimiques. Le fait de diminuer la taille des particules ou d’enrober les particules d’une couche de carbone permet d’augmenter la conductivité. Nous avons utilisé une nouvelle méthode appelée « synthèse par voie fondue » pour synthétiser le LiFePO4. Cette synthèse donne des gros cristaux et aucune impureté n’est détectée par analyse Rayon-X. En revanche, la synthèse de LiXFePO4 donne un mélange de LiFePO4 pur et d’impureté à base de lithium ou de fer selon l’excès de fer ou de lithium utilisé. La taille des particules de LiFePO4 est réduite à l’aide d’un broyeur planétaire et plusieurs paramètres de broyage sont étudiés. Une couche de carbone est ensuite déposée sur la surface des particules broyées par un traitement thermique sur le LiFePO4 avec du -lactose. L’influence de plusieurs paramètres comme la température du traitement thermique ou la durée du chauffage sont étudiés. Ces expériences sont réalisées avec un appareil d’analyse thermogravimétrique (ATG) qui donne la quantité de chaleur ainsi que la variation de masse durant le chauffage de l’échantillon. Ce nouveau chauffage pour la couche de carbone donne des échantillons dont les performances électrochimiques sont similaires à celles obtenues précédemment avec la méthode de chauffage pour la couche de carbone utilisant le four tubulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pratique physique a longtemps été perçue comme le déterminant premier de l’apprentissage du mouvement. Souvent exprimée par l’expression « Vingt fois sur le métier remettez votre ouvrage», cette idée se base sur l’observation qu’une grande quantité de pratique est nécessaire pour maîtriser un geste technique complexe. Bien que l’importance de la pratique physique pour l’apprentissage du mouvement demeure indéniable, il a récemment été démontré que les changements neurobiologiques qui constituent les bases de la mémoire prennent place après la pratique. Ces changements, regroupés sous le terme « consolidation », sont essentiels à la mise en mémoire des habiletés motrices. L’objectif de cette thèse est de définir les processus de consolidation en identifiant certains facteurs qui influencent la consolidation d’une habileté motrice. À l’aide d’une tâche d’adaptation visuomotrice comportant deux niveaux de difficulté, nous avons démontré qu’une bonne performance doit être atteinte au cours de la séance de pratique pour enclencher certains processus de consolidation. De plus, nos résultats indiquent que l’évaluation subjective que l’apprenant fait de sa propre performance peut moduler la consolidation. Finalement, nous avons démontré que l’apprentissage par observation peut enclencher certains processus de consolidation, indiquant que la consolidation n’est pas exclusive à la pratique physique. Dans l’ensemble, les résultats des études expérimentales présentées dans cette thèse montrent que la consolidation regroupe plusieurs processus distincts jouant chacun un rôle important pour l’apprentissage du mouvement. Les éducateurs physiques, les entraineurs sportifs et les spécialistes de la réadaptation physique devraient donc planifier des entrainements favorisant non seulement l’acquisition de gestes moteurs mais également leur consolidation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les métaux lourds (ML) s’accumulent de plus en plus dans les sols à l’échelle mondiale, d’une part à cause des engrais minéraux et divers produits chimiques utilisés en agriculture intensive, et d’autre part à cause des activités industrielles. Toutes ces activités génèrent des déchets toxiques qui s’accumulent dans l’environnement. Les ML ne sont pas biodégradables et leur accumulation cause donc des problèmes de toxicité des sols et affecte la biodiversité des microorganismes qui y vivent. La fertilisation en azote (N) est une pratique courante en agriculture à grande échelle qui permet d’augmenter la fertilité des sols et la productivité des cultures. Cependant, son utilisation à long terme cause plusieurs effets néfastes pour l'environnement. Par exemple, elle augmente la quantité des ML dans les sols, les nappes phréatiques et les plantes. En outre, ces effets néfastes réduisent et changent considérablement la biodiversité des écosystèmes terrestres. La structure des communautés des champignons mycorhiziens à arbuscules (CMA) a été étudiée dans des sols contaminés par des ML issus de la fertilisation à long terme en N. Le rôle des différentes espèces de CMA dans l'absorption et la séquestration des ML a été aussi investigué. Dans une première expérience, la structure des communautés de CMA a été analysée à partir d’échantillons de sols de sites contaminés par des ML et de sites témoins non-contaminés. Nous avons constaté que la diversité des CMA indigènes a été plus faible dans les sols et les racines des plantes récoltées à partir de sites contaminés par rapport aux sites noncontaminés. Nous avons également constaté que la structure de la communauté d'AMF a été modifiée par la présence des ML dans les sols. Certains ribotypes des CMA ont été plus souvent associés aux sites contaminés, alors que d’autres ribotypes ont été associés aux sites non-contaminés. Cependant, certains ribotypes ont été observés aussi bien dans les sols pollués que non-pollués. Dans une deuxième expérience, les effets de la fertilisation organique et minérale (N) sur les différentes structures des communautés des CMA ont été étudiés. La variation de la structure de la communauté de CMA colonisant les racines a été analysée en fonction du type de fertilisation. Certains ribotypes de CMA étaient associés à la fertilisation organique et d'autres à la fertilisation minérale. En revanche, la fertilisation minérale a réduit le nombre de ribotypes de CMA alors que la fertilisation organique l’a augmenté. Dans cette expérience, j’ai démontré que le changement de structure des communautés de CMA colonisant des racines a eu un effet significatif sur la productivité des plantes. Dans une troisième expérience, le rôle de deux espèces de CMA (Glomus irregulare et G. mosseae) dans l'absorption du cadmium (Cd) par des plants de tournesol cultivés dans des sols amendés avec trois niveaux différents de Cd a été évalué. J’ai démontré que les deux espèces de CMA affectent différemment l’absorption ou la séquestration de ce ML par les plants de tournesol. Cette expérience a permis de mieux comprendre le rôle potentiel des CMA dans l'absorption des ML selon la concentration de cadmium dans le sol et les espèces de CMA. Mes recherches de doctorat démontrent donc que la fertilisation en N affecte la structure des communautés des CMA dans les racines et le sol. Le changement de structure de la communauté de CMA colonisant les racines affecte de manière significative la productivité des plantes. J’ai aussi démontré que, sous nos conditions expériemntales, l’espèce de CMA G. irregulare a été observée dans tous les sites (pollués et non-pollués), tandis que le G. mosseae n’a été observé en abondance que dans les sites contaminés. Par conséquent, j’ai étudié le rôle de ces deux espèces (G. irregulare et G. mosseae) dans l'absorption du Cd par le tournesol cultivé dans des sols amendés avec trois différents niveaux de Cd en serre. Les résultats indiquent que les espèces de CMA ont un potentiel différent pour atténuer la toxicité des ML dans les plantes hôtes, selon le niveau de concentration en Cd. En conclusion, mes travaux suggèrent que le G. irregulare est une espèce potentiellement importante pour la phytoextration du Cd, alors que le G. mosseae pourrait être une espèce appropriée pour phytostabilisation du Cd et du Zn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, des réseaux ont été implantés afin de contrer le manque d’intégration des services offerts aux personnes vivant avec un traumatisme cranio-cérébral (TCC). Toutefois, l’évaluation de leur performance est actuellement limitée par l’absence de description et de conceptualisation de leur performance. Le but de cette thèse est de poser les bases préliminaires d’un processus d’évaluation de la performance des réseaux TCC. Nos objectifs sont de 1) décrire les organisations, la nature et la qualité des liens ainsi que la configuration d’un réseau TCC; 2) connaître les perceptions des constituants du réseau quant aux forces, faiblesses, opportunités et menaces propres à cette forme organisationnelle; 3) documenter et comparer les perceptions de répondants provenant de divers types d’organisations quant à l’importance de 16 dimensions du concept de performance pour l’évaluation des réseaux TCC; 4) réconcilier les perceptions différentes afin de proposer une hiérarchisation consensuelle des dimensions de la performance. En utilisant la méthode de l’analyse du réseau social, nous avons décrit un réseau de petite taille, modérément dense et essentiellement organisé autour de quatre organisations fortement centralisées. Les constituants ont décrit leur réseau comme présentant autant de forces que de faiblesses. La majorité des enjeux rapportés étaient relatifs à l’Adaptation du réseau à son environnement et au Maintien des Valeurs. Par ailleurs, les représentants des 46 organisations membre d’un réseau TCC ont perçu les dimensions de la performance relatives à l’Atteinte des buts comme étant plus importantes que celles relatives aux Processus. La Capacité d’attirer la clientèle, la Continuité et la Capacité de s’adapter pour répondre aux besoins des clients étaient les trois dimensions les plus importantes, tandis que la Capacité de s’adapter aux exigences et aux tendances et la Quantité de soins et de services étaient les moins importants. Les groupes TRIAGE ont permis aux constituants de s’entendre sur l’importance accordée à chaque dimension et d’uniformiser leurs différentes perspectives. Bien que plusieurs étapes demeurent à franchir pour actualiser le processus d’évaluation de la performance des réseaux TCC québécois, nos travaux permettent de poser des bases scientifiques solides qui optimisent la pertinence et l’appropriation des résultats pour les étapes ultérieures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.