776 resultados para peacock bass
Resumo:
Afin de lutter contre la mortalité maternelle dont les taux restent encore élevés avec 401 pour 100 000 naissances vivantes en 2005, le Sénégal a mis en œuvre dans la continuité de ses stratégies novatrices de délégation de compétences pour renforcer l’accès aux soins obstétricaux et néonataux d’urgence, un programme alternatif de formation au D.E.S de Gynécologie et Obstétrique de médecins généralistes basés dans les zones éloignées. A partir du curriculum du programme classique, ce programme allie l’enseignement à distance à l’aide des Nouvelles Technologies de l’Information et de la Communication, des stages pratiques dans les sites du CHU, le coaching par les enseignants du CHU dans les Centres de santé où officient les médecins apprenants, des évaluations en ligne et les évaluations annuelles formelles du programme de formation classique. Il a été mis en œuvre dans deux districts du Sénégal par la Chaire de Gynécologie et d’Obstétrique du CHU de Dakar. Ce travail présente l’évaluation à mi-parcours de ce programme en analysant son implantation et ses effets à travers une étude de cas, grâce à des données qualitatives et quantitatives. Les résultats montrent : une évolution favorable des indicateurs sanitaires dans les deux sites du programme comparativement aux sites témoins, une augmentation du niveau de connaissance et de compétence des apprenants, et un niveau de satisfaction élevé des deux apprenants, des enseignants et des bénéficiaires. Cependant, des améliorations sont à apporter dans la mise en œuvre du programme en particulier en termes d’opérationnalisation des innovations pédagogiques, de coordination et de pérennisation par le Ministère de la Santé.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].
Resumo:
Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.
Resumo:
Les propriétés d'une nouvelle classe de chimie de surface basée sur les monocouches auto-assemblées de liquides ioniques (ILs-SAMs), ont été étudiées pour une utilisation dans la construction de biocapteurs basés sur la résonance des plasmons de surface (SPR). Les biocapteurs sont utiles pour détecter des biomolécules spécifiques dans une matrice biologique complexe. Cependant, le signal analytique de la biomolécule spécifique peut être masqué par l’adsorption non spécifique de la matrice biologique, produisant une réponse faussement positive. Par ailleurs, l'activité des récepteurs moléculaires est souvent réduite par des techniques d'immobilisation chimique. Ainsi, il est essentiel de déterminer une surface idéale pour la préparation de biocapteurs. Les liquides ioniques sont bien connus pour favoriser l'activité des récepteurs moléculaires et cette étude enquête si cette propriété importante peut se traduire sur des capteurs SPR. Différents liquides ioniques ont été utilisés pour former des monocouches auto-assemblées sur une surface d'or. Les ILs-SAMs sont tous basés sur les sels de mercapto-(chaîne alkyle)nCH2-méthylimidazolium avec différentes chaînes alkyles (n = 3, 6, 9, 12) et différents contre-anions (Br-, BF4-, PF6-, NTf2-). Des études cinétiques de l'adsorption non spécifique de sérum bovin ont été réalisées sur des capteurs SPR avec un instrument construit sur mesure, basé sur l'interrogation des longueurs d’ondes SPR sur un prisme d’inversion d’image (dove). Par la suite, l’anti-IgG de chèvre sélective à l’IgG humain a été utilisé en tant que modèle pour la confection de biocapteurs sur les ILs-SAMs. En solution, il est possible d’effectuer des échanges du contre-anion des liquides ioniques pour un contre-anion de plus en plus hydrophobe. Cependant, l’échange inverse, soit vers des anions de plus en plus hydrophile, s’avère impossible. Toutefois, il a été observé par les travaux présentés dans ce mémoire, que les liquides ioniques immobilisés sur une surface d'or ont la capacité d'échanger leurs contre-anions réversiblement, procurant une méthode simple de moduler leurs propriétés physico-chimiques. Ce phénomène a été observé par la mesure d’angles de contacts et par les techniques spectroscopiques de l’infrarouge moyen (mid-IR), des photoélectrons de rayon-X (XPS) et par la diffusion Raman exaltée par les surfaces (SERS) ii ainsi que par la spectrométrie de masse (MS). La connaissance des propriétés d’échange d’anion est importante pour prédire le comportement de ces surfaces de liquides ioniques dans les tampons et fluides biologiques.
Resumo:
Objectif : Examiner la relation entre une exposition professionnelle aux fumées de soudage au gaz et à l’arc et le risque de développer un cancer du poumon, chez des travailleurs provenant de différents milieux de travail et exposés à de nombreuses substances de différentes concentrations. Méthodes : Nous avons mené deux études cas-témoins basés sur la population montréalaise (1979-86 et 1996-2001), incluant respectivement 857 et 736 cas, ainsi que des témoins appariés selon la fréquence des cas, le sexe et le lieu de résidence. Un historique détaillé des emplois occupés fut obtenu par entrevue et évalué par une équipe d’experts afin d’estimer l’intensité, la durée ainsi que l’exposition cumulative à un grand nombre de substances. Les fumées de soudage au gaz et à l’arc sont parmi les substances évaluées et nous avons pu calculer un rapport de cote (RC) et son intervalle de confiance de 95% (IC 95%) pour le risque de cancer du poumon en utilisant la régression logistique et en ajustant pour l’historique de tabagisme et plusieurs autres covariables pertinentes. Des analyses subséquentes ont permis d’explorer d’autres voies, comme la modification des effets observés par le tabagisme. Résultats : Les résultats obtenus à partir des deux études étant assez similaires, nous avons donc pu les combiner pour former une seule étude. Aucune association statistiquement significative n’a été trouvée entre le cancer du poumon et les fumées de soudage au gaz (RC=1,13; IC 95%=0,90-1,42) et les fumées de soudage à l’arc (RC=1,01; IC 95%=0,80-1,26). Par contre, dans le sous-groupe des non-fumeurs et fumeurs très légers, nous avons trouvé un risque accru de cancer du poumon en relation avec les fumées de soudage au gaz (RC=2,78; IC 95%=1,66-4,65) et à l’arc (RC=2,20; IC 95%=1,32-3,70). En se concentrant sur ce sous-groupe, nous avons trouvé un risque encore plus élevé de développer un cancer du poumon pour ceux exposé à des doses plus substantielles, pour le soudage au gaz (RC=4,63; IC 95%=2,14-10,03) et à l’arc (RC=3,45; IC 95%=1,59-7,48). Discussion : Globalement, aucun excès de risque causé par une exposition aux fumées de soudage n’a été détecté, mais un excès a été trouvé chez les non-fumeurs et fumeurs légers uniquement et ce, pour les deux types de fumées de soudage. L’effet des fumées de soudage peut être voilé chez les fumeurs, ou bien les non-fumeurs pourraient être plus vulnérables.
Resumo:
Le Plan d’action en santé mentale institué en 2005 marque le début d’une période de changements profonds qui auront un impact significatif sur les équipes de première ligne qui assurent la plupart des services au Québec. Le changement se manifestera sur deux fronts distincts. En premier lieu, le passage de services historiquement ancrés dans un modèle biomédical vers des services centrés sur le rétablissement. En second lieu, l’adoption de processus administratifs s’inscrivant dans une philosophie de gestion axée sur les résultats qui ont pour objectif de mesurer et d’assurer l’efficacité des services. L'objectif de cette étude est d’explorer le statu du développement des pratiques axées sur le rétablissement au niveau des travailleurs sociaux de première ligne dans le contexte administratif mentionné ci-haut. Le travail de recherche qualitatif et exploratoire est construit sur l’analyse de 11 interviews semi structurés avec des travailleurs sociaux et des gestionnaires dans des équipes de première ligne en santé mentale. Les entretiens m’ont non seulement permis d’identifier et d’examiner des actions concrètes s’inscrivant dans l’effort d’implantation du Plan d’action mais aussi de sonder et d’explorer la signification qui est donnée au rétablissement par les travailleurs sociaux de première ligne. Les résultats indiquent que certains facteurs relatifs à l'organisation du travail tels que la flexibilité, l'autonomie, la réflexivité et l’interdisciplinarité peuvent favoriser une pratique orientée vers le rétablissement. Aussi, les résultats démontrent que le modèle du rétablissement et la profession du travail social partagent des valeurs fondamentales mais que la signification et l'expression du rétablissement ont été profondément influencés par les modèles organisationnels et obligations administratives en vigueur. Il appert que les travailleurs sociaux sont confrontés, dans leur pratique, à des contraintes qui dépassent leur mandat professionnel et, à certains égards, leur savoir-faire. En somme, les résultats obtenus indiquent que le passage avec succès vers la pratique de services basés sur le rétablissement est compromis par les exigences d’un modèle de gestion axé sur les résultats.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
Dans un contexte où l’approvisionnement énergétique mondial du 21e siècle est un enjeu majeur, le développement de sources d’énergie renouvelables suscite l’attention croissante de la communauté scientifique et industrielle. L’énergie solaire est définitivement l’une des meilleures alternatives aux combustibles fossiles en tant que source d’énergie du monde de demain. Ce mémoire traite donc du développement de nouveaux matériaux organométalliques pour des applications de photorécoltage d’énergie en photovoltaïque et en production d’hydrogène. Le premier chapitre présente la synthèse assistée par microondes de quatre nouveaux complexes de Co(II), Ni(II), Cu(II) et Zn(II) basés sur le ligand tétra-p-méthoxyphényl-azadipyrrométhène (ADPM) avec des rendements variant de 89% à quantitatif. Ces complexes sont mis en relation avec d’autres complexes homoleptiques connus portant le tétraphényl-ADPM comme ligand ainsi qu’avec leurs chélates de BF2+ pour une meilleure compréhension des tendances engendrées par la substitution de l’agent coordonnant et/ou des substituants p-méthoxy. Pour ce faire, le comportement électrochimique et photophysique est présenté. De façon générale, la présence des quatre groupements p-méthoxy semble rendre les dérivés de cet ADPM plus susceptibles à la dégradation électrochimique en conditions d’oxydation et induire un déplacement bathochromique des propriétés optiques d’absorption et d’émission. Les structures rayons X du ligand tétra-p-méthoxyphényl-ADPM et de son complexe homoleptique de Co(II) sont aussi discutées. Cette étude a été effectuée dans l’espoir de fournir des informations utiles sur la stabilité des ADPM aux chercheurs du domaine photovoltaïque en quête de nouveaux chromophores dans le proche infrarouge (NIR). Le deuxième chapitre présente quant à lui les propriétés de senseur envers les anions F-, OAc- et H2PO4- de deux nouveaux complexes neutres de Re(I) de type mono- et dinucléaire basés sur une phénanthroline substituée en position 5 contenant un récepteur thio-urée. Ces composés ont été obtenus dans des rendements de 81% et 60%, respectivement. L’effet de la formation de ponts hydrogène lors de l’ajout d’anions versus la déprotonation du récepteur a été évalué par des titrations UV/Vis et RMN 1H et semble indiquer que la formation de la base conjuguée du récepteur est favorisée pour ce type de système. De plus, la structure rayons X d’un des précurseurs est présentée et permet une discussion sur la chiralité des complexes mono- et dinucléaire obtenus. L’obtention d’un complexe bimétallique par autoassemblage ouvre la voie à la préparation d’antennes moléculaires pour des systèmes de photosynthèse artificielle.
Resumo:
Cette recherche porte sur la pertinence et la faisabilité d’un programme de formation continue à distance des enseignants qualifiés de l’enseignement secondaire général public du Bénin. Elle a deux objectifs spécifiques : l’identification et l’analyse des besoins de formation continue des enseignants du secondaire du Bénin et l’étude des modalités administratives, pédagogiques et techniques de mise en place d’un tel programme dans le contexte béninois. Les recherches sont effectuées sur la base de la mise en œuvre de la technique du groupe nominal (TGN) qui a permis de générer un premier questionnaire soumis à un échantillon de 278 enseignants représentatifs des 1 488 enseignants qualifiés de l’enseignement secondaire général public du Bénin et trois autres questionnaires, basés sur la technique Delphi, adressés à 13 experts du système éducatif béninois. Il apparaît qu’un futur programme de formation continue à distance des enseignants du secondaire devrait comporter, principalement, les trois thèmes ci-après, classés par ordre de priorité : «Technologies de l’information et de la communication »; «Méthodes pédagogiques» et « Matière de spécialité ». L’utilisation de la technique Delphi a permis d’établir une liste de 23 items correspondant aux modalités administratives, pédagogiques et techniques pour la mise en œuvre de la formation. L’analyse des résultats de la technique Delphi et celle des réponses au questionnaire adressé aux enseignants ont permis d’opérer un choix de médias à utiliser et/ou à intégrer pour transmettre le savoir et soutenir l’apprentissage. Il ressort des résultats de la recherche que les enseignants béninois du secondaire ont d’importants besoins de formation continue et que la conception et la mise en œuvre d’un programme de formation à distance axée sur l’utilisation des TIC sont pertinentes et faisables au Bénin. Un modèle organisationnel de formation continue à distance a été proposé.
Resumo:
Le Streptocoque de groupe B (GBS) est un important agent d’infection invasive pouvant mener à la mort et demeure la cause principale de septicémie néonatale à ce jour. Neuf sérotypes ont été officiellement décrits basés sur la composition de la capsule polysaccharidique (CPS). Parmi ces sérotypes, le type III est considéré le plus virulent et fréquemment associé aux maladies invasives graves, telle que la méningite. Malgré que plusieurs recherches aient été effectuées au niveau des interactions entre GBS type III et les cellules du système immunitaire innées, aucune information n’est disponible sur la régulation de la réponse immunitaire adaptative dirigée contre ce dernier. Notamment, le rôle de cellules T CD4+ dans l’immuno-pathogenèse de l’infection causée par GBS n’a jamais été étudié. Dans cet étude, trois différents modèles murins d’infection ont été développé pour évaluer l’activation et la modulation des cellules T CD4+ répondantes au GBS de type III : ex vivo, in vivo, et in vitro. Les résultats d’infections ex vivo démontrent que les splénocytes totaux répondent à l’infection en produisant des cytokines de type-1 pro-inflammatoires. Une forte production d’IL-10 accompagne cette cascade inflammatoire, probablement dans l’effort de l’hôte de maintenir l’homéostasie. Les résultats démontrent aussi que les cellules T sont activement recrutées par les cellules répondantes du système inné en produisant des facteurs chimiotactiques, tels que CXCL9, CXCL10, et CCL3. Plus spécifiquement, les résultats obtenus à partir des cellules isolées T CD4+ provenant des infections ex vivo ou in vivo démontrent que ces cellules participent à la production d’IFN-γ et de TNF-α ainsi que d’IL-2, suggérant un profil d’activation Th1. Les cellules isolées T CD4+ n’étaient pas des contributeurs majeurs d’IL-10. Ceci indique que cette cytokine immuno-régulatrice est principalement produite par les cellules de l’immunité innée de la rate de souris infectées. Le profil Th1 des cellules T CD4+ a été confirmé en utilisant un modèle in vitro. Nos résultats démontrent aussi que la CPS de GBS a une role immuno-modulateur dans le développement de la réponse Th1. En résumé, cette étude adresse pour la première fois, la contribution des cellules T CD4+ dans la production d’IFN-γ lors d’une infection à GBS et donc, dans le développement d’une réponse de type Th1. Ces résultats renforcent d’avantage le rôle central de cette cytokine pour un control efficace des infections causées par ce pathogène.
Resumo:
L’étude porte sur la question des burakumin, les intouchables japonais, dans deux oeuvres de l’écrivain japonais Nakagami Kenji (1946-1992), lui-même issu de cette communauté. Mille ans de plaisir, recueil de six contes basés sur des récits de vie, et le roman Miracle forment une suite organisée autour des mêmes lieux, des mêmes personnages et des mêmes thèmes. Ils décrivent la condition sociale d’une collectivité mise au ban de la société japonaise malgré sa modernisation. Ils se distinguent par leur caractère d’ethnofiction. Nakagami cherche à réhabiliter les burakumin en valorisant le patrimoine religieux et folklorique dont ils sont dépositaires. Il puise dans les genres traditionnels comme le monogatari ou les contes et légendes du Japon. Il s’inspire également d’auteurs modernes japonais (Mishima, Tanizaki) et d’auteurs étrangers (Faulkner, García-Márquez). À partir de cet intertexte et pour faire barrage à l’occidentalisation, il élabore un style « hybride » digne de la littérature nationale (kokubungaku). Les oeuvres traditionnelles sont réinterprétées dans une esthétique postmoderne ayant une fonction ironique et critique contre l’idéologie impériale répressive qui continue d’alimenter la discrimination envers les burakumin. L’analyse porte sur les procédés qui sous-tendent le projet social et le projet littéraire de l’auteur. Elle se divise en trois parties. La première donne un aperçu biographique de l’auteur et décrit les composantes de son projet social qui consiste à vouloir changer l’image et le statut des burakumin. La deuxième partie décrit les éléments religieux et folkloriques des deux oeuvres et analyse en contexte leur signification ainsi que leur fonction, qui est de mettre en valeur les traditions préservées par les burakumin. La troisième partie montre en quoi le répertoire traditionnel (monogatari) et les intertextes sont mis au service du projet littéraire proprement dit.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).