862 resultados para make energy use more effective
Resumo:
Although local grape growers view bird depredation as a significant economic issue, the most recent research on the problem in the Niagara Peninsula is three decades old. Peer-reviewed publications on the subject are rare, and researchers have struggled to develop bird-damage assessment techniques useful for facilitating management programmes. I used a variation of Stevenson and Virgo's (1971) visual estimation procedure to quantify spatial and temporal trends in bird damage to grapes within single vineyard plots at two locations near St. Catharines, Ontario. I present a novel approach to managing the rank-data from visual estimates, which is unprecedented in its sensitivity to spatial trends in bird damage. I also review its valid use in comparative statistical analysis. Spatial trends in 3 out of 4 study plots confirmed a priori predictions about localisation in bird damage based on optimal foraging from a central location (staging area). Damage to grape clusters was: (1) greater near the edges of vineyard plots and decreased with distance towards the center, (2) greater in areas adjacent to staging areas for birds, and (3) vertically stratified, with upper-tier clusters sustaining more damage than lower-tier clusters. From a management perspective, this predictive approach provides vineyard owners with the ability to identify the portions of plots likely to be most susceptible to bird damage, and thus the opportunity to focus deterrent measures in these areas. Other management considerations at Henry of Pelham were: (1) wind damage to ice-wine Riesling and Vidal was much higher than bird damage, (2) plastic netting with narrow mesh provided more effective protection agsiinst birds than nylon netting with wider mesh, and (3) no trends in relative susceptibility of varietals by colour (red vs green) were evident.
Resumo:
Despite the confimied health benefits of exercise during the postpartum period, many new mothers are not sufficiently active. The present research aimed to examine the effectiveness of 2 types of messages on intention to exercise after giving birth on 2 groups of pregnant women (low and high self-monitors) using the Theory of Planned Behavior as a theoretical basis. Participants were 2 1 8 pregnant women 1 8 years of age and older (Mean age = 27.9 years, SD = 5.47), and in their second or third trimester. Women completed a demographics questionnaire, a self-monitoring (SM) scale and the Godin Leisure Time Exercise Questionnaire for current and pre-pregnancy exercise levels. They then read one of two brochures, describing either the health or appearance benefits of exercise for postpartum women. Women's attitudes, social norms, perceived behavioral control, and intentions to exercise postpartum were then assessed to determine whether one type of message (health or appearance) was more effective for each group. A MANOVA found no significant effect (p>0.05) for message type, SM, or their interaction. Possible reasons include the fact that the two messages may have been too similar, reading any message about exercise may result in intentions to exercise, or lack of attention given to the brochure. Given the lack of research in this area, more studies are necessary to confirm the present results. Two additional exploratory analyses were conducted. Pearson correlations found higher levels of pre-pregnancy exercise and current exercise to be associated with more positive attitudes, more positive subjective norms, higher perceived behavioral control, and higher intention to exercise postpartum. A hierarchical regression was conducted to determine the predictive utility of attitudes, subjective norms, and perceived behavioral control on intention for each self-monitoring group. Results of the analysis demonstrated the three independent variables significantly predicted intention (p < .001) in both groups, accounting for 58-62% of the variance in intention. For low self-monitors, attitude was the strongest predictor of intention, followed by perceived behavioral control and subjective norm. For high self-monitors, perceived behavioral control was the strongest predictors, followed by attitudes and subjective norm. The present study has practical and real world implications by contributing to our understanding of what types of messages, in a brochure format, are most effective in changing pregnant women's attitudes, subjective norm, perceived behavioral control and intention to exercise postpartum and provides ftirther support for the use of the Theory of Planned Behavior with this population.
Resumo:
This study assessed the effectiveness of a reciprocal teaching program as a method of teaching reading comprehension, using narrative text material in a t.ypical grade seven classroom. In order to determine the effectiveness of the reciprocal teaching program, this method was compared to two other reading instruction approaches that, unlike rcciprocal teaching, did not include social interaction components. Two intact grade scven classes, and a grade seven teacher, participated in this study. Students were appropriately assigned to three treatment groups by reading achievement level as determined from a norm-referenced test. Training proceeded for a five week intervention period during regularly scheduled English periods. Throughout the program curriculum-based tests were administered. These tests were designed to assess comprehension in two distinct ways; namely, character analysis components as they relate to narrative text, and strategy use components as they contribute to student understanding of narrative and expository text. Pre, post, and maintenance tests were administered to measure overall training effects. Moreover, during intervention, training probes were administered in the last period of each week to evaluate treatment group performance. AU curriculum-based tests were coded and comparisons of pre, post, maintenance tests and training probes were presented in graph form. Results showed that the reciprocal group achieved some improvement in reading comprehension scores in the strategy use component of the tests. No improvements were observed for the character analysis components of the curriculum-based tests and the norm-referenced tests. At pre and post intervention, interviews requiring students to respond to questions that addressed metacomprehension awareness of study strategies were administered. The intelviews were coded and comparisons were made between the two intelVicws. No significant improvements were observed regarding student awareness of ten identified study strategies . This study indicated that reciprocal teaching is a viable approach that can be utilized to help students acquire more effective comprehension strategies. However, the maximum utility of the technique when administered to a population of grade seven students performing at average to above average levels of reading achievement has yet to be determined. In order to explore this issue, the refinement of training materials and curriculum-based measurements need to be explored. As well, this study revealed that reciprocal teaching placed heavier demands on the classroom teacher when compared to other reading instruction methods. This may suggest that innovative and intensive teacher training techniques are required before it is feasible to use this method in the classroom.
Resumo:
This study assessed the usefulness of a cognitive behavior modification (CBM) intervention package with mentally retarded students in overcoming learned helplessness and improving learning strategies. It also examined the feasibility of instructing teachers in the use of such a training program for a classroom setting. A modified single subject design across individuals was employed using two groups of three subjects. Three students from each of two segregated schools for the mentally retarded were selected using a teacher questionnaire and pupil checklist of the most learned helpless students enrolled there. Three additional learned helplessness assessments were conducted on each subject before and after the intervention in order to evaluate the usefulness of the program in alleviating learned helplessness. A classroom environment was created with the three students from each school engaged in three twenty minute work sessions a week with the experimenter and a tutor experimenter (TE) as instructors. Baseline measurements were established on seven targeted behaviors for each subject: task-relevant speech, task-irrelevant speech, speech denoting a positive evaluation of performance, speech denoting a negative evaluation of performance, proportion of time on task, non-verbal positive evaluation of performance and non-verbal negative evaluation of performance. The intervention package combined a variety of CBM techniques such as Meichenbaum's (1977) Stop, Look and Listen approach, role rehearsal and feedback. During the intervention each subject met with his TE twice a week for an individual half-hour session and one joint twenty minute session with all three students, the experimentor and one TE. Five weeks after the end of this experiment one follow up probe was conducted. All baseline, post-intervention and probe sessions were videotaped. The seven targeted behaviors were coded and comparisons of baseline, post intervention, and probe testing were presented in graph form. Results showed a reduction in learned helplessness in all subjects. Improvement was noted in each of the seven targeted behaviors for each of the six subjects. This study indicated that mentally retarded children can be taught to reduce learned helplessness with the aid of a CBM intervention package. It also showed that CBM is a viable approach in helping mentally retarded students acquire more effective learning strategies. Because the TEs (Tutor experimenters) had no trouble learning and implementing this program, it was considered feasible for teachers to use similar methods in the classroom.
Resumo:
This thesis describes two different approaches for the preparation of polynuclear clusters with interesting structural, magnetic and optical properties. Firstly, exploiting p-tert-butylcalix[4]arene (TBC4) macrocycles together with selected Ln(III) ions for the assembly of emissive single molecule magnets, and secondly the preparation and coordination of a chiral mpmH ligand with selected 3d transition metal ions, working towards the discovery of chiral polynuclear clusters. In Project 1, the coordination chemistry of the TBC4 macrocycle together with Dy(III) and Tb(III) afforded two Ln6[TBC4]2 complexes that have been structurally, magnetically and optically characterized. X-ray diffraction studies reveal that both complexes contain an octahedral core of Ln6 ions capped by two fully deprotonated TBC4 macrocycles. Although the unit cells of the two complexes are very similar, the coordination geometries of their Ln(III) ions are subtly different. Variable temperature ac magnetic susceptibility studies reveal that both complexes display single molecule magnet (SMM) behaviour in zero dc field and the energy barriers and associated pre-exponential factors for each relaxation process have been determined. Low temperature solid state photoluminescence studies reveal that both complexes are emissive; however, the f-f transitions within the Dy6 complex were masked by broad emissions from the TBC4 ligand. In contrast, the Tb(III) complex displayed green emission with the spectrum comprising four sharp bands corresponding to 5D4 → 7FJ transitions (where J = 3, 4, 5 and 6), highlighting that energy transfer from the TBC4 macrocycle to the Tb(III) ion is more effective than to Dy. Examples of zero field Tb(III) SMMs are scarce in the chemical literature and the Tb6[TBC4]2 complex represents the first example of a Tb(III) dual property SMM assembled from a p-tert-butylcalix[4]arene macrocycle with two magnetically derived energy barriers, Ueff of 79 and 63 K. In Project 2, the coordination of both enantiomers of the chiral ligand, α-methyl-2-pyridinemethanol (mpmH) to Ni(II) and Co(II) afforded three polynuclear clusters that have been structurally and magnetically characterized. The first complex, a Ni4 cluster of stoichiometry [Ni4(O2CCMe3)4(mpm)4]·H2O crystallizes in a distorted cubane topology that is well known in Ni(II) cluster chemistry. The final two Co(II) complexes crystallize as a linear mixed valence trimer with stoichiometry [Co3(mpm)6]·(ClO4)2, and a Co4 mixed valence complex [Co(II)¬2Co(III)2(NO3)2(μ-mpm)4(ONO2)2], whose structural topology resembles that of a defective double cubane. All three complexes crystallize in chiral space groups and circular dichroism experiments further confirm that the chirality of the ligand has been transferred to the respective coordination complex. Magnetic susceptibility studies reveal that for all three complexes, there are competing ferro- and antiferromagnetic exchange interactions. The [Co(II)¬2Co(III)2(NO3)2(μ-mpm)4(ONO2)2] complex represents the first example of a chiral mixed valence Co4 cluster with a defective double cubane topology.
Resumo:
Problèmes d'approvisionnement et de consommation d'énergie, de démographie et d’urbanisation, la conservation du patrimoine bâti se trouve, en ce début de 21e siècle, face à de nombreux défis. Cela d'autant plus que la façon de percevoir le patrimoine bâti a considérablement évolué depuis le début du 20e siècle (chapitre 1) changeant ainsi les raisons qui mènent à l'appropriation d'un bâtiment patrimonial. Face à l'importance accordée aujourd'hui à l'énergie en général et plus particulièrement à celle consommée par les bâtiments (chapitre 2), comment les enjeux liés à la conservation patrimoniale et ceux liés à l'énergie - via son utilisation et sa production - se confrontent-ils ? Si selon les principes du développement durable (chapitre 3) la conservation du patrimoine bâti associée à une gestion efficace de ses besoins énergétiques semble apparaître comme une évidence, qu’en est-il dans la pratique ? Comment les professionnels du patrimoine bâti intègrent-ils les aspects de l'énergie consommée par les bâtiments ? Comment envisagent-ils l'installation et l'utilisation d'énergies renouvelables dans les bâtiments patrimoniaux ? Afin de trouver des réponses issues de la réalité de la pratique patrimoniale québécoise, ce mémoire - en se limitant à des professionnels avec une formation d'architecte (chapitre 4) - cherche à évaluer, d'une part, dans quelle mesure les chartes et lois appliquées au Québec considèrent les questions énergétiques (chapitre 5) et, d'autre part, à définir l'état d'esprit avec lequel les professionnels de la conservation du patrimoine bâti au Québec approchent, dans leur pratique, les questions liées à l'énergie consommée ainsi que l'utilisation d'énergies renouvelables (chapitre 6).
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
Réalisé en collaboration avec l'équipe de l'Unité de jour de diabète de l'Hôtel-Dieu du CHUM: Hortensia Mircescu M.D., Françoise Desrochers, Michelle Messier et Stéphanie Chanel Lefort.
Resumo:
Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.
Resumo:
L’immunothérapie tumorale à médiation cellulaire est un traitement qui utilise le système immunitaire des patients afin d’induire une réponse des lymphocytes T CD8+ (T CD8+) contre la tumeur. Cette réponse est produite suite à la reconnaissance des antigènes par les T CD8+. Ces cibles sont appelées antigènes tumoraux (TAA) et définies comme des protéines exprimées par les cellules cancéreuses mais absentes des tissus normaux. Par une approche bio-informatique, notre laboratoire a identifié Dickkopf-1 (DKK1), une protéine inhibitrice de la voie de Wnt, comme un TAA potentiel. Une immunothérapie à médiation cellulaire efficace requiert l’identification de TAA candidats pertinents. Le traitement de patients par immunothérapie pourrait également être améliorées par l’augmentation de la puissance d’action anti-tumorale ainsi que la persistante des T CD8+ spécifiques aux TAA. Ce projet de doctorat se divise en deux parties : 1- La caractérisation de l’expression de DKK1 dans les cancers communs et la détermination de son immunogénicité afin de valider sa candidature comme TAA. 2- La reprogrammation des T CD8+, de patients atteints d’un cancer commun, vers un phénotype moins différentié afin d’augmenter leur potentiel anti-tumoral et leur persistance. Dans le premier objectif, nous avons caractérisé l’expression de DKK1 dans le cancer du sein et dans d’autres cancers communs. Le profil d’expression de DKK1 a été étudié par RT-PCR et par ELISA dans plusieurs lignées cellulaires de cancer et dans les tissus normaux. L’expression de DKK1 a aussi été étudiée dans des échantillons cliniques provenant de cancers du sein, du poumon et du rein. Trente pourcents (30%) des tumeurs provenant d’un cancer du sein exprimaient DKK1. La moitié des tumeurs DKK1(+) était triple négative, donc pas de récepteurs d’œstrogène et de progestérone et était Her-2/neu(-) (ces patientes ont des possibilités de traitements très restreintes). De plus, 50% des échantillons cliniques de tumeurs du poumon et 30% des tumeurs de rein exprimaient DKK1. Les observations effectuées dans le cancer du poumon ont été, par la suite, corroborées par d'autres groupes qui ont montré une corrélation entre l'expression de DKK1 et un mauvais pronostic. Après avoir confirmée l’expression de DKK1 dans les cancers communs, justifiant ainsi sa candidature comme TAA, nous avons évalué l’immunogénicité de DKK1. Pour ce faire, nous avons effectué des stimulations in vitro de cellules mononucléées du sang périphérique (PBMC) de patient(e)s atteint(e)s d’un cancer du sein ou du poumon avec des peptides dérivés de DKK1 pouvant être présentés par les complexes majeurs d’histocompatibilité (CMH) HLA-A*0201. Des clones de T CD8+ reconnaissant un peptide de DKK1 ont été identifiés et isolés. Par essai multiplex et cytométrie de flux intracellulaire, la polyfonctionnalité d’un ces clones T CD8+ spécifiques à DKK1 a été étudiée et a révélée un profil effecteur, renforçant ainsi la candidature de DKK1 comme TAA. Dans l’ensemble, les résultats obtenus dans cette première partie de thèse suggèrent une possible utilisation de DKK1 en immunothérapie contre les cancers communs, attribuable à son expression dans ces cancers et la possibilité de faire proliférer des T CD8+ effecteurs spécifiques à DKK1 à partir de sang de patients. Dans la seconde partie de cette thèse, je décrirai la manipulation in vitro des T CD8+ de patients atteints d’un cancer commun, afin d’augmenter la force et la durée de leurs fonctions anti-tumorales. Il a été démontré que des lymphocytes moins différentiés sont capables d’une réponse immunologique plus efficace et durable. Nous avons basé ce projet sur l’utilisation d’un inhibiteur pharmacologique de la GSK-3, pour activer de la voie de Wnt chez les T CD8+ et ainsi leur conférer un phénotype moins différentié, partageant des caractéristiques de la cellule naïve et de la cellule mémoire. Des cultures de T CD8+, spécifiques à des antigènes viraux, en présence de l’inhibiteur ont permis d’augmenter la sécrétion d’interféron (IFN)- et leur activité cytotoxique. Ces résultats indiquent un effet de l’activation de la voie de Wnt sur la fonction des T CD8+. Ces observations sont rapportées pour la première fois chez les T CD8+ humains et suggèrent une nouvelle stratégie, applicables à l’immunothérapie du cancer, afin de prolonger la persistance des cellules ainsi que leur activité anti-tumorale. En conclusion, ces travaux de recherche ont mené à la réalisation d’une étape très importante dans la validation de la candidature de DKK1 comme TAA pour les cancers communs, soit la démonstration de son expression dans ces cancers et son absence dans les tissus normaux dérivés d’organes importants. Ces travaux ont également mené à la démonstration de l’immunogénicité de DKK1, par l’identification d’un peptide de DKK1 reconnu par les T CD8+. De plus, l’étude de la polyfonctionnalité des T CD8+ spécifiques à DKK1 a révélée un profil effecteur favorable pour l’obtention d’une réponse anti-tumorale efficace. Ces découvertes pourraient servir à l’élaboration d’une stratégie d’immunothérapie à médiation cellulaire pour les cancers communs. Pour sa part, l’étude phénotypique et fonctionnelle de la modulation de la voie de Wnt dans les T CD8+ a donné lieu à l’observation d’un phénotype encore jamais rapporté chez l’humain, conférant aux T CD8+ un aspect moins différentié avec des caractéristiques propre à un phénotype mémoire. Ces résultats sont pertinents dans l’amélioration de l’immunothérapie du cancer, passant par l’augmentation de la persistance des lymphocytes. En résumé, les résultats présentés dans cette thèse de doctorat fournissent des évidences indéniables quant à la validation de DKK1 comme TAA pour une immunothérapie à médiation cellulaire des cancers communs. Ces résultats fournissent également des preuves quant à la pertinence de la reprogrammation des T CD8+ par l’activation de la voie de la voie de Wnt, afin de générer des lymphocytes médiateurs plus efficaces pour ce type de thérapie.
Resumo:
La rapide progression des technologies sans fil au cours de ces dernières années a vu naître de nouveaux systèmes de communication dont les réseaux véhiculaires. Ces réseaux visent à intégrer les nouvelles technologies de l’information et de la communication dans le domaine automobile en vue d’améliorer la sécurité et le confort sur le réseau routier. Offrir un accès Internet aux véhicules et à leurs occupants peut sans doute aider à anticiper certains dangers sur la route tout en rendant plus agréables les déplacements à bord des véhicules. Le déploiement de ce service nécessite que des messages soient échangés entre les véhicules. Le routage constitue un élément crucial dans un réseau, car définissant la façon dont les différentes entités échangent des messages. Le routage dans les VANETS constitue un grand défi car ces derniers sont caractérisés par une forte mobilité entraînant une topologie très dynamique. Des protocoles ont été proposés pour étendre Internet aux réseaux véhiculaires. Toutefois, la plupart d’entre eux nécessitent un coût élevé de messages de contrôle pour l’établissement et le maintien des communications. Ceci a pour conséquence la saturation de la bande passante entrainant ainsi une baisse de performance du réseau. Nous proposons dans ce mémoire, un protocole de routage qui s’appuie sur des passerelles mobiles pour étendre Internet aux réseaux véhiculaires. Le protocole prend en compte la mobilité des véhicules et la charge du réseau pour l’établissement et le maintien des routes.
Resumo:
INTRODUCTION : Le raisonnement clinique est au coeur de l’exercice professionnel. Cependant, nous manquons d'instruments pour identifier et objectiver les difficultés de raisonnement clinique, et il existe relativement peu de descriptions de méthodes de remédiation définies. Un important travail reste donc à faire, pour mieux comprendre comment les difficultés se manifestent dans le raisonnement clinique des étudiants en formation, mais également pour rendre ces concepts plus accessibles aux enseignants; ceci permettra alors d’améliorer la qualité de la démarche d’identification des difficultés, et d’envisager des remédiations ciblées et efficaces. OBJECTIFS : Cette recherche s’articule d’une part, autour de l’objectivation et la compréhension des pratiques actuelles des cliniciens enseignants en médecine, d’autre part, autour de la construction et l’implantation d’outils et de processus susceptibles de faciliter la démarche de diagnostic et de remédiation des difficultés de raisonnement clinique. MÉTHODOLOGIE : Une recherche de type qualitative, utilisant les méthodes de la recherche action participative s’est révélée pertinente pour atteindre nos objectifs. La recherche est composée de quatre étapes : 1. Une étude exploratoire. 2. La construction et de l’implantation d’un premier outil dans trois milieux cliniques en médecine familiale. 3. L’élaboration d’une taxonomie des difficultés de raisonnement clinique ainsi que la construction d’un nouvel outil. 4. Le développement d’une approche globale pour soutenir et former les cliniciens enseignants. RÉSULTATS : Les enseignants ont une perception rapide, mais qui demeure globale et intuitive, des potentielles difficultés de raisonnement clinique des résidents. Cette perception ne se traduit pas forcément en termes pédagogiques. Nous avons pu observer l’absence de processus pédagogiques organisés et structurés pour la gestion de ces difficultés. Ceci semble projeter les cliniciens enseignants dans une zone d’inconfort, en les confrontant à un manque de maîtrise et à l’incertitude au sujet de leurs actions pédagogiques. La catégorisation des difficultés de raisonnement clinique que nous avons construite permet d’identifier les difficultés telles qu’elles se manifestent dans le quotidien des supervisions cliniques. Cet outil a cependant besoin d’être intégré dans un processus plus global. CONCLUSION : Une approche globale qui comprenne le développement de processus implantés par le Département, l’implantation d’outils, la vulgarisation de la théorie, et la formation des enseignants est déterminante.