949 resultados para Charge sur un lien
Resumo:
L’Éducation Pour Tous mobilise la communauté internationale et les gouvernements depuis 1990. Cet engagement global renouvelé en 2000 sous l’auspice de l’UNESCO puis des Nations-Unies, porte notamment sur un objectif de base : l’universalisation de la scolarisation primaire complète pour tous les enfants d’âge scolaire à l’horizon de 2015. Plusieurs études sur la réalisation de cet objectif montrent que les pays en développement sont les plus à risque et que les progrès accomplis dans la plupart de ces pays, pourraient être plus importants si la pratique du redoublement faisait davantage l’objet de régulation et de contrôle. Cela contribuerait à améliorer la réussite scolaire et accroître la rétention des élèves au sein des systèmes éducatifs. La pratique du redoublement est en effet une tradition dans plusieurs systèmes éducatifs. Elle est particulièrement prépondérante dans certains groupes de pays ou régions, notamment en Afrique francophone au sud du Sahara. Dans ces pays, le PASEC - Programme d’Analyse des Systèmes Éducatifs de la CONFEMEN (Conférence des Ministres de l’Éducation Nationale des pays ayant le français en partage) - œuvre à améliorer l’accès à une éducation de qualité pour tous, par exemple, en informant les politiques sur la situation nationale du redoublement. Cette recherche sur le redoublement, la réussite scolaire et l’objectif de la Scolarisation Primaire Universelle (SPU) privilégie la dimension pédagogique, l’analyse empirique et étudie le cas du Sénégal. Elle présente et discute les indicateurs internationaux de suivi de l’objectif de la SPU, fait le point de l’état des connaissances sur le redoublement et la réussite scolaire et montre le défi que représente la réalisation de l’objectif de la SPU notamment dans les pays francophones d’Afrique sub-Saharienne. Exploitant les données existantes de l’enquête longitudinale de suivi de cohorte du PASEC au Sénégal entre 1995 et 2000, cette recherche examine le parcours scolaire des élèves en vue de la réalisation de l’objectif de la SPU. L’examen effectué combine des approches d’analyse transversale et longitudinale du redoublement et des apprentissages par rapport aux caractéristiques personnelles, familiales et scolaires de l’élève. Les résultats d’analyse montrent des variabilités, notamment par rapport aux caractéristiques personnelles de l’élève et à celles de sa classe et de son milieu de scolarisation. L’analyse longitudinale du redoublement s’est appuyée sur le diagramme de flux scolaire et a permis de produire un ensemble d’indicateurs d’efficacité interne du système éducatif du Sénégal. Pour la cohorte étudiée, du fait de l’importance des redoublements et des abandons scolaires, il faut en moyenne 9,4 années de scolarité pour que l’élève progresse du deuxième au sixième (dernier) grade du primaire. Seulement 39% de l’effectif de la cohorte survivent au dernier grade ce qui suggère que si cette tendance se maintenait, le Sénégal serait à risque de ne pas réaliser l’objectif de la SPU. Une évaluation de la situation courante à partir de données plus récentes serait requise. Le diagramme de flux scolaire constitue un outil de planification de l’éducation et représente de ce fait un important levier aux mains des autorités politiques pour agir sur les paramètres du système éducatif (paramètres liés à la qualité de l’éducation, à l’efficacité interne, etc.) afin de répondre à des objectifs spécifiques ou d’étapes pouvant conduire, par exemple, à la réalisation de l’objectif de la SPU.
Resumo:
Les fichiers qui accompagnent mon document sont des tableaux supplémentaires réalisés avec Excel (Microsoft Office), dans la version papier du mémoire ces fichiers sont sur un CD-ROM.
Resumo:
Thèse de doctorat réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'École des Hautes Études en Sciences Sociales, Paris
Resumo:
Les populations autochtones canadiennes ont un passé difficile qui influence leur vécu actuel. Les recherches canadiennes et ailleurs dans le monde s’entendent sur la surreprésentation des enfants autochtones en protection de l’enfance. Au Canada, la surreprésentation s’explique présentement par la présence de conditions de vie dégradées plutôt qu’en raison d’un traitement différentiel des services de protection à l’égard des enfants autochtones. La présente étude ajoute aux connaissances sur les mauvais traitements et la réponse des services de protection de la jeunesse aux enfants autochtones québécois en s’intéressant à trois questions : leur surreprésentation, leurs différences par rapport aux autres enfants et les prédicteurs du placement. D’abord, à partir des données administratives de la protection de la jeunesse, la surreprésentation des enfants autochtones est évaluée à trois étapes des services : les signalements retenus, les situations fondées et les placements. Les enfants autochtones et les autres enfants sont comparés sur un ensemble de caractéristiques personnelles, familiales, parentales des signalements et des services rendus. Les prédicteurs du placement des enfants desservis par la protection de la jeunesse sont enfin vérifiés, en portant une attention particulière à l’importance du statut autochtone dans cette prédiction. Les résultats révèlent une augmentation de la surreprésentation des enfants autochtones d’une étape à l’autre des services de protection considérés. Ces enfants ont plus souvent des conditions de vie difficiles et sont confrontés à davantage de facteurs de risque que les autres enfants. Le statut autochtone est important dans la prédiction du placement, même après l’ajout d’un ensemble de caractéristiques pouvant contribuer à la prédiction. La complexité d’accès aux services de première ligne dans les communautés autochtones ou l’influence d’une variable non considérée, telle la pauvreté matérielle et économique, constituent de possibles explications. Les implications pour la recherche et la pratique sont discutées.
Resumo:
Le choix du Sénégal de faire des TIC un des leviers stratégiques de rénovation de l’école soulève des questions dont la nécessité de voir comment les enseignants se les approprient afin que l’école en tire les avantages attendus. Pour mieux comprendre comment et pourquoi se construisent les usages pédagogiques des TIC, la présente recherche vise à décrire et à analyser le processus et les facteurs d’intégration des TIC dans les pratiques d’enseignement des instituteurs sénégalais. La difficulté à retracer le processus a conduit à nous appuyer sur un modèle descripteur des processus d’intégration pédagogique des TIC inspiré de Sandholtz, Ringstaff et Dwyer (1997), de Karsenti, Savoie-Zajc et Larose (2001) et de Poellhuber et Boulanger (2001). Six instituteurs de l’Inspection d’Académie de Dakar qui développent depuis quatre ans au moins des TIC en classe ont été sélectionnés pour une étude multi-cas. Six entrevues individuelles semi-dirigées ont été réalisées complétées par un questionnaire, l’observation des pratiques d’intégration des TIC et une analyse documentaire. Les résultats du traitement des données recueillies sont présentés en trois articles abordant chacun un des volets de l’objectif de la recherche. Il ressort des résultats que les usages des TIC des six participants sont portés par des profils et des contextes d’usages particulièrement favorables à des pratiques d’information, de communication et de préparation de la classe à la maison et à des activités de recherche et de documentation, d’édition et de publication et d’apprentissages disciplinaires ou thématiques en classe avec les élèves. Par ailleurs, les analyses comparatives montrent que les formations (initiales et en cours d’emploi) qu’ils ont suivies ne les ayant pas suffisamment préparés à intégrer les TIC dans leurs pratiques d’enseignement, c’est dans le cadre des équipes pédagogiques portant leurs projets d’établissement d’intégration pédagogique des TIC et par des stratégies individuelles d’autoformation et d’organisation, collectives et coopératives de co-formation qu’ils ont construit leurs usages et surmonté les difficultés du parcours. Ce processus est porté par divers facteurs contextuels, institutionnels et sociaux particulièrement favorables. En plus, Ils partagent des dispositions d’esprit, des croyances et des postures épistémiques et psychosociales qui les poussent à toujours aller plus loin dans leurs pratiques d’intégration des TIC. En permettant de mieux comprendre le processus menant un instituteur des usages personnels des TIC à leurs usages professionnels et pédagogiques et comment les facteurs d’influence jouent sur les processus de cooptation et d’appropriation par lesquels il les construit, la présente recherche fournit des modèles de tracés et d’étapes d’intégration des TIC susceptibles d’être partagés et intégrés dans les référentiels de formation des enseignants à l’intégration pédagogique des TIC. Elle permet également de mieux dessiner les contours des contextes d’usages à développer et de définir les axes et les leviers pédagogiques et psychosociaux que des formateurs peuvent utiliser afin d’amener des enseignants en situation de construction des usages pédagogiques des TIC à développer les comportements et les attitudes favorables à l’intégration des TIC dans leurs pratiques d’enseignement.
Resumo:
Carte du bailliage en fichier complémentaire.
Resumo:
Cette thèse se propose de réévaluer l’œuvre de Guy Debord en privilégiant la lecture de ses autoportraits littéraires et cinématographiques. Cette recherche favorise une réception de Debord mettant en lumière l’importance de l’écriture de soi dans l’ensemble de sa production. L’inscription de soi, chez Debord, passe en effet par la création d’une légende. L’introduction démontre comment la trajectoire singulière de Debord témoigne d’un brouillage entre les frontières traditionnelles séparant l’esthétique et le politique. Elle explore les moyens pris par Debord afin de redéfinir le statut de l’artiste et la fonction de l’écriture dans le cadre d’une transformation d’une vie quotidienne. Dans ce cadre, la production artistique se subordonne entièrement au caractère de Debord, une personnalité qui se manifeste d’abord à travers la création d’un Grand style qui lui est propre. En célébrant le primat du vécu sur l’œuvre, la manœuvre de Debord s’inscrit dans la tradition moderniste de l’art. Le chapitre II montre comment Debord souhaita participer à l’entreprise de politisation de l’esthétique qui définit l’action des avant-gardes historiques. On y explique notamment comment l’œuvre de Debord s’est construite à partir des ruines du surréalisme. Pour se distinguer de ses ancêtres, le mouvement situationniste rejeta cependant l’esthétique surréaliste du rêve au profit d’une nouvelle poétique de l’ivresse se basant sur la dérive et sur l’intensification du moi. La dernière section de ce chapitre se consacre à la question de la création d’un mythe moderne, volonté partagée par les deux groupes. La troisième partie de cette thèse traite spécifiquement de la construction mythologique de Debord. Ce chapitre situe le projet mémorialiste de Debord dans la tradition littéraire française de l’écriture du moi. Il explore ensuite l’économie des sources classiques de Debord, en soulignant l’importance chez lui d’une éthique aristocratique issue du Grand siècle, éthique qui met de l’avant la distinction individuelle. Enfin, l’importance de la mentalité baroque est abordée conjointement à la question primordiale de la stratégie et de la manipulation. Le quatrième chapitre aborde la question de l’identification. Quand Debord décide de parler de sa vie, il le fait toujours en employant des éléments qui lui sont extérieurs : des « détournements ». Son « mode d’emploi » des détournements est défini dans la perspective d’un dévoilement de soi. On explore par la suite la question de l’imaginaire politique de Debord, imaginaire qui convoque sans cesse des représentations issues du XIXe siècle (classes dangereuses, conspirateur, bohème). Ce dernier chapitre se termine sur un essai d’interprétation approfondissant l’utilisation répétée de certaines figures criminelles, notamment Lacenaire. On mettra de l’avant la fonction centrale qu’occupent le crime et la transgression dans la sensibilité de Debord.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Dans ce mémoire, nous étudions le problème centre-foyer sur un système polynomial. Nous développons ainsi deux mécanismes permettant de conclure qu’un point singulier monodromique dans ce système non-linéaire polynomial est un centre. Le premier mécanisme est la méthode de Darboux. Cette méthode utilise des courbes algébriques invariantes dans la construction d’une intégrale première. La deuxième méthode analyse la réversibilité algébrique ou analytique du système. Un système possédant une singularité monodromique et étant algébriquement ou analytiquement réversible à ce point sera nécessairement un centre. Comme application, dans le dernier chapitre, nous considérons le modèle de Gauss généralisé avec récolte de proies.
Resumo:
Le modèle de la bibliothèque, très ancien, s’est adapté aux évolutions des sociétés démontrant sa souplesse et sa robustesse. Il s’appuie sur un écosystème fondé sur le partage et comprend deux moments, celui de la constitution d’une collection et celui de sa mise en accès et définit un écosystème autonome. Récemment les bibliothécaires ont développé des études pour mesurer le retour sur investissement de leurs services. Malgré l’intérêt de ces calculs, la valeur ajoutée originale de la bibliothèque est difficile à appréhender précisément. Elle s’appuie selon les contextes sur la mutualisation ou sur la capacité à trouver rapidement des informations inattendues et celle de conserver des informations potentiellement importantes. Le modèle et sa valeur peuvent s’interpréter comme mémoire additionnelle d’un individu, capital informationnel d’une organisation, ou empreinte d’une civilisation. Le numérique ébranle la bibliothèque, mais chaque média émergent a obligé celle-ci à se repositionner. Inversement, la bibliothèque a été une des premières sources d’inspiration pour le web dont certains acteurs ont réussi, aujourd’hui, à faire de l’exploitation son modèle une activité très profitable.
Resumo:
La fertilisation chez les plantes dépend de la livraison des cellules spermatiques contenues dans le pollen à l’ovule. Au contact du stigmate, le grain de pollen s’hydrate et forme une protubérance, le tube pollinique, chargé de livrer les noyaux spermatiques à l’ovule. Le tube pollinique est une cellule à croissance rapide, anisotrope et non autotrophe; ainsi tout au long de sa croissance à travers l’apoplaste du tissu pistillaire, le tube pollinique puise ses sources de carbohydrates et de minéraux du pistil. Ces éléments servent à la synthèse des constituants de la paroi qui seront acheminés par des vésicules de sécrétion jusqu’à l’apex du tube. Ce dernier doit aussi résister à des pressions mécaniques pour maintenir sa forme cylindrique et doit répondre à différents signaux directionnels pour pouvoir atteindre l’ovule. Mon projet de doctorat était de comprendre le rôle du cytosquelette dans la croissance anisotrope du tube pollinique et d’identifier les éléments responsables de sa croissance et de son guidage. Le cytosquelette du tube pollinique est composé des microfilaments d’actine et des microtubules. Pour assurer une bonne croissance des tubes polliniques in vitro, les carbohydrates et les éléments de croissance doivent être ajoutés au milieu à des concentrations bien spécifiques. J’ai donc optimisé les conditions de croissance du pollen d’Arabidopsis thaliana et de Camellia japonica qui ont été utilisés avec le pollen de Lilium longiflorum comme modèles pour mes expériences. J’ai développé une méthode rapide et efficace de fixation et de marquage du tube pollinique basée sur la technologie des microondes. J’ai aussi utilisé des outils pharmacologiques, mécaniques et moléculaires couplés à différentes techniques de microscopie pour comprendre le rôle du cytosquelette d’actine lors de la croissance et le tropisme du tube pollinique. J’ai trouvé que le cytosquelette d’actine et plus précisément l’anneau d’actine localisé dans la partie sub-apicale du tube est fortement impliqué dans la croissance et le maintien de l’architecture du tube à travers le contrôle de la livraison des vésicules de sécrétion. J’ai construit une chambre galvanotropique qui peut être montée sur un microscope inversé et qui sert à envoyer des signaux tropistiques bien précis à des tubes polliniques en croissance. J’ai trouvé que les filaments d’actine sont impliqués dans la capacité du tube pollinique à changer de direction. Ce comportement tropistique dépend de la concentration du calcium dans le milieu de croissance et du flux de calcium à travers des canaux calciques. Le gradient de calcium établi dans le tube pollinique affecte l’activité de certaines protéines qui se lient à l’actine et dont le rôle est la réorganisation des filaments d’actine. Parmi ces protéines, il y a celles de dépolymérisation de l’actine (ADF) dont deux spécifiquement exprimées dans le gamétophyte mâle d’Arabidopsis (ADF7 et ADF10). Par marquage avec des proteins fluorescents, j’ai trouvé que l’ADF7 et l’ADF10 ont des expressions différentielles pendant la microsporogenèse et la germination et croissance du tube pollinique et qu’elles partagent entre elles des rôles importants durant ces différents stades.
Resumo:
Cette étude se focalise sur la révision de l’approche communicative des manuels d’enseignement de l’espagnol comme langue étrangère (ELE) et, plus particulièrement, sur celle des manuels utilisés dans les institutions scolaires du Québec. D’un point de vue historique, les premières inquiétudes liées à l’enseignement et à l’acquisition de langues secondes sont apparues dans l’Antiquité. Pendant des siècles, l’enseignement fondé sur la répétition de structures a prédominé, mais une fois le Moyen Âge passé, d’autres avancées pédagogiques sont nées. Par exemple, au XVIIe siècle, des études sur la question, inspirées de penseurs comme Montaigne et Locke, ont révélé que l’apprentissage formel de la langue n’était pas utile et que les apprenants avaient besoin d’une motivation pour apprendre. Le XXe siècle a été caractérisé par le déploiement de propositions méthodologiques à utiliser dans l’enseignement de langues secondes, et c’est ainsi que des méthodes telles que Directe, Audio-linguistique, Apprentissage communautaire de la langue et Approche naturelle ont surgi. Au milieu du XXe siècle s’est développée en Europe une proposition basée sur les besoins communicatifs des étudiants et ce qui, au début, était connu comme l’approche notionnelle fonctionnelle a évolué et est devenu l’enseignement communicatif. Une telle approche concerne essentiellement l’usage de la langue et accorde moins d’importance aux connaissances linguistiques. Elle a pour objectif principal que l’étudiant-parlant développe des habiletés interprétatives et expressives de la langue objet. En nous appuyant sur un cadre théorique de l’enseignement des langues et en analysant les manuels Nuevo ELE, Prisma et Español en marcha (niveaux A1-B2), nous prétendons vérifier la présence de l’approche communicative dans ces manuels afin de pouvoir démontrer que dans les activités dites communicatives, il y a différentes applications possibles des méthodes traditionnelles de l’enseignement de langues secondes et que, par conséquent, l’approche communicative réunit plusieurs propositions qui proviennent d’autres méthodes. Mot-clés : Espagnol langue étrangère (ELE), approche communicative, analyse de manuels, Nuevo ELE, Prisma, Español en marcha.
Resumo:
Les changements évolutifs nous instruisent sur les nombreuses innovations permettant à chaque organisme de maximiser ses aptitudes en choisissant le partenaire approprié, telles que les caractéristiques sexuelles secondaires, les patrons comportementaux, les attractifs chimiques et les mécanismes sensoriels y répondant. L'haploïde de la levure Saccharomyces cerevisiae distingue son partenaire en interprétant le gradient de la concentration d'une phéromone sécrétée par les partenaires potentiels grâce à un réseau de protéines signalétiques de type kinase activées par la mitose (MAPK). La décision de la liaison sexuelle chez la levure est un événement en "tout–ourien", à la manière d'un interrupteur. Les cellules haploïdes choisissent leur partenaire sexuel en fonction de la concentration de phéromones qu’il produit. Seul le partenaire à proximité sécrétant des concentrations de phéromones égales ou supérieures à une concentration critique est retenu. Les faibles signaux de phéromones sont attribués à des partenaires pouvant mener à des accouplements infructueux. Notre compréhension du mécanisme moléculaire contrôlant cet interrupteur de la décision d'accouplement reste encore mince. Dans le cadre de la présente thèse, je démontre que le mécanisme de décision de la liaison sexuelle provient de la compétition pour le contrôle de l'état de phosphorylation de quatre sites sur la protéine d'échafaudage Ste5, entre la MAPK, Fus3, et la phosphatase,Ptc1. Cette compétition résulte en la dissociation de type « intérupteur » entre Fus3 et Ste5, nécessaire à la prise de décision d'accouplement en "tout-ou-rien". Ainsi, la décision de la liaison sexuelle s'effectue à une étape précoce de la voie de réponse aux phéromones et se produit rapidement, peut-être dans le but de prévenir la perte d’un partenaire potentiel. Nous argumentons que l'architecture du circuit Fus3-Ste5-Ptc1 génère un mécanisme inédit d'ultrasensibilité, ressemblant à "l'ultrasensibilité d'ordre zéro", qui résiste aux variations de concentration de ces protéines. Cette robustesse assure que l'accouplement puisse se produire en dépit de la stochasticité cellulaire ou de variations génétiques entre individus.Je démontre, par la suite, qu'un évènement précoce en réponse aux signaux extracellulaires recrutant Ste5 à la membrane plasmique est également ultrasensible à l'augmentation de la concentration de phéromones et que cette ultrasensibilité est engendrée par la déphosphorylation de huit phosphosites en N-terminal sur Ste5 par la phosphatase Ptc1 lorsqu'elle est associée à Ste5 via la protéine polarisante, Bem1. L'interférence dans ce mécanisme provoque une perte de l'ultrasensibilité et réduit, du même coup, l'amplitude et la fidélité de la voie de réponse aux phéromones à la stimulation. Ces changements se reflètent en une réduction de la fidélité et de la précision de la morphologie attribuable à la réponse d'accouplement. La polarisation dans l'assemblage du complexe protéique à la surface de la membrane plasmique est un thème général persistant dans tous les organismes, de la bactérie à l'humain. Un tel complexe est en mesure d'accroître l'efficacité, la fidélité et la spécificité de la transmission du signal. L'ensemble de nos découvertes démontre que l'ultrasensibilité, la précision et la robustesse de la réponse aux phéromones découlent de la régulation de la phosphorylation stoichiométrique de deux groupes de phosphosites sur Ste5, par la phosphatase Ptc1, un groupe effectuant le recrutement ultrasensible de Ste5 à la membrane et un autre incitant la dissociation et l'activation ultrasensible de la MAPK terminal Fus3. Le rôle modulateur de Ste5 dans la décision de la destinée cellulaire étend le répertoire fonctionnel des protéines d'échafaudage bien au-delà de l'accessoire dans la spécificité et l'efficacité des traitements de l'information. La régulation de la dynamique des caractères signal-réponse à travers une telle régulation modulaire des groupes de phosphosites sur des protéines d'échafaudage combinées à l'assemblage à la membrane peut être un moyen général par lequel la polarisation du destin cellulaire est obtenue. Des mécanismes similaires peuvent contrôler les décisions cellulaires dans les organismes complexes et peuvent être compromis dans des dérèglements cellulaires, tel que le cancer. Finalement, sur un thème relié, je présente la découverte d'un nouveau mécanisme où le seuil de la concentration de phéromones est contrôlé par une voie sensorielle de nutriments, ajustant, de cette manière, le point prédéterminé dans lequel la quantité et la qualité des nutriments accessibles dans l'environnement déterminent le seuil à partir duquel la levure s'accouple. La sous-unité régulatrice de la kinase à protéine A (PKA),Bcy1, une composante clé du réseau signalétique du senseur aux nutriments, interagit directement avec la sous-unité α des petites protéines G, Gpa1, le premier effecteur dans le réseau de réponse aux phéromones. L'interaction Bcy1-Gpa1 est accrue lorsque la cellule croit en présence d'un sucre idéal, le glucose, diminuant la concentration seuil auquel la décision d'accouplement est activée. Compromettre l'interaction Bcy1-Gpa1 ou inactiver Bcy1 accroît la concentration seuil nécessaire à une réponse aux phéromones. Nous argumentons qu'en ajustant leur sensibilité, les levures peuvent intégrer le stimulus provenant des phéromones au niveau du glucose extracellulaire, priorisant la décision de survie dans un milieu pauvre ou continuer leur cycle sexuel en choisissant un accouplement.
Resumo:
Cryptosporidium spp. est un protozoaire parasite du système gastro-intestinal largement répandu chez les vertébrés et causant la cryptosporidiose, une zoonose occasionnant des troubles digestifs sévères pouvant entrainer la mort chez les individus immunodéficients. Au Canada, la déclaration de cette maladie est obligatoire depuis l’an 2000. Ainsi, il est pertinent de mieux comprendre l’infection chez les animaux de compagnie, puisqu’ils sont potentiellement un réservoir du parasite. Durant l’année 2008, des échantillons fécaux provenant de 1 202 chats (n = 371) et chiens (n = 831) de la province du Québec ont été analysés par comptage des ookystes de Cryptosporidium spp. au moyen de la technique de centrifugation en solution de sulfate de zinc. Dans cette étude,la prévalence de Cryptosporidium spp. chez les chats (28/371 : 7,55 %) et chez les chiens(88/831 : 10,59 %) de compagnie confirme leur potentiel en tant que réservoir du parasite. Au Québec, de par leur nombre, les chats sont potentiellement un réservoir zoonotique du parasite plus important que celui des chiens, bien qu’il n’existe pas de différence significative entre la prévalence du parasite chez le chat et le chien pour l’année 2008. L’âge (p = 0,0001) et l’infection concomitante par Giardia spp. (p = 0,0001) se sont avérés être des facteurs associés avec la présence de Cryptosporidium spp. chez le chien. Parmi l’ensemble des variables testées chez le chat (l’âge, le sexe, la saison et l’infection concomitante par Giardia spp.), aucune n’a été associée de manière significative à la présence du parasite chez le chat. Ceci peut être dû au nombre limité d’individus testés pour cette espèce. Un suivi de l’excrétion des ookystes de Cryptosporidium spp. chez deux chats suggère que l’excrétion des ookystes peut se faire sur une période de sept mois et que le taux d’excrétion varie dans le temps. Le diagnostic moléculaire des espèces et génotypes de Cryptosporidium spp. isolés à partir des échantillons de matières fécales devait être réalisé par la technique de PCR emboîtée des fragments des gènes ARNr 18S et HSP70 et du séquençage des produits de PCR. Aucun résultat positif n’a toutefois été obtenu. Afin d’augmenter la puissance statistique des analyses épidémiologiques sur la prévalence de Cryptosporidium spp., il serait nécessaire à l’avenir de travailler sur un nombre d’animaux beaucoup plus important.
Resumo:
La débitmétrie au laser à effet Doppler (LDF) constitue une méthode prometteuse et non-invasive pour l'étude du débit sanguin local dans l'œil. Cette technique est basée sur un changement de fréquence subi par la lumière lors du mouvement des globules rouges dans les vaisseaux. Une nouvelle sonde LDF a été testée pour sa sensibilité à évaluer la circulation rétinienne/choroïdienne sous des conditions hypercapniques et en présence de diverses substances vasoactives ou suivant la photocoagulation des artères rétiniennes chez le rat. Après dilatation pupillaire, la sonde LDF a été placée en contact avec la cornée de rats anesthésiés et parallèle à l'axe optique. L'hypercapnie a été provoquée par inhalation de CO2 (8% dans de l'air médical), alors que les agents pharmacologiques ont été injectés de façon intravitréenne. La contribution relative à la circulation choroïdienne a été évaluée à la suite de la photocoagulation des artères rétiniennes. Le débit sanguin s'est trouvé significativement augmenté à la suite de l'hypercanie (19%), de l'adénosine (14%) ou du nitroprusside de sodium (16%) comparativement au niveau de base, alors que l'endothéline-1 a provoqué une baisse du débit sanguin (11%). La photocoagulation des artères rétiniennes a significativement diminué le débit sanguin (33%). Des mesures en conditions pathologiques ont ensuite été obtenues après l'injection intravitréenne d'un agoniste sélectif du récepteur B1 (RB1). Ce récepteur des kinines est surexprimé dans la rétine des rats rendus diabétiques avec la streptozotocine (STZ) en réponse à l'hyperglycémie et au stress oxydatif. Les résultats ont montré que le RB1 est surexprimé dans la rétine chez les rats diabétiques-STZ à 4 jours et 6 semaines. À ces moments, le débit sanguin rétinien/choroïdien a été significativement augmenté (15 et 18 %) après l'injection de l'agoniste, suggérant un effet vasodilatateur des RB1 dans l'œil diabétique. Bien que la circulation choroïdienne contribue probablement au signal LDF, les résultats démontrent que le LDF représente une technique efficace et non-invasive pour l'étude de la microcirculation rétinienne in-vivo en continu. Cette méthode peut donc être utilisée pour évaluer de façon répétée les réponses du débit sanguin pendant des modifications métaboliques ou pharmacologiques dans des modèles animaux de maladies oculaires.