999 resultados para Stratégies d’extraction de l’information
Resumo:
Résumé: L’objectif général de la thèse était de caractériser les déficits de reconnaissance mnésique dans la maladie d’Alzheimer et le trouble cognitif léger. La thèse comprend trois articles. Le premier article propose une recension des écrits portant sur les déficits cognitifs dans le trouble cognitif léger, alors que les deux articles suivants rapportent les résultats d’études expérimentales portant sur la reconnaissance. Le but de la première étude empirique était d’évaluer l’impact du type de matériel sur la reconnaissance à long terme et la reconnaissance à court terme dans la maladie d’Alzheimer en comparant l’atteinte pour des stimuli verbaux et musicaux. Nos analyses de groupe ont révélé que les atteintes des personnes avec maladie d’Alzheimer s’étendaient à toutes les épreuves et que les déficits étaient d’une ampleur comparable en reconnaissance musicale et verbale. Les analyses corrélationnelles appuient, bien que partiellement, une certaine spécificité d’atteintes par domaine, particulièrement en reconnaissance à long terme, mais suggèrent également que les deux domaines puissent partager certains mécanismes. L’objectif de la seconde étude était de caractériser les processus utilisés en reconnaissance dans le vieillissement normal et le trouble cognitif léger en fonction de la nouveauté et du type de matériel. L’étude évaluait la recollection et la familiarité à l’aide de la méthode remember/know. Les tâches étaient composées d’items connus et d’items nouveaux faisant partie du domaine verbal ou du domaine musical. Les résultats ont révélé que la recollection était atteinte dans le vieillissement normal et le trouble cognitif léger, mais uniquement pour la reconnaissance de stimuli connus, ce qui est compatible avec le fait que les deux groupes ont de la difficulté à encoder l’information de façon élaborée. D’autre part, la familiarité était compromise dans le vieillissement normal, sans impact additionnel du trouble cognitif léger, et seulement pour la reconnaissance de stimuli inconnus. Cette atteinte peut être associée aux difficultés des aînés dans les tâches d’amorçage perceptif impliquant des items inconnus. Les résultats découlant de ces études s’avèrent pertinents dans une perspective clinique, en plus de pouvoir contribuer à certaines questions d’ordre théorique.
Resumo:
Rationnelle. La ventilation mécanique invasive (VI) s’accompagne lorsqu’elle se prolonge, d’une augmentation de la morbimortalité. Jusqu’à 64% des enfants hospitalisés aux soins intensifs sont ventilés et peu de données épidémiologiques existent afin d’estimer précocement la durée du support ventilatoire. Objectifs. Déterminer l’incidence et les facteurs de risque précoces de ventilation mécanique invasive prolongée aux soins intensifs pédiatriques. Méthode. Nous avons conduit une étude descriptive rétroélective sur un an. Tous les épisodes de VI aux soins intensifs du Centre hospitalier universitaire Sainte Justine de Montréal ont été inclus. Les facteurs de risque de VI prolongée (≥ 96 heures) ont été déterminés par régression logistique. Résultats. Parmi les 360 épisodes de VI, 36% ont duré ≥ 96 heures. Les facteurs de risques de ventilation prolongée en analyse multivariée sont : âge <12 mois, score de PRISM ≥ 15 à l’admission, pression moyenne dans les voies aériennes ≥13 cm H2O au jour 1 de ventilation, utilisation de la sédation intraveineuse continue au jour 1 de ventilation et ventilation non invasive avant intubation. Conclusion. La VI prolongée survient chez environ un tiers des patients ventilés. Les patients de moins de 12 mois semblent être plus à risque que les enfants plus âgés et devraient bénéficier de stratégies différentes pour diminuer leur durée de ventilation mécanique. La sévérité de la maladie, l’agressivité du support ventilatoire, l’utilisation d’une sédation continue au premier jour de ventilation sont également des facteurs à considérer dans les études visant à diminuer la durée de support ventilatoire.
Resumo:
Réalisées aux échelles internationales et nationales, les études de vulnérabilité aux changements et à la variabilité climatiques sont peu pertinentes dans un processus de prise de décisions à des échelles géographiques plus petites qui représentent les lieux d’implantation des stratégies de réponses envisagées. Les études de vulnérabilité aux changements et à la variabilité climatiques à des échelles géographiques relativement petites dans le secteur agricole sont généralement rares, voire inexistantes au Canada, notamment au Québec. Dans le souci de combler ce vide et de favoriser un processus décisionnel plus éclairé à l’échelle de la ferme, cette étude cherchait principalement à dresser un portrait de l’évolution de la vulnérabilité des fermes productrices de maïs-grain des régions de Montérégie-Ouest et du Lac-St-Jean-Est aux changements et à la variabilité climatiques dans un contexte de multiples sources de pression. Une méthodologie générale constituée d'une évaluation de la vulnérabilité globale à partir d’une combinaison de profils de vulnérabilité aux conditions climatiques et socio-économiques a été adoptée. Pour la période de référence (1985-2005), les profils de vulnérabilité ont été dressés à l’aide d’analyses des coefficients de variation des séries temporelles de rendements et de superficies en maïs-grain. Au moyen de méthodes ethnographiques associées à une technique d’analyse multicritère, le Processus d’analyse hiérarchique (PAH), des scénarios d’indicateurs de capacité adaptative du secteur agricole susmentionné ont été développés pour la période de référence. Ceux-ci ont ensuite servi de point de départ dans l’élaboration des indicateurs de capacité de réponses des producteurs agricoles pour la période future 2010-2039. Pour celle-ci, les deux profils de vulnérabilité sont issus d’une simplification du cadre théorique de « Intergovernmental Panel on Climate Change » (IPCC) relatif aux principales composantes du concept de vulnérabilité. Pour la dimension « sensibilité » du secteur des fermes productrices de maïs-grain des deux régions agricoles aux conditions climatiques, une série de données de rendements a été simulée pour la période future. Ces simulations ont été réalisées à l’aide d’un couplage de cinq scénarios climatiques et du modèle de culture CERES-Maize de « Decision Support System for Agrotechnology Transfer » (DSSAT), version 4.0.2.0. En ce qui concerne l’évaluation de la « capacité adaptative » au cours de la période future, la construction des scénarios d’indicateurs de cette composante a été effectuée selon l’influence potentielle des grandes orientations économiques et environnementales considérées dans l’élaboration des lignes directrices des deux familles d’émissions de gaz à effet de serre (GES) A2 et A1B. L’application de la démarche méthodologique préalablement mentionnée a conduit aux principaux résultats suivants. Au cours de la période de référence, la région agricole du Lac-St-Jean-Est semblait être plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. En effet, le coefficient de variation des rendements du maïs-grain pour la région du Lac-St-Jean-Est était évalué à 0,35; tandis que celui pour la région de Montérégie-Ouest n’était que de 0,23. Toutefois, par rapport aux conditions socio-économiques, la région de Montérégie-Ouest affichait une vulnérabilité plus élevée que celle du Lac-St-Jean-Est. Les valeurs des coefficients de variation pour les superficies en maïs-grain au cours de la période de référence pour la Montérégie-Ouest et le Lac-St-Jean-Est étaient de 0,66 et 0,48, respectivement. Au cours de la période future 2010-2039, la région du Lac-St-Jean-Est serait, dans l’ensemble, toujours plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. Les valeurs moyennes des coefficients de variation pour les rendements agricoles anticipés fluctuent entre 0,21 et 0,25 pour la région de Montérégie-Ouest et entre 0,31 et 0,50 pour la région du Lac-St-Jean-Est. Néanmoins, en matière de vulnérabilité future aux conditions socio-économiques, la position relative des deux régions serait fonction du scénario de capacité adaptative considéré. Avec les orientations économiques et environnementales considérées dans l’élaboration des lignes directrices de la famille d’émission de GES A2, les indicateurs de capacité adaptative du secteur à l’étude seraient respectivement de 0,13 et 0,08 pour la Montérégie-Ouest et le Lac-St-Jean-Est. D’autre part, en considérant les lignes directrices de la famille d’émission de GES A1B, la région agricole du Lac-St-Jean-Est aurait une capacité adaptative légèrement supérieure (0,07) à celle de la Montérégie-Ouest (0,06). De façon générale, au cours de la période future, la région du Lac-St-Jean-Est devrait posséder une vulnérabilité globale plus élevée que la région de Montérégie-Ouest. Cette situation s’expliquerait principalement par une plus grande vulnérabilité de la région du Lac-St-Jean-Est aux conditions climatiques. Les résultats de cette étude doivent être appréciés dans le contexte des postulats considérés, de la méthodologie suivie et des spécificités des deux régions agricoles examinées. Essentiellement, avec l’adoption d’une démarche méthodologique simple, cette étude a révélé les caractéristiques « dynamique et relative » du concept de vulnérabilité, l’importance de l’échelle géographique et de la prise en compte d’autres sources de pression et surtout de la considération d’une approche contraire à celle du « agriculteur réfractaire aux changements » dans les travaux d’évaluation de ce concept dans le secteur agricole. Finalement, elle a aussi présenté plusieurs pistes de recherche susceptibles de contribuer à une meilleure évaluation de la vulnérabilité des agriculteurs aux changements climatiques dans un contexte de multiples sources de pression.
Resumo:
Depuis l’élection de Jean Charest en 2003, nous constatons que les dogmes issus du discours idéologique néolibéral (déréglementation, privatisation, libéralisation et réduction des dépenses publiques) ont régulièrement et fortement inondé tous les domaines de l’espace public québécois, tant chez les élus que chez les grands conglomérats de médias écrits et audiovisuels. Nous cherchions à savoir qui exerçait une si grande influence pour que rayonnent ces idées conservatrices dans les discours publics au Québec. Nos recherches nous ont menée à un Think Tank québécois : l’Institut économique de Montréal. L’élite intellectuelle qui compose cette organisation a su user d’une influence importante auprès de certains médias écrits, notamment ceux de Gesca, qui, grâce à l’étendue de son puissant réseau social et à son adhésion aux stratégies d’influence de ses pairs, les Think Tanks partisans, a relayé les idées néolibérales de l’IEDM à l’intérieur du discours public québécois. Ce Think Tank a ainsi fait rayonner ses idées dans les pages des quotidiens parmi les plus lus par les Québécois francophones. De jeunes Think Tanks comme l’IEDM jugent primordial l’accès aux médias pour façonner l’opinion et les politiques publiques. Leur objectif est de réussir à influencer la mise à l’agenda et le cadrage des médias afin qu’ils favorisent leurs propositions et leurs idées. L’analyse de trois cas a permis de montrer, qu’à trois moments différents, l’IEDM a influencé la mise à l’agenda des quotidiens de Gesca et que le cadrage s’est révélé favorable aux propositions de l’IEDM dans une proportion importante.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
Réalisée en milieux défavorisés, cette étude porte sur l’engagement scolaire des élèves de troisième cycle du primaire (5e et 6e années au Québec) dans un contexte d’utilisation pédagogique des technologies de l’information et de la communication (TIC). L’objectif de cette recherche est d’analyser l’engagement d’élèves utilisant les TIC. Elle vise à décrire les pratiques pédagogiques d’intégration des TIC de dix enseignants, de relater la qualité de l’engagement de leurs 230 élèves lors de tâches TIC et de mesurer l’évolution et la qualité de leur engagement scolaire selon le degré de défavorisation de leur école. Pour ce faire, cette recherche s’est inspirée d’un cadre de référence traitant l’engagement scolaire selon les dimensions affective, comportementale et cognitive. De plus, cette étude multicas essentiellement de nature interprétative et descriptive a utilisé une méthodologie mixte de collecte et d’analyse des données. Les résultats montrent notamment que les enseignants accordent une valeur pédagogique importante aux TIC tant dans la fréquence de leur utilisation, dans les usages valorisés que dans la façon de les intégrer en classe. Les enseignants privilégient largement le traitement de texte et la recherche sur Internet, mais très peu d’autres usages pertinents sont mis de l’avant de manière soutenue. La majorité des enseignants interrogés préférerait se servir de quatre ordinateurs en classe pour utiliser les TIC plus facilement que d’avoir uniquement accès au laboratoire de leur école. De plus, ils perçoivent de manière unanime que l’utilisation des TIC exerce une influence importante sur la dimension affective de leurs élèves lors d’activités préparées, assez bonne sur la dimension comportementale et plus discutable sur la dimension cognitive. Plus globalement, les élèves eux-mêmes affichent en général un engagement scolaire relativement élevé. En six mois, la qualité de l’engagement affectif des élèves est restée stable, leur engagement comportemental a progressé, mais leur engagement cognitif a baissé légèrement. Les résultats montrent aussi que la qualité de l’engagement des élèves de milieux défavorisés évolue différemment selon le degré de défavorisation de leur école. Dans cette recherche, l’importance de l’utilisation des TIC sur la qualité de l’engagement est marquante et s’avère parfois meilleure que dans d’autres types de tâches. Sans pouvoir généraliser, cette étude permet aussi de saisir davantage la qualité et l’évolution de l’engagement scolaire des élèves de la fin du primaire en milieux défavorisés. Des recommandations pour le milieu et des pistes de recherches futures sont présentées en tenant compte des limites et des forces de cette thèse inédite réalisée par articles.
Resumo:
La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.
Resumo:
Le contexte actuel de la profession enseignante au Québec est caractérisé par l’évolution manifeste qu’a connue l’enseignement depuis les dernières décennies, évolution marquée par une complexification de la tâche, accentuée par divers phénomènes sociaux. En dépit de l’épuisement professionnel et de l’attrition de certains, plusieurs enseignantes et enseignants relèvent le défi de l’enseignement en milieux difficiles et réussissent à se développer professionnellement. Ce phénomène s’apparente au concept de résilience. Parmi les facteurs personnels de protection qui favorisent la résilience, les habiletés et compétences professionnelles ont déjà été mises en évidence chez le personnel scolaire résilient. De son côté, la littérature sur le développement des compétences professionnelles valorise l’importance de la réflexion sur la pratique comme vecteur privilégié de ce processus. Dans cette perspective, la question de recherche posée est à savoir si des relations peuvent être établies entre la résilience et la réflexion sur la pratique en enseignement. Ainsi, suivant la conceptualisation de G.E. Richardson (2002), nous avons tenté d’explorer les relations entre la résilience et la réflexion du personnel enseignant, telle que conceptualisée par Korthagen (1985, 2004), à l’aide de stratégies mixtes de collecte et d’analyse des données. Nous avons d’abord opérationnalisé les deux concepts par des indices provenant de plusieurs instruments: questionnaire sur la qualité de vie au travail, journal d’autoévaluation du stress, entretien semi-dirigé. Vingt-et-une enseignantes et deux enseignants de sept écoles primaires parmi les plus défavorisées de Montréal ont participé à l’étude. Près de 7000 unités de sens ont été codées dans les entretiens. Des analyses quantitatives et qualitatives ont permis de décrire l’adversité (stress) vécue par les participants, leur qualité de vie au travail et leurs compétences professionnelles (adaptation positive), de même que leurs facteurs de risque et de protection, individuels et environnementaux. Cette démarche a permis de dégager quatre profils généraux de résilience parmi les 23 participants: très résilient (2), résilient (9), peu résilient (8) et non résilient (2). Parallèlement, le processus et les contenus de la réflexion des participants ont été analysés à partir des modèles théoriques choisis. On remarque que la plupart des participants se centrent davantage sur la description des situations problématiques, plutôt que sur la recherche de solutions, et sur les contenus environnementaux, plutôt que personnels. L’analyse verticale de quatre cas représentatifs des profils de résilience a permis des comparaisons approfondies au plan de la réflexion. Ce sont les enseignantes situées aux extrêmes du continuum de résilience (la plus résiliente et la moins résiliente de l’échantillon) qui ont montré les distinctions les plus nettes. Notamment, il semblerait qu’une faible résilience soit liée à une centration accrue sur les problèmes plutôt que sur les solutions, ainsi que sur les contenus réflexifs environnementaux plutôt que personnels, et inversement. Enfin, malgré certaines limites méthodologiques et conceptuelles, cette étude révèle l’existence de liens empiriques entre la réflexion et la résilience d’enseignantes et d’enseignants œuvrant en milieux défavorisés. Elle ouvre également la voie à des pistes pour développer la résilience du personnel scolaire et propose des idées de recherches prospectives.
Resumo:
Cette thèse porte sur le rôle des organismes communautaires entre 1994 et 2002 dans l’élaboration de politiques pour lutter contre la pauvreté au Québec et en Irlande et ce, dans un contexte de gouvernance. Au cours de années 1980 et 1990, des gouvernements, dont ceux du Québec et de l’Irlande, ont fait appel à des organismes communautaires pour que ceux-ci participent à la gestion des services sociaux ainsi qu’à la formulation des politiques sociales. Cette participation s’est inscrite dans le cadre de nouveaux arrangements politiques, soit des nouvelles formes de gouvernance alors que les gouvernements éprouvaient des difficultés à remédier à l’accroissement des inégalités sociales. Cependant, il demeure difficile de discerner en quoi l’établissement de ces nouvelles formes de gouvernance a façonné le rôle des organismes communautaires dans l’élaboration des politiques pour lutter contre la pauvreté. De plus, les partenariats sociaux en Irlande relèvent d’un processus davantage institué que la concertation au Québec, ce qui a entraîné des différences au plan des mobilisations sociales. L’objectif de cette thèse est donc celui de mieux cerner le lien entre les nouvelles formes de gouvernance et la mobilisation sociale des organismes communautaires dans l’élaboration de politiques pour lutter contre la pauvreté. L’hypothèse mise en avant est que l’efficacité de l’action collective dépend de la manière dont les organismes communautaires s’y prennent pour pallier l’incertitude qui caractérise les modes de gouvernance. Sur le plan théorique, cette thèse mise sur les interactions entre acteurs et, plus particulièrement, sur la formation de réseaux de politiques publiques. Cela implique plus précisément de cerner comment les acteurs coordonnent des activités entre eux et se rallient autour d’un même thème, comme celui de la lutte contre la pauvreté. Lorsque la coordination des activités est forte et que le ralliement autour d’un même thème est important, on parle de coalition de cause. La nécessité de former une coalition se produit dans le contexte d’un champ institutionnel incertain, comme c’est le cas pour les mécanismes de concertation au Québec. Mais le caractère incertain du champ institutionnel entraîne aussi des divergences à l’intérieur de la coalition instaurée à cette occasion, ayant pour effet d’affaiblir la mobilisation sociale. Ainsi, l’interprétation que font les organismes communautaires des nouvelles formes de gouvernance façonne la manière dont ces organismes vont définir la lutte contre la pauvreté et élaborer leurs stratégies. Sur le plan méthodologique, le choix des cas de l’Irlande et du Québec repose dans les différences qui existent en termes de gouvernance et ce, alors qu’ils partagent de fortes similarités. Tant l’Irlande que le Québec sont caractérisés par des économies de marché ouvertes, des régimes d’État-providence de type libéral ainsi que l’emprise, par le passé, de l’Église catholique dans les services sociaux. Cependant, ces deux cas diffèrent en ce qui concerne le rôle de l’État, le système électoral, le statut juridico-politique, le caractère de leur économie et la place occupée par le milieu communautaire par rapport à l’État. Ces différences permettent de rendre compte du moins en ce qui concerne le Québec et l’Irlande, de la manière dont l’action collective découle de la relation entre les stratégies des acteurs et le contexte dans lequel ils se situent. Cette thèse montre comment, dans un processus davantage institué, comme c’est le cas des partenariats sociaux en Irlande, la mobilisation sociale s’avère plus efficace que lorsqu’elle se situe dans le cadre d’un processus moins institué, comme ce qu’on peut observer avec la concertation au Québec. Bien que, dans les deux cas, l’influence du milieu communautaire en matière des politiques sociales demeure mitigée, la mobilisation sociale des organismes communautaires irlandais s’est avérée plus efficace que celle de leurs homologues québécois eu égard de la formulation de politiques pour lutter contre la pauvreté. Au Québec, bien que les organismes communautaires sont parvenus à former une coalition, soit le Collectif pour une loi sur l’élimination de la pauvreté, leur mobilisation s’est trouvée affaiblie en raison de la prédominance de divergences entre acteurs communautaires. De telles divergences étaient aggravées en raison du caractère incertain du champ institutionnel lié à la concertation. En Irlande, bien que les organismes communautaires ont dû faire face à des contraintes qui rendaient difficiles la formation d’une coalition, ceux-ci ont pu néanmoins se mobiliser autrement, notamment en raison de liens formés avec des fonctionnaires dans le cadre des ententes partenariales.
Resumo:
Le gène L1 encode pour la protéine majeure de la capside des papillomavirus humains (VPH). L’information relative au polymorphisme de L1 pour les types autres que VPH- 16 est jusqu’ici limitée. Cet ouvrage explore le polymorphisme de L1 en comparant les séquences des types phylogénétiquement apparentés VPH-31, -33, -35 à VPH-16. Des spécimens génitaux recueillis de 732 femmes VIH-séropositives et 323 VIHséronégatives ont été criblés à le recherche d’ADN de VPH par PCR consensus au niveau du gène L1. Les échantillons positifs pour VPH-16 (n=74), -31 (n=74), -33 (n=37) et -35 (n=58) étaient analysés par PCR-séquençage pour la totalité du gène L1. Le nombre de nucléotides substitués pour L1 variait de 19 pour VPH-33 à 52 pour VPH-31. Le rapport du nombre de variantes sur le nombre d’isolats testés était plus élevé pour VPH-31 (56.4%, p=0.05) et VPH-35 (60.3%, p=0.04) comparativement à VPH-16 (40.5%), alors que ce ratio était inférieur pour VPH-33 mais sans différence statistiquement significative (24.3%, p=0.14). La distance entre les variantes était plus grande à l’intérieur des cinq boucles présumément exposées à la surface de la protéine L1 que dans la séquence à l’extérieur (p<0.01) Des variations synonymes étaient observées chez 1.7% (95% CI 1.1- 2.3) des nucléotides intra-boucles et 2.4% (95% CI 1.2-3.7) de ceux extra-boucles. Les variations non-synonymes étaient rencontrées pour 1.8% (95% CI 1.1-2.5) des nucléotides intra-boucles et 0.2% (95% CI 0-0.4) pour les nucléotides extra-boucles. Les ratios dN/dS étaient inférieurs à 1.0 pour les régions extra-boucles et encore davantage pour les régions intra-boucles. Ces résultats suggèrent que les séquences des régions hypervariables de L1 ont été sélectionnées positivement.
Resumo:
Les phytochélatines (PC) sont des polypeptides ayant la structure générale, (alpha-Glu-Cys)n-Gly, où n = 2 à 11. Leur synthèse est induite par un grand nombre de végétaux en réponse à une élévation de la concentration du milieu en métaux, en particulier le cadmium (ci-après, Cd). Le but de cette étude a été de développer un outil pour évaluer la biodisponibilité du Cd dans les eaux douces. Pour ce faire, une méthode analytique a été réalisée afin de déterminer les phytochélatines induites dans les algues C. reinhardtii. Celle-ci consiste à utiliser la chromatographie liquide couplée à la spectrométrie de masse en tandem (LCHP-SM/SM) "on-line". L’ionisation des molécules est celle faite par électronébulisation (IEN) (traduction de electrospray ionisation). L’objectif principal de ce mémoire est la validation de cette méthode : la détermination des courbes de calibration et des limites de détection et l'identification d'interférences potentielles. L’utilisation de dithiothreitol (DTT) à une concentration de 25 mM a été nécessaire à la conservation de la forme réduite des phytochélatines. En effet, suite à la validation de la méthode d’analyse des phytochélatines il a été démontré qu’elle représente un potentiel d’application. Ceci dans la mesure où l’induction des phytochélatines (PC2, PC3 et PC4) dans les algues C. reinhardtii a été possible à deux concentrations de Cd (1 x 10-7 M et 1 x 10 6 M) et ce, après plusieurs temps d'induction (1, 2, 4, et 6 h). Ainsi, l’étude de la stabilité des phytochélatines a été réalisée et toutes les températures examinées ont démontré une diminution des phytochélatines analysées par HPLC-ESI-MS/MS. Il se pourrait que la cause de la dégradation des phytochélatines soit physique ou chimique plutôt que bactérienne. Toutefois, un approfondissement au niveau de la purification de la solution d’extraction serait nécessaire à la mise au point de la dite méthode analytique afin de quantifier les phytochélatines dans l’algue C. reinhardtii.
Resumo:
Dans cette étude, nous analysons les principaux problèmes que nous retrouvons lorsque nous utilisons les entrevues sociolinguistiques comme méthode d’analyse pour obtenir des échantillons de l’actuation linguistique authentiques. Cette problématique provient de la nature même de la méthodologie employée en fonction du paradoxe de l’observateur (Labov 1972) et elle impose la nécessité de réfléchir sur les avantages et les désavantages inhérents à l’instrument de recherche utilisé. En ayant ce propos, l’objectif principal qu’on poursuit est celui de donner réponse à une question que surgit lorsqu’on parle de l’entrevue sociolinguistique : Comment pourrait-on obtenir des échantillons de parole de style spontané dans l’observation systématique de l’entrevue? Pour essayer de répondre à cette problématique, on a revu et analysé un échantillon de vingt entrevues semi dirigées (25 heures d’enregistrement) qui font partie du Corpus Oral et Sonore de l’Espagnol Rural (COSER). L’étude des entrevues sociolinguistiques comme méthode scientifique montre, comme principal résultat, que parmi les stratégies utilisées pour essayer de réduire les effets du paradoxe de l’observateur on devrait inclure celle de la tactique de faire parler l’informateur à propos d’un objet qui ait une particulière valeur affective pour lui, pour générer ainsi une déstructuration du schéma formel de l’entrevue et une situation émotionnelle de sorte que l’émotivité neutralise sa conscience linguistique et son discours. De cette façon, l’attention du parlant se concentrera dans l’objet même plutôt que dans sa parole formelle et, de cette manière, on obtiendrait des échantillons de style plus spontané et colloquial.
Resumo:
La communication cellulaire est un phénomène important pour le maintien de l’homéostasie des cellules. Au court des dernières années, cette sphère de recherche sur la signalisation cellulaire a connue des avancées importantes au niveau de l’identification des acteurs principaux impliqués dans la reconnaissance extracellulaire des signaux, ainsi que la compréhension des voies de signalisation engagées par les cellules pour répondre aux facteurs extracellulaires. Malgré ces nouvelles informations, les diverses interrelations moléculaires entre les acteurs ainsi que les voies de signalisation cellulaire, demeurent mal comprises. Le transfert d’énergie de résonance de bioluminescence (BRET) permet la mesure d’interactions protéiques et peut être utilisé dans deux configurations, le BRET480-YFP (connu aussi comme le BRET1) et le BRET400-GFP (connu aussi en tant que BRET2). Suite à l’oxydation de son substrat, la luciférase de renilla peut transférer son énergie à une protéine fluorescente, uniquement si elles sont à proximité l’une de l’autre (≤100Å). La combinaison dans un seul essai des BRET480-YFP et BRET400-GFP, a permis de suivre trois paires d’interactions, sur une même population cellulaire. Par contre, l’utilisation de deux substrats pour la réaction de bioluminescence rend impossible la mesure simultanée des différents signaux de BRET, pour ce trois nouvelles configurations de BRET ont été mises au point en utilisant des nouvelles protéines fluorescentes. Ainsi deux des nouvelles couleurs de BRET ayant des émissions résolues, le BRET400-BFP et le BRET400mAmetrine ont pu être combinées pour mesurer l’engagement par un RCPG d’une protéine G, ainsi que l’accumulation du second messager. La combinaison de ces BRET a également permis de révéler la formation d’un complexe entre le récepteur α2A adrénergique (α2AAR), Gαi1, le dimère Gβγ ainsi que la kinase des récepteurs couplés aux protéines G (GRK2), suite à l’activation du récepteur. De plus, seule l’entrée de GRK2 semble être en mesure de causer la désensibilisation du α2AAR, en s’intercalant entre Gαi1 et Gβγ. Par contre, la stabilisation de l’interaction entre α2AAR et la β-arrestine2 semble nécessiter l’activité kinase de GRK2. Une autre étude a révélé l’importance de différentes Gα pour la mobilisation du calcium, suite à l’activation du récepteur aux opioïdes de type delta (DOR). Suite à la surexpression de Gα de la famille Gαq, il a été possible de mesurer une influence de ces Gα sur la mobilisation du calcium. Toutefois, cette réponse calcique mesurée en présence des Gαq demeure sensible aux prétraitements à la toxine de Bordetella pertussis, qui inhibe sélectivement l’activité des Gαi. De plus, la co-expression de Gαi et Gαq permet de potentialiser la mobilisation de calcium, démontrant une interrelation entre ces deux familles de protéine Gα, pour la signalisation du DOR. Afin de démontrer l’interrelation directe, des expériences de BRET ont été réalisées entre différentes Gα. En plus de montrer la formation de complexes sélectifs entre les Gα, les expériences de BRET réalisées en parallèle d’analyses de séquences de Gα, ont également mis à jour un site de sélectivité d’interaction entre les Gα, l’hélice α4. Suite à la transposition de cette hélice α4 de Gα12 sur Gαi1, qui normalement n’interagissent pas, il a été possible de forcer l’interaction entre Gα12 et Gαi1, confirmant ainsi que cette hélice α contient l’information permettant une sélectivité d’interaction. Au cours de cette thèse, il a été possible de générer de nouvelles méthodes de mesure d’interactions protéiques qui permettent de multiplexer différents signaux, ce qui a permis de mettre à jour de nouvelles interactions entre divers effecteurs de la signalisation de RCGP
Resumo:
L’augmentation observée de la prévalence du surpoids et de l’obésité au Québec comme ailleurs en Occident inquiète tant les gouvernements que les autorités médicales. Afin de contenir ce phénomène qui est désormais décrit comme une pandémie d’obésité, ces organisations y sont allées de différentes initiatives et recommandations, dans un contexte d’inefficacité avérée des interventions de gestion de poids à caractère clinique et d’émergence de stratégies de prévention dont l’efficacité et la sécurité à long terme restent encore à démontrer. Méthode : L’objet de cette recherche a été de décrire l’évolution du discours des organismes officiels de santé au Québec en matière de gestion du poids par l’analyse de contenu. Cette analyse a eu recours à une grille de plus de 160 documents produits au cours des 60 dernières années par les gouvernements, les autorités professionnelles et les médias québécois. Résultats et discussion : L’analyse révèle que l’évolution du discours de ces organisations s’inscrit dans trois continuums : le pathologique (une évolution, une gradation, une inflation étymologique du sens qui est donné au poids problématique); la surveillance (avec l’établissement de critères rationnels, la surveillance d’abord individuelle est devenue collective et s’est institutionnalisée); la responsabilisation (la responsabilité du poids s’est déplacée de l’individu vers le collectif puis vers le social). Ces continuums illustrent un déplacement de la manière de conceptualiser le poids de la sphère privée vers la sphère publique. Cette analyse révèle aussi qu’il y a à l’œuvre un exercice disciplinaire propre à une moralisation qui s’appuie sur la prémisse que l’augmentation de la prévalence touche toute la population de manière égale. Or, il n’en est rien.
Resumo:
Les politiques éducatives se multiplient à l’échelle des pays industrialisés mais celles-ci semblent rencontrer de graves problèmes d’atteinte de résultats concrets et satisfaisants. La mise en œuvre d’une politique, notamment les stratégies gouvernementales « hybrides » sélectionnées, c’est-à-dire des stratégies d’implantation de politiques qui misent à la fois sur des stratégies « top-down » et aussi « bottom-up », semble être un élément-clé à considérer pour leur efficience (Gather-Thurler, 2000; Van Zanten, 2004; Fullan, 2005, 2007). Or, les connaissances concernant ces stratégies de mise en œuvre sont partielles, encore peu développées et les raisons qui expliquent ces choix politiques se font rares; ce qui rend la production de politiques effectives et durables difficile (Fullan, 2000; Leithwood et Earl, 2000; Van Zanten, 2004). Le Québec a entrepris, en 1997, une réforme à grande échelle de son système d’éducation; réforme qui mise explicitement sur des stratégies gouvernementales « hybrides » pour sa réalisation. Cette étude s’attarde à cette réforme, plus spécifiquement à sa réforme du curriculum au primaire, afin de : 1) retracer les grands moments-clés de la mise en œuvre de la politique associés aux différentes dimensions du concept d’« hybridité »; 2) identifier et décrire les stratégies gouvernementales « hybrides » qui leur sont associées; 3) formuler des hypothèses explicatives provisoires et les valider; 4) élaborer un modèle explicatif et 5) expliciter l’incidence du modèle proposé sur les théories existantes. Cette étude de cas est effectuée par l’entremise de deux formes de cueillette de données complémentaires : une analyse documentaire et des entrevues semi-dirigées. Une analyse documentaire est réalisée à partir des documents formels de l’autorité publique (N=14) et d’une revue de presse, de 1995 à 2003 (N=648). Les entrevues (N=23) visent, pour leur part, à recueillir les propos des : 1) concepteurs et décideurs; 2) opérationnalisateurs; 3) concepteurs-opérationnalisateurs et 4) experts. La combinaison des données recueillies permet d’établir la comparaison entre le processus et la structure (Meny et Thoenig, 1989), le prescriptif et l’effectif, afin de comprendre la vraie dynamique qui a animé le processus de mise en œuvre de la politique étudiée. Ainsi, l’examen du processus de mise en œuvre de la réforme du curriculum québécois du primaire permet de retracer le modèle d’implantation de la politique curriculaire québécoise. Ce modèle d’implantation novateur fait état du fait que des stratégies hybrides non improvisées et exigeantes furent pensées et proposées par les autorités québécoises. Ce modèle d’implantation élaboré permettait de penser que la politique curriculaire québécoise allait, possiblement, permettre d’obtenir des résultats tangibles et durables dans les milieux scolaires. L’analyse de la structure de mise en œuvre révèle, pour sa part, que les stratégies d’implantation qui se sont déployées sur le terrain rejoignaient presqu’intégralement les stratégies « hybrides » initialement prévues. Le processus d’implantation a cependant connu une évolution différente de celle attendue. La mise en œuvre concrète qui s’est vécue sur le terrain fut difficile et hasardeuse, malgré l’approche « hybride » adoptée. Les éléments qui expliquent les difficultés d’implantation vécues sont présentés et analysés dans cette étude.