663 resultados para Einkirch (Peter). inscription autrefois existante dans un album (v. 1564)
Resumo:
Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.
Resumo:
Cette recherche analyse la pénétration des Cultural Studies dans les curricula de deux départements de sociologie francophones : celui de l’Université de Montréal et celui de l’Université du Québec à Montréal. À partir des entretiens conduits auprès de professeurs, mais aussi de l’analyse des curricula inspirée de la théorie développée par B. Bernstein, cette recherche questionne tous les enjeux relatifs à l’introduction d’un nouveau cours ou d’une nouvelle façon de penser dans un département. Il ne s’agit donc pas de conclure sur la forte – ou faible – présence des Cultural Studies dans les programmes, mais plutôt d’expliquer ces variations de présence à partir des caractéristiques sociales, politiques, économiques et même géographiques, propres à chaque département. L’analyse conduite va aussi plus loin en constatant que les Cultural Studies, même si elles ne se sont pas développées à grande échelle au Québec, ont eu un impact sur la façon dont sont abordés les objets sociologiques.
Resumo:
La schizophrénie est une maladie complexe et a une prévalence approximative de 1% dans la population générale. Au sein des paradigmes neurochimiques, la théorie étiologique de la dopamine est celle qui prévaut alors que sont de plus en plus impliqués d’autres circuits de neurotransmission comme celui du glutamate. En clinique, les patients atteints de schizophrénie ont une grande propension à consommer des substances, particulièrement du cannabis. Nous avons cherché à étayer l’hypothèse d’un désordre du système cannabinoïde endogène, un important neuromodulateur. Ce mémoire propose d’abord dans un premier article une revue exhaustive de la littérature explorant le système endocannabinoïde et ses implications dans la schizophrénie. Puis, nous exposons dans un second article les résultats d’une recherche clinique sur les endocannabinoïdes plasmatiques dans trois groupes de sujets avec schizophrénie et/ou toxicomanie, pendant 12 semaines. Nous avons observé un effet miroir de deux ligands endocannabinoïdes, l’anandamide et l’oleylethanolamide, qui étaient élevés chez les patients avec double diagnostic et abaissés chez les toxicomanes, au début de l’étude. Au terme de l’étude, l’élévation des endocannabinoïdes s’est maintenue et nous avons supposé un marqueur de vulnérabilité psychotique dans un contexte de consommation. Finalement, nous avons analysé les résultats en les intégrant aux connaissances moléculaires et pharmacologiques ainsi qu’aux théories neurochimiques et inflammatoires déjà développées dans la schizophrénie. Nous avons aussi tenu compte des principales comorbidités observées en clinique: la toxicomanie et les troubles métaboliques. Cela nous a permis de proposer un modèle cannabinoïde de la schizophrénie et conséquemment des perspectives de recherche et de traitement.
Resumo:
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.
Resumo:
L’arthrite septique chez les bovins est une affection le plus souvent d’origine bactérienne qui est une cause de boiterie fréquente associée à des pertes économiques importantes. Le traitement, qui doit être initié le plus rapidement possible, s’appuie sur l’utilisation combinée d’anti-inflammatoires non stéroïdiens, d’un ou de plusieurs lavages articulaires ainsi que d’antibiotiques administrés de façon systémique pour un minimum de 3 semaines. Cette durée d’administration constitue une difficulté pour les élevages dits biologiques pour lesquels un cahier des charges strict limite un recours prolongé aux antibiotiques. Ainsi le traitement efficace de diverses conditions infectieuses et celui de l’arthrite septique en particulier dans ces élevages peut être compromis. L’objectif de ce travail est de s’appuyer sur les propriétés antimicrobiennes des solutions de saline hypertonique (SSH) pour limiter l’utilisation des antibiotiques dans les cas d’arthrite septique chez les veaux en intégrant ces solutions pour le lavage des articulations infectées. Notre première étude a consisté à déterminer la sécurité d’emploi de deux concentrations de SSH (une commerciale à 7.2% et une maison à 15%) dans des articulations supposées saines chez le veau. Une synovite sévère associée à des signes cliniques caractéristiques d’atteintes articulaires a été observé lors de l’utilisation de SSH 15%. Son utilisation clinique comme solution de lavage articulaire est par conséquent déconseillée. Concernant la SSH 7.2%, malgré une synovite d’intensité variable, nous n’avons pas noté des signes cliniques caractéristiques d’atteintes articulaires. Son utilisation dans un contexte expérimental d’infection articulaire nous a paru réaliste. Notre seconde étude a permis d’évaluer les effets du lavage articulaire avec de la SSH 7.2% dans un modèle expérimental d’infection à Escherichia coli. Trois groupes de traitement ont été constitués. Dans le premier groupe (traitement standard), un lavage était effectué avec du lactate de Ringer (LRS) et les veaux recevaient une administration biquotidienne de ceftiofur par voie intraveineuse pour 21 jours. Dans le deuxième groupe (LRS), un lavage était effectué avec du LRS et aucun antibiotique n’était administré. Enfin dans le troisième groupe (SSH), un lavage était effectué avec de la SSH 7.2% sans qu’aucun antibiotique ne soit administré. Tous les veaux ont reçu du kétoprofen quotidiennement pendant 3 jours. L’inoculation s’est fait au jour 1 et les traitements ont débuté au jour 2. L’efficacité des traitements a été établie sur des critères cliniques, bactériologiques et cytologiques. Dans le modèle que nous avons utilisé, les trois groupes de traitements ont conduits à une guérison clinique et bactériologique satisfaisante (absence de boiterie, de douleur et de croissance bactérienne dans le liquide articulaire en fin d’étude). La guérison cytologique n’a quant à elle pas été jugée satisfaisante avec des moyennes de comptage et de pourcentage en neutrophiles tout groupe confondu bien supérieures aux valeurs normales (11.39x109/l de neutrophiles représentant 74.73% des leucocytes en fin d’étude). Le traitement avec la SSH 7.2% s’est révélé être significativement plus traumatique et pas plus efficace dans l’élimination de l’infection comparativement au traitement LRS. D’autre part, le lavage articulaire au LRS s’est révélé être aussi efficace et sécuritaire que le traitement standard de l’arthrite septique qui incluait 21 jours de ceftiofur administré par voie intraveineuse. Ainsi, bien que le lavage avec de la SSH 7.2% n’est pas démontré de résultats satisfaisants qui permettrait de limiter le recours aux antibiotiques dans les filières biologiques, l’association d’un lavage au LRS avec le ketoprofen s’est révélée être une alternative possible. De nouvelles études sont requises pour confirmer ses résultats et pour déterminer le rôle respectif du lavage articulaire et du ketoprofen dans la guérison lors d’arthrite septique.
Resumo:
Après la Seconde Guerre Mondiale, on peut observer une inflexion de l’usage de la couleur dans le cinéma hollywoodien. Trop artificielle, la couleur a été reléguée à ses débuts à des genres « irréalistes » (comédie musicale, western). Mais après la guerre, la couleur est utilisée dans des films montrant le quotidien de l’Amérique, et devient une nouvelle façon d’appréhender certaines questions contemporaines. La couleur n’est plus un ornement ou un perfectionnement superflu, elle est porteuse de sens, au même titre que les autres éléments de la mise en scène. Les couleurs vives et l’exacerbation de l’artifice sont désormais utilisées par certains cinéastes dans un autre but que le seul plaisir de l’image colorée : parfois avec ironie, voire un pessimisme sous-jacent. L’enjeu esthétique de la couleur au cinéma doit en effet être situé dans le contexte historique de l’après guerre. La dévalorisation de la couleur dans l’histoire de l’art est ancienne, celle-ci ayant souvent été associée depuis l’Antiquité au maquillage féminin et à l’illusion. Le cinéma hollywoodien des années cinquante modifie justement l’image de la femme : on passe de la femme mythifiée à des femmes de chair et de sang, plus sexualisées, et aussi à l’évocation des rapports sociaux du quotidien. À travers l’actrice, et la façon dont celle-ci manipule la couleur ou bien existe à travers elle, la couleur se libère des préjugés, et trouve son indépendance, à travers une libération de l’expressivité, et un refus du seul mimétisme.
Resumo:
La stabilité génomique des organelles de plantes suscite un grand intérêt dans le domaine de la biologie végétale. En effet, plusieurs études récentes suggèrent que ce type d’instabilité génomique pourrait mener à l’isolation de traits intéressants en l’agronomie. Plusieurs protéines sont d’ailleurs déjà été identifiés comme étant impliqués dans le maintien de la stabilité de ces génomes, tels que MSH1, la famille des POLI, OSB1, les protéines Whirly et les Recombinases A (RECA). Le génome nucléaire d’Arabidopsis thaliana encode trois protéines s’apparentant à la Recombinase A bactérienne et qui sont ciblées à la mitochondrie et/ou au chloroplaste, soit RECA1, RECA2 et RECA3. Globalement, ces gènes partagent une similarité de séquence de 61% avec leur homologue bactérien chez Escherichia coli. Chez les bactéries ces protéines jouent un rôle essentiel dans la recombinaison homologue et sont impliquées dans la réparation de l’ADN. Chez Arabidopsis, il a été démontré que RECA2 et RECA3 sont nécessaires au maintien de l’intégrité du génome mitochondriale. Toutefois leur contribution à la stabilité du génome chloroplastique ainsi que le rôle de RECA1 restent obscures. Le but de ce projet est donc de déterminer la contribution éventuelle des protéines RECA d’Arabidopsis dans la réparation de l’ADN chloroplastique et plus précisément le rôle du gène RECA1. Nous énonçons l’hypothèse que les RECA de plantes se comportent effectivement comme leurs orthologues bactériens en étant impliqués dans la recombinaison homologue. Dans le cadre de ce projet, nous avons tenté d’isoler des lignées mutantes pour chacun des gènes RECA d’Arabidopsis. En somme, nous avons pu obtenir des lignées convenables pour notre étude que dans le cas du gène RECA1. Ces lignées ont été utilisées pour évaluer la contribution de ce gène à la stabilité du génome du chloroplaste. Ensuite, pour étudier la relation épistatique des gènes RECA1, WHY1 et WHY3, un croisement des différentes lignées mutantes pour ces gènes a été réalisé. Nous avons ensuite étudié la sensibilité de toutes ces lignées mutantes à la ciprofloxacine, un agent causant des bris double brin exclusivement dans les organelles de plantes. Finalement, iii nous avons testé la présence de réarrangements dans le génome du chloroplaste en condition normal ou en présence de stress génotoxique. Nos résultats démontrent que les protéines Whirly et RECA1 sont impliquées dans deux voies de réparation de l’ADN différentes et que les Whirly sont suffisantes pour s’occuper des bris d’ADN double brin en l’absence de RECA1. Nous démontrons également que l’absence de Whirly et RECA1 entraine une forte augmentation de la quantité de réarrangements dans le génome du chloroplaste. De plus nous proposons que la polymérase POLIB est impliquée dans la même voie de réparation que RECA1. Finalement nous proposons un modèle pour expliquer nos résultats et impliquons RECA1 dans un mécanisme de réparation d’ADN et aussi un rôle potentiel dans la réplication.
Resumo:
La mortalité aux jeunes âges devenant de plus en plus faible, l’augmentation de l’espérance de vie est de plus en plus dépendante des progrès en mortalité aux âges avancés. L’espérance de vie à 65 ans et à 85 ans n’a cependant pas connu un rythme de progression continu depuis les trois dernières décennies. Ces changements dans l’évolution de l’espérance de vie proviennent de changements dans les tendances de certaines causes de décès et de leurs interactions. Ce mémoire analyse la contribution des causes de décès aux changements qu’a connus l’espérance de vie, mais aussi l’évolution spécifique des taux de mortalité liés aux principales causes de décès au Canada entre 1979 et 2007. Finalement, une analyse de l’implication de ces changements dans un contexte de transition épidémiologique sera réalisée, par un questionnement sur le fait que l’on assiste ou non au passage de certaines pathologies dominantes à d’autres. La réponse à ce questionnement se trouve dans l’étude de l’évolution par âge et dans le temps des causes de décès. Les résultats montrent que les progrès en espérance de vie à 65 ans et à 85 ans sont encore majoritairement dus à la diminution de la mortalité par maladies cardiovasculaires. Toutefois, ces dernières causes de décès ne sont pas les seules à contribuer aux progrès en espérance de vie, puisque les taux de mortalité dus aux dix principales causes de décès au Canada ont connu une diminution, bien qu’elles n’aient pas toutes évolué de la même manière depuis 1979. On ne semble ainsi pas passer d’un type de pathologies dominantes à un autre, mais à une diminution générale de la mortalité par maladies chroniques et à une diversification plus importante des causes de décès à des âges de plus en plus avancés, notamment par la diminution des «grandes» causes de décès.
Resumo:
Au XIXe siècle, la science et le fantastique produisent le même effet chez les gens : en mettant ceux-ci en contact avec des phénomènes inouïs, ils les inscrivent dans un rapport dialectique – entre le connu et l’inconnu – qui doit déboucher sur le non-encore-connu, comme s’ils recelaient la promesse d’une révélation. En effet, à la fois les sciences de l’esprit et le récit fantastique permettent de franchir les frontières entre le moi et l’autre, la vie et la mort, le corps et l’esprit. Explorant autant de domaines inconnus relatifs à l’homme, ils redéfinissent les contours de celui-ci. C’est donc en tant que moyens de savoir que ce mémoire met en relation ces sciences (psychiatrie, psychophysiologie, hypnotisme…) et trois récits fantastiques, « Onuphrius » de Théophile Gautier, « La Mort d’Olivier Bécaille » d’Émile Zola et « L’Homme voilé » de Marcel Schwob, où une crise de catalepsie subie par le héros déclenche le processus dialectique.
Resumo:
En démontrant sa capacité d’identifier les pneumothorax, de différencier les différentes causes d’insuffisance respiratoire chez les patients dyspnéiques et de confirmer la position d’un tube endotrachéal lors d’une intubation endotrachéale, l’échographie pulmonaire a pris une place prépondérante dans la prise en charge des patients de soins critiques. La majorité des études, notamment celles sur l’intubation endotrachéale, ont évalué la performance de cliniciens possédant une expérience considérable en échographie pulmonaire et souvent dans un cadre idéal permettant des examens d’une durée prolongée. Considérant la disponibilité grandissante de l’échographie ciblée lors des situations de stabilisation et de réanimation des patients de soins critiques, nous voulions évaluer la capacité d’un groupe de clinicien hétérogène en termes de formation échographique à identifier la présence ou l’absence de glissement pleural sur de courtes séquences (comparable à la durée probable d’un examen lors de condition de réanimation) d’échographie pulmonaire enregistrées chez des patients intubés. Un total de 280 courtes séquences (entre 4 et 7 secondes) d’échographie pulmonaire démontrant la présence ou l’absence de glissement pleural chez des patients intubés en salle d’opération ont été enregistrées puis présentées de façon aléatoire à deux groupes de cliniciens en médecine d’urgence. Le deuxième groupe avait la possibilité de s’abstenir advenant une incertitude de leur réponse. Nous avons comparé la performance selon le niveau de formation académique et échographique. Le taux moyen d’identification adéquate de la présence ou l’absence du glissement pleural par participant était de 67,5% (IC 95% : 65,7-69,4) dans le premier groupe et 73,1% (IC 95% : 70,7-75,5) dans le second (p<0,001). Le taux médian de réponse adéquate pour chacune des 280 séquences était de 74,0% (EIQ : 48,0-90,0) dans le premier groupe et 83,7% (EIQ : 53,3-96,2) dans le deuxième (p=0,006). Le taux d’identification adéquate de la présence ou absence d’un glissement pleural par les participants des deux groupes était nettement supérieur pour les séquences de l’hémithorax droit par rapport à celles de l’hémithorax gauche (p=0,001). Lorsque des médecins de formation académique et échographique variable utilisent de courtes séquences d’échographie pulmonaire (plus représentatives de l’utilisation réelle en clinique), le taux d’identification adéquate de la présence ou l’absence de glissement pleural est plus élevé lorsque les participants ont la possibilité de s’abstenir en cas de doute quant à leur réponse. Le taux de bonnes réponses est également plus élevé pour les séquences de l’hémithorax droit, probablement dû à la présence sous-jacente du cœur à gauche, la plus petite taille du poumon gauche et l’effet accru du pouls pulmonaire dans l’hémithorax gauche. Considérant ces trouvailles, la prudence est de mise lors de l’utilisation de l’identification du glissement pleural sur de courtes séquences échographique comme méthode de vérification de la position d’un tube endotrachéal lors d’une intubation endotrachéale, et ce, particulièrement pour l’hémithorax gauche. Aussi, une attention particulière devrait être mise sur la reconnaissance du pouls pulmonaire lors de l’enseignement de l’échographie pulmonaire.
Resumo:
Toxoplasma gondii, un protozoaire très répandu dans le monde, peut infecter de nombreuses espèces homéothermes incluant les mammifères et les oiseaux qui développent alors une toxoplasmose. L’impact de la toxoplasmose en termes de santé publique est majeur, particulièrement chez les personnes immunodéprimées et les foetus. Les niveaux d’infection humaine dans certaines régions de l’Arctique Canadien sont parmi les plus élevés au monde et ce, malgré l’absence de félidés qui sont les seuls hôtes capables d’excréter T. gondii. Plusieurs études ont suggéré la consommation de viande crue de mammifères marins et notamment de phoques comme source d’infection des Inuits. Notre travail de recherche visait à comprendre les mécanismes de dispersion de T. gondii dans les écosystèmes aquatiques menant à la contamination du milieu marin de l’Arctique par des oocystes, et à évaluer l’importance de cette voie de dispersion dans l’infection des phoques et conséquemment dans celle des Inuits. Notre hypothèse était que les oocystes de T. gondii, excrétés durant l’hiver par des félidés dans le Subarctique et transportés par les rivières pendant la fonte printanière, contaminaient les estuaires de l’Arctique Canadien. Dans un premier temps, une étude transversale de séroprévalence chez les phoques de l’Arctique Canadien a montré que ces populations étaient infectées par T. gondii et pouvaient ainsi a priori constituer une source d’infection pour les Inuit. Des variations spatio-temporelles de la séroprévalence étaient observées suggérant un lien potentiel avec des variations dans la contamination environnementale par les oocystes. Un schéma conceptuel explicitant les mécanismes de transport et de devenir des oocystes de T. gondii, du phénomène de la fonte de la neige jusqu’à l’exposition des organismes marins, a été proposé dans le chapitre suivant. Des interactions entre les différents mécanismes identifiés, qui agissent sur des échelles spatio-temporelles variées, devraient favoriser l’apparition de concentrations relativement élevées aux estuaires permettant ainsi l’exposition et potentiellement l’infection de phoques. Pour évaluer la contamination environnementale par les oocystes excrétés par la population de lynx du bassin versant de l’Arctique Canadien (les seuls félidés majoritairement distribués dans ce vaste territoire), nous avons mené une étude sérologique de type transversale dans cette population. Cette étude a permis de montrer que des lynx étaient infectés par T. gondii et a également suggéré que la dynamique des cycles de populations lynx-lièvres pouvait être un processus important dans la transmission de T. gondii. Finalement, la modélisation du transport hydrique des oocystes a indiqué que les concentrations hypothétiques d’oocystes dans l’eau de la fonte pourraient être suffisantes pour permettre l’exposition au niveau des estuaires de bivalves filtreurs, qui sont des proies pour les phoques et donc potentiellement des sources infectieuses pour ces derniers. Dans des écosystèmes nordiques en pleine mutation, la compréhension des mécanismes de transmission d’agents pathogènes d’origine hydrique comme T. gondii est plus que nécessaire, notamment dans le but de protéger les populations fragilisées de ces régions.
Resumo:
Alors que la plupart des théories libérales ont mis l’accent sur les principes de justice, et sur une conception de la justice qui nous fait penser la société et les relations individuelles de manière de plus en plus abstraite, les réflexions sur le respect de soi nous portent plutôt vers ce qui est essentiel à la valeur et l’importance de l’identité des personnes et de leurs relations sociales. Ces réflexions nous révèlent que non seulement les principes de justice ne sont pas la seule source de respect, mais que tant les cultures et les religions que les communautés morales et les groupes compréhensifs ont des rôles fondamentaux pour le niveau de respect de soi et de respect mutuel que les individus éprouvent envers eux-mêmes et envers les autres. Si les projets de vie, les valeurs et les croyances des individus sont révélés comme fondamentaux à leur autonomie et leur vie comme individu, les réflexions sur le multiculturalisme et le pluralisme révèlent les difficultés de notre temps : comment une société peut-elle promouvoir le respect de soi des individus dans un tel contexte de diversité morale, compréhensive, religieuse, etc.? Critiquant les théories de John Rawls, Will Kymlicka, ainsi que certains arguments de philosophes tels que Bhiku Parekh et David Miller, la thèse défendue dans ce mémoire prend la position très forte qu’une société doit donner beaucoup plus de moyens aux individus pour que leur respect de soi soit favorisé. La thèse centrale est que les individus ont tous le droit à un contexte de valorisation, soit un espace politique propre à une communauté ou un groupe et qui inclut les institutions et les pouvoirs nécessaires pour que le respect de soi des membres de ces groupes puisse être favorisé. C’est seulement par un tel droit et par les revendications structurelles et institutionnelles qui s’y rapportent que les groupes culturels et religieux, ainsi que les communautés morales et les groupes compréhensifs peuvent être reconnus politiquement et qu’une théorie libérale et multiculturelle des individus et des groupes puisse concilier idéal et réalité.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Phénomène à haute prévalence dans le monde entier, les infections acquises au cours de la prestation de soins de santé constituent une menace importante pour la santé publique. Il s’agit d’une réalité inéluctable du système de santé qui touche de nombreuses victimes en les affectant de dommages variés. Fruit d’une interaction complexe entre divers facteurs, ces infections représentent un lourd fardeau pour les victimes comme pour la société, tant au plan physique, mental et financier. Bien que les infections nosocomiales semblent être au cœur des préoccupations des autorités sanitaires québécoises, l’indemnisation des victimes demeure problématique. Actuellement, l’indemnisation se fait via le régime traditionnel de responsabilité civile mais nombreux sont les obstacles auxquels font face les patients désirant obtenir compensation. Les règles classiques s’avèrent difficiles d’application dans un contexte où la source de l’infection est souvent inconnue et les facteurs ayant pu contribuer à son développement sont multiples. Face à cette problématique et à l’insatisfaction ressentie, certaines juridictions étrangères ont reconnu le caractère inadapté du régime traditionnel et ont implanté un régime d’indemnisation sans égard à la faute dans l’espoir d’améliorer le sort des victimes. Le Québec a opté pour la même solution dans divers domaines, tels que les accidents automobiles et la vaccination. Ce mémoire propose une étude approfondie de l’opportunité d’adopter, en droit québécois, un régime d’indemnisation sans égard à la faute bénéficiant aux victimes d’infections nosocomiales. L’objectif de ce projet est de faire une esquisse des caractéristiques assurant l’efficacité et la viabilité d’un tel régime.
Resumo:
Dans un contexte où l’approvisionnement énergétique mondial du 21e siècle est un enjeu majeur, le développement de sources d’énergie renouvelables suscite l’attention croissante de la communauté scientifique et industrielle. L’énergie solaire est définitivement l’une des meilleures alternatives aux combustibles fossiles en tant que source d’énergie du monde de demain. Ce mémoire traite donc du développement de nouveaux matériaux organométalliques pour des applications de photorécoltage d’énergie en photovoltaïque et en production d’hydrogène. Le premier chapitre présente la synthèse assistée par microondes de quatre nouveaux complexes de Co(II), Ni(II), Cu(II) et Zn(II) basés sur le ligand tétra-p-méthoxyphényl-azadipyrrométhène (ADPM) avec des rendements variant de 89% à quantitatif. Ces complexes sont mis en relation avec d’autres complexes homoleptiques connus portant le tétraphényl-ADPM comme ligand ainsi qu’avec leurs chélates de BF2+ pour une meilleure compréhension des tendances engendrées par la substitution de l’agent coordonnant et/ou des substituants p-méthoxy. Pour ce faire, le comportement électrochimique et photophysique est présenté. De façon générale, la présence des quatre groupements p-méthoxy semble rendre les dérivés de cet ADPM plus susceptibles à la dégradation électrochimique en conditions d’oxydation et induire un déplacement bathochromique des propriétés optiques d’absorption et d’émission. Les structures rayons X du ligand tétra-p-méthoxyphényl-ADPM et de son complexe homoleptique de Co(II) sont aussi discutées. Cette étude a été effectuée dans l’espoir de fournir des informations utiles sur la stabilité des ADPM aux chercheurs du domaine photovoltaïque en quête de nouveaux chromophores dans le proche infrarouge (NIR). Le deuxième chapitre présente quant à lui les propriétés de senseur envers les anions F-, OAc- et H2PO4- de deux nouveaux complexes neutres de Re(I) de type mono- et dinucléaire basés sur une phénanthroline substituée en position 5 contenant un récepteur thio-urée. Ces composés ont été obtenus dans des rendements de 81% et 60%, respectivement. L’effet de la formation de ponts hydrogène lors de l’ajout d’anions versus la déprotonation du récepteur a été évalué par des titrations UV/Vis et RMN 1H et semble indiquer que la formation de la base conjuguée du récepteur est favorisée pour ce type de système. De plus, la structure rayons X d’un des précurseurs est présentée et permet une discussion sur la chiralité des complexes mono- et dinucléaire obtenus. L’obtention d’un complexe bimétallique par autoassemblage ouvre la voie à la préparation d’antennes moléculaires pour des systèmes de photosynthèse artificielle.