985 resultados para Être-au-monde
Resumo:
Au-delà des variables climatiques, d’autres facteurs non climatiques sont à considérer dans l’analyse de la vulnérabilité et de l’adaptation au changement et variabilité climatiques. Cette mutation de paradigme place l’agent humain au centre du processus d’adaptation au changement climatique, notamment en ce qui concerne le rôle des réseaux sociaux dans la transmission des nouvelles idées. Dans le domaine de l’agriculture, le recours aux innovations est prôné comme stratégie d’adaptation. L’élaboration et l’appropriation de ces stratégies d’adaptation peuvent être considérées comme des processus d’innovation qui dépendent autant du contexte social et culturel d’un territoire, de sa dynamique, ainsi que de la stratégie elle-même. Aussi, l’appropriation et la diffusion d’une innovation s’opèrent à partir d’un processus décisionnel à l’échelle de l’exploitation agricole, qui à son tour, demande une compréhension des multiples forces et facteurs externes et internes à l’exploitation et les multiples objectifs de l’exploitant. Ainsi, la compréhension de l’environnement décisionnel de l’exploitant agricole à l’échelle de la ferme est vitale, car elle est un préalable incontournable au succès et à la durabilité de toute politique d’adaptation de l’agriculture. Or, dans un secteur comme l’agriculture, il est reconnu que les réseaux sociaux par exemple, jouent un rôle crucial dans l’adaptation notamment, par le truchement de la diffusion des innovations. Aussi, l’objectif de cette recherche est d’analyser comment les exploitants agricoles s’approprient et conçoivent les stratégies d’adaptation au changement et à la variabilité climatiques dans une perspective de diffusion des innovations. Cette étude a été menée en Montérégie-Ouest, région du sud-ouest du Québec, connue pour être l’une des plus importantes régions agricoles du Québec, en raison des facteurs climatiques et édaphiques favorables. Cinquante-deux entrevues ont été conduites auprès de différents intervenants à l’agriculture aux niveaux local et régional. L’approche grounded theory est utilisée pour analyser, et explorer les contours de l’environnement décisionnel des exploitants agricoles relativement à l’utilisation des innovations comme stratégie d’adaptation. Les résultats montrent que les innovations ne sont pas implicitement conçues pour faire face aux changements et à la variabilité climatiques même si l’évolution du climat influence leur émergence, la décision d’innover étant largement déterminée par des considérations économiques. D’autre part, l‘étude montre aussi une faiblesse du capital sociale au sein des exploitants agricoles liée à l’influence prépondérante exercée par le secteur privé, principal fournisseur de matériels et intrants agricoles. L’influence du secteur privé se traduit par la domination des considérations économiques sur les préoccupations écologiques et la tentation du profit à court terme de la part des exploitants agricoles, ce qui pose la problématique de la soutenabilité des interventions en matière d’adaptation de l’agriculture québécoise. L’étude fait ressortir aussi la complémentarité entre les réseaux sociaux informels et les structures formelles de soutien à l’adaptation, de même que la nécessité d’établir des partenariats. De plus, l’étude place l’adaptation de l’agriculture québécoise dans une perspective d’adaptation privée dont la réussite repose sur une « socialisation » des innovations, laquelle devrait conduire à l’émergence de processus institutionnels formels et informels. La mise en place de ce type de partenariat peut grandement contribuer à améliorer le processus d’adaptation à l’échelle locale.
Resumo:
La biométrie, appliquée dans un contexte de traitement automatisé des données et de reconnaissance des identités, fait partie de ces technologies nouvelles dont la complexité d’utilisation fait émerger de nouveaux enjeux et où ses effets à long terme sont incalculables. L’envergure des risques suscite des questionnements dont il est essentiel de trouver les réponses. On justifie le recours à cette technologie dans le but d’apporter plus de sécurité, mais, vient-elle vraiment apporter plus de protection dans le contexte actuel? En outre, le régime législatif québécois est-il suffisant pour encadrer tous les risques qu’elle génère? Les technologies biométriques sont flexibles en ce sens qu’elles permettent de saisir une multitude de caractéristiques biométriques et offrent aux utilisateurs plusieurs modalités de fonctionnement. Par exemple, on peut l’utiliser pour l’identification tout comme pour l’authentification. Bien que la différence entre les deux concepts puisse être difficile à saisir, nous verrons qu’ils auront des répercussions différentes sur nos droits et ne comporteront pas les mêmes risques. Par ailleurs, le droit fondamental qui sera le plus touché par l’utilisation de la biométrie sera évidemment le droit à la vie privée. Encore non bien compris, le droit à la vie privée est complexe et son application est difficile dans le contexte des nouvelles technologies. La circulation des données biométriques, la surveillance accrue, le détournement d’usage et l’usurpation d’identité figurent au tableau des risques connus de la biométrie. De plus, nous verrons que son utilisation pourra avoir des conséquences sur d’autres droits fondamentaux, selon la manière dont le système est employé. Les tests de nécessité du projet et de proportionnalité de l’atteinte à nos droits seront les éléments clés pour évaluer la conformité d’un système biométrique. Ensuite, le succès de la technologie dépendra des mesures de sécurité mises en place pour assurer la protection des données biométriques, leur intégrité et leur accès, une fois la légitimité du système établie.
Resumo:
La théorie du capital culturel est de plus en plus utilisée en santé publique et pourrait être utile à l’étude des inégalités sociales liées au tabagisme chez les jeunes adultes. Ceux-ci véhiculent une haute prévalence du tabagisme et plusieurs particularités qui font d’eux un groupe cible qui mérite davantage d’attention. Cependant, le développement du capital culturel porte encore peu de consensus quant à sa définition et son opérationnalisation. Nous proposons un nouveau cadre de référence autour de trois dimensions – champs, générations et états – et établissons une application empirique de celui-ci en étudiant l’association entre certains indicateurs du capital culturel et le tabagisme des jeunes adultes. Nous utilisons les données du projet Interdisciplinary Study of Inequalities in Smoking qui a recruté 2 093 jeunes adultes à Montréal, Canada en 2011-2012. Nos variables dépendantes sont le statut tabagique courant et le nombre de cigarettes fumées dans une journée. Nous examinons les corrélations entre les indicateurs de capital culturel et leur association avec le tabagisme au travers de modèles de régression hiérarchique logistique et linéaire. Nous observons de faibles associations entre les indicateurs retenus. Nous observons aussi que les indicateurs du capital culturel liés aux champs de la santé et de l’éducation, chez les participants et leurs parents, étaient tous associés au comportement tabagique. A la lumière de notre cadre de référence, une approche multidimensionnelle à l’utilisation du capital culturel peut nous permettre de mieux comprendre les inégalités sociales liées au tabagisme chez les jeunes adultes.
Resumo:
Le Jeu, un phénomène difficile à définir, se manifeste en littérature de différentes manières. Le présent travail en considère deux : l’écriture à contrainte, telle que la pratique l’Oulipo, et l’écriture de l’imaginaire, en particulier les romans de Fantasy française. La première partie de cette étude présente donc, sous forme d’essai, les origines et les visées des deux groupes d’écrivains, mettant en lumière les similitudes pouvant être établies entre eux malgré leurs apparentes différences. Tandis que l’Oulipo cherche des contraintes capables de générer un nombre infini de textes et explore la langue par ce moyen, la Fantasy se veut créatrice de mondes imaginaires en puisant généralement à la source de Tolkien et des jeux de rôle. Il en résulte que le jeu, dans les deux cas, se révèle un puissant moteur de création, que le récit appelle un lecteur-explorateur et qu’il crée une infinité de mondes possibles. Malgré tout, des divergences demeurent quant à leurs critiques, leurs rapports avec le jeu et les domaines extralittéraires, et leurs visées. Considérant ce fait, je propose de combiner les deux styles d’écriture en me servant du cycle des Hortense de Jacques Roubaud (structuré au moyen de la sextine) et des Chroniques des Crépusculaires de Mathieu Gaborit (figure de proue en fantasy « pure »). Ce projet a pour but de combler le fossé restant encore entre les deux groupes. Ainsi, la seconde partie de mon travail constitue une première tentative de réunion des deux techniques d’écriture (à contrainte et de l’imaginaire). Six héros (trois aventuriers et trois mercenaires) partent à la recherche d’un objet magique dérobé à la Reine du Désert et capable de bouleverser l’ordre du monde. Le récit, divisé en six chapitres, rapporte les aventures de ce groupe jusqu’à leur rencontre avec l’ennemi juré de la Reine, un puissant sorcier elfe noir. Chaque chapitre comporte six sections plus petites où sont permutés – selon le mouvement de la sextine – six éléments caractéristiques des jeux de rôles : 1-Une description du MJ (Maître du Jeu) ; 2-Un combat ; 3-Une énigme à résoudre ou un piège à désarmer ; 4-Une discussion entre les joueurs à propos de leurs avatars ; 5-L’acquisition d’un nouvel objet ; 6-Une interaction avec un PNJ (Personnage Non Joueur). Tout au long du texte, des références aux Chroniques des Crépusculaires de Mathieu Gaborit apparaissent, suivant également un ordre sextinien. D’autres allusions, à Tolkien, Queneau, Perec ou Roubaud, agrémentent le roman.
Resumo:
Thèse présentée en cotutelle en vue de l’obtention des grades de Philosophiae Doctor (Ph.D.) en Sciences des Religions de l’Université de Montréal et de Docteur en Sociologie de l’École Pratique des Hautes Études Paris-Sorbonne
Resumo:
L’étude qui nous concerne vise à mieux comprendre la violence en milieu carcéral. C’est à l’aide d’entrevues menées auprès de treize hommes incarcérés à l’Unité spéciale de détention, une unité canadienne spécifiquement conçue pour loger des personnes qui ont fait usage de violence intra murale ou sont soupçonné de l’avoir fait, que nous avons tenté d’atteindre l’objectif principal de ce projet. Plus spécifiquement, le point de vue des participants a été recueilli sur l’incarcération, sur les moyens utilisés afin de s’accoutumer aux défis de l’enfermement ainsi que la manière dont les individus justifient l’usage de violence dans ce contexte. Les résultats de nos analyses suggèrent que le milieu carcéral est un monde hostile et imprévisible où les individus se perçoivent constamment vulnérables à de multiples formes d’agression. Placés en hyper vigilance et orientés vers la survie, les détenus font usage de diverses stratégies d’adaptation afin de répondre aux situations difficiles qu’ils rencontrent en contexte de perte de liberté. La violence représente donc un des moyens dont disposent les individus pour survivre à l’intérieur des murs. Les diverses formes d’adaptation violente rencontrées en milieu carcéral peuvent ainsi informer sur les enjeux de survie présents dans un milieu et donc, du risque de violence ou de victimisation dans ce milieu, que cette violence soit interpersonnelle, collective, auto dirigée, axée sur la fuite ou contre les biens. Puisque l’usage de violence par une personne engendre une possibilité accrue de choisir la violence pour une autre, et ce, avec les conséquences qui s’en suivent pour les détenus et les membres du personnel, nous avons tenté d’identifier et de comprendre les diverses logiques d’action qui motivent le choix d’avoir recours à la violence dans les institutions carcérales. Or, il appert que certaines caractéristiques des individus tendent à faire augmenter le risque pour une personne d’avoir recours à la violence carcérale. De même, il semble que certaines institutions sont davantage propices à l’usage de violence que d’autres. De surcroît, des éléments appartenant aux individus et au milieu en interrelation semblent favoriser la possibilité qu’un condamné fasse usage de violence intra murale. Ainsi, le recours à la violence est davantage probable si elle est légitimée par les individus et le milieu, si le niveau d’adhésion aux valeurs des sous-cultures délinquantes des individus est élevé et si la philosophie du milieu en favorise le maintien, si des groupes influents en quête de contrôle et de pouvoir sont présents dans le milieu et qu’un individu désire y être affilié, s’il y a présence de marchés illicites comme réponse à la privation et qu’un individu y participe ou encore, si le milieu et l’individu sont pris dans l’engrenage d’un climat de survie. Par conséquent, une réflexion concernant le sentiment de sécurité préoccupant les reclus, sentiment qui est un besoin fondamental chez tous les êtres humains, un retour sur les divers modèles théoriques en fonction des données que nous avons obtenues ainsi qu’une réflexion portant sur les moyens dont disposent les individus et le milieu afin de diminuer les possibilités que la violence soit utilisée, ont été amorcées en conclusion.
Resumo:
Ce mémoire vise à étudier l’effet d’un défi santé centré sur la perte de poids, au sein d’un programme de santé et de mieux-être, dans une organisation du Québec, sur les invalidités de courte durée, les accidents du travail et le retour sur investissement qui en résulte. Les analyses quantitatives ont été réalisées à partir d’une base de données existante dans laquelle 1 981 employés ont été retenus dans une grande compagnie canadienne employant plus de 2 400 personnes. Les données ont été analysées sur une période de 15 mois, soit six mois avant l’intervention (période pré-intervention), trois mois durant l’intervention et six mois suivant l’intervention (période post-intervention). Les résultats indiquent que seule la fréquence des accidents du travail est significativement plus importante chez les non-participants lorsqu’on les compare avec les participants dans la période post-intervention. Lorsqu’on compare ces deux groupes entre les périodes pré et post-intervention, on remarque que les résultats des participants sont demeurés stables dans le temps tandis que ceux des non-participants se sont détériorés quant à la fréquence et à la durée des absences reliées à des invalidités de courte durée et à celle des accidents du travail. Aussi, l’âge des participants exerce un effet modérateur sur les accidents du travail puisque les résultats montrent que les participants plus jeunes (18 à 44 ans) obtiennent une fréquence d’accidents du travail inférieure à celle des employés plus âgés (45 ans et plus) du même groupe. Par contre, le genre n’a pas un tel effet de modération. Enfin, le retour sur investissement du programme est estimé à six dollars pour chaque dollar investi. Finalement, les résultats obtenus permettent de montrer aux employeurs qu’investir dans un défi santé centré sur la perte poids génère des effets quantitatifs et qualitatifs positifs importants sur leur main-d’œuvre. Ce programme permet de sensibiliser les employés à bien s’alimenter et à faire de l’activité physique, ce qui favorise l’atteinte d’un poids santé et ainsi de freiner l’augmentation annuelle de l’absentéisme que l’on observe sur le marché du travail.
Resumo:
Depuis la révolution industrielle, l’évolution de la technologie bouleverse le monde de la fabrication. Aujourd'hui, de nouvelles technologies telles que le prototypage rapide font une percée dans des domaines comme celui de la fabrication de bijoux, appartenant jadis à l'artisanat et en bouscule les traditions par l'introduction de méthodes plus rapides et plus faciles. Cette recherche vise à répondre aux deux questions suivantes : - ‘En quoi le prototypage rapide influence-t-il la pratique de fabrication de bijoux?’ - ‘En quoi influence-t-il de potentiels acheteurs dans leur appréciation du bijou?’ L' approche consiste en une collecte de données faite au cours de trois entretiens avec différents bijoutiers et une rencontre de deux groupes de discussion composés de consommateurs potentiels. Les résultats ont révélé l’utilité du prototypage rapide pour surmonter un certain nombre d'obstacles inhérents au fait-main, tel que dans sa géométrie, sa commercialisation, et sa finesse de détails. Cependant, il se crée une distance entre la main du bijoutier et l'objet, changeant ainsi la nature de la pratique. Cette technologie est perçue comme un moyen moins authentique car la machine rappelle la production de masse et la possibilité de reproduction en série détruit la notion d’unicité du bijou, en réduisant ainsi sa charge émotionnelle. Cette recherche propose une meilleure compréhension de l'utilisation du prototypage rapide et de ses conséquences dans la fabrication de bijoux. Peut-être ouvrira-t-elle la voie à une recherche visant un meilleur mariage entre cette technique et les méthodes traditionnelles.
Resumo:
Introduction : L’approche par compétences est maintenant bien ancrée dans l’enseignement au niveau de la formation médicale postdoctorale. Dans ce contexte, un système de sélection également axé sur les compétences pourrait être avantageux. L’objectif principal de ce projet était de concevoir un TJS ciblant le rôle CanMEDS de collaborateur pour la sélection au niveau postdoctoral en médecine interne (MI) et en médecine familiale (MF). Méthodologie : Des entrevues d’incidents critiques ont été réalisées auprès de résidents juniors en MI ou en MF afin de générer les items du TJS. Trois leaders de l’approche par compétences ont révisé le contenu du test. Les items ont été analysés pour identifier la compétence principale du rôle CanMEDS de collaborateur, le contexte ainsi que les membres de l’équipe interprofessionnelle représentés dans les vignettes. La clé de correction a été déterminée par un panel composé de 11 experts. Cinq méthodes de notation ont été comparées. Résultats : Sept entrevues ont été réalisées. Après révision, 33 items ont été conservés dans le TJS. Les compétences clés du rôle CanMEDS de collaborateur, les contextes et les divers membres de l’équipe interprofessionnelle étaient bien distribués au travers des items. La moyenne des scores des experts variait entre 43,4 et 75,6 % en fonction des différentes méthodes de notation. Le coefficient de corrélation de Pearson entre les cinq méthodes de notation variait entre 0,80 et 0,98. Conclusion : Ce projet démontre la possibilité de concevoir un TJS utilisant le cadre CanMEDS comme trame de fond pour l’élaboration de son contenu. Ce test, couplé à une approche globale de sélection basée sur les compétences, pourrait éventuellement améliorer le pouvoir prédictif du processus de sélection au niveau de la formation médicale postdoctorale.
Resumo:
L'écotourisme est souvent perçu comme une panacée capable de concilier le développement économique, la protection de l'environnement et le bien-être des communautés autour des aires protégées des pays en développement. La réalité sur le terrain est cependant tout autre, car son caractère complexe, politique et transcalaire est trop souvent négligé lors de la mise en œuvre des interventions. Le but de ce projet de recherche est de jeter un nouvel éclairage sur le développement de l'écotourisme dans les aires protégées des pays du Sud à travers une analyse critique des pratiques et des discours qui lui sont associés. Adoptant un cadre conceptuel dérivé de l'écologie politique, nous avons cherché à comprendre comment l'écotourisme affecte l'accès aux ressources naturelles pour différents acteurs sociaux. L'approche méthodologique s'appuie sur une étude de cas essentiellement qualitative qui s'attarde à un projet spécifique amorcé à Chi Phat, dans une forêt protégée des Cardamomes, au sud-ouest du Cambodge. Elle fait appel à l'analyse documentaire et discursive, à l'observation participante ainsi qu'à plus de 80 entretiens semi-directifs auprès d'acteurs clés. Nos résultats montrent d'abord qu'en matière d'écotourisme au Cambodge, il y a absence de lignes directrices claires et on observe très peu de collaboration, et ce, à tous les niveaux. Cela n'est pas étranger au fait que le gouvernement actuel accorde en général la priorité au développement devant la conservation. Ensuite, le projet d'écotourisme permet à Wildlife Alliance de justifier le maintien de la forêt protégée. Cette ONG se démarque par ailleurs des autres organisations au pays par son approche plus musclée. Le pouvoir dont elle jouit et les résultats qu'elle obtient sur le terrain tiennent en sa capacité à mobiliser, en temps opportun, l'ensemble des moyens disponibles pour contrôler l'accès. Globalement, nous pouvons affirmer que les principaux acteurs qui voient leur accès aux ressources naturelles touché négativement sont les paysans. Finalement, nous proposons deux ajouts au cadre conceptuel, soit la considération de l'aspect géographique de l'exclusion et l'introduction de modalités d'exclusion, qui permettent à notre avis une analyse plus juste de la situation.
Resumo:
Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.
Resumo:
Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.
Resumo:
Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.
Resumo:
La biologie évolutionnaire est au cœur des débats contemporains concernant les comportements humains. Les concepts de libre arbitre et de la moralité doivent, par conséquent, être repositionnés par rapport à ce type d’explication. Le consensus actuel concernant le libre arbitre est qu’il se réduit à l’expérience du libre arbitre et que la vraie question est alors d’expliquer comment cette expérience s’inscrit dans le processus darwinien. D’autres, darwiniens, par contre, semblent vouloir offrir une réalité au libre arbitre tout en maintenant un certain déterminisme darwinien. Dans ce mémoire, les arguments d’Alex Rosenberg proposant la position originale d’anti-libre arbitre et d’antidéterminisme seront étudiés. L’étude détaillée du passage du nihilisme biologique vers un nihilisme moral démontré par une position physicaliste et naturaliste, adoptée par Rosenberg, permettra d’illustrer la position anti-libre arbitre et antidéterministe. Pour ce faire, les théories de la deuxième loi de la thermodynamique et de l’évolution par la sélection naturelle seront présentées et analysées afin de démontrer en quoi elles répondent à la position physicaliste et naturaliste d’une part, et d’autre part, comment elles justifient le passage du nihilisme biologique au nihilisme moral selon Rosenberg. Finalement, les arguments et la position d’Alex Rosenberg seront mis en relation avec le domaine de la métaéthique afin d’y déceler une contradiction : le nihilisme moral n’est peut-être pas aussi gentil que Rosenberg l’affirme.
Resumo:
Depuis plusieurs années, l’enseignement des sciences joue un rôle de 2e plan, après le français et les mathématiques, chez plusieurs enseignants du primaire (Lenoir, 2000). Peinant à établir des liens entre les savoirs à enseigner et la réalité quotidienne, ces enseignants ayant souvent une formation lacunaire semblent rechercher de nouveaux outils didactiques efficaces. À cet effet, l’intégration de pratiques sociales de référence (Martinand, 1986) aux situations d’apprentissage peut constituer une pratique innovante favorisant la transposition didactique des savoirs disciplinaires. Misant sur l’intérêt grandissant des Québécois pour la cuisine, cette recherche tente de déterminer l’impact d’une formation continue établissant des liens entre les sciences et les pratiques culinaires sur l’enseignement des sciences au primaire. Pour cette étude de cas descriptive, six enseignants du primaire ont participé à deux rencontres de formation durant lesquelles elles ont expérimenté une situation d’apprentissage et d’évaluation (SAÉ) intégrant des activités culinaires. À la suite d’une période de mise à l’essai de cette SAÉ en classe, les sujets ont été interviewés afin d’établir les apprentissages réalisés durant la formation et de dresser une liste des avantages et des obstacles associés à l’utilisation d’activités culinaires pour enseigner les sciences. De plus, les suggestions émises visant l’amélioration de la SAÉ (rapport bilan écrit) ont permis de mettre en relief la prédominance de préoccupations de nature pédagogique, organisationnelle et socioaffective chez les sujets de l’échantillon. Cette recherche entraîne des retombées pour les didacticiens puisqu’elle fournit des données supplémentaires pouvant contribuer à améliorer la qualité du matériel didactique mis à la disposition des praticiens. De plus, la SAÉ développée pour cette étude constitue un outil didactique novateur pouvant être utilisé par les enseignants du primaire.