999 resultados para philosophie de la technique
Resumo:
Une variété d’opérations cognitives dépend de la capacité de retenir de l’information auditive pour une courte période de temps. Notamment l’information auditive prend son sens avec le temps; la rétention d’un son disparu permet donc de mieux comprendre sa signification dans le contexte auditif et mène ultimement à une interaction réussite avec l’environnement. L’objectif de cette thèse était d’étudier l’activité cérébrale reliée à la rétention des sons et, ce faisant, parvenir à une meilleure compréhension des mécanismes de bas niveau de la mémoire à court-terme auditive. Trois études empiriques se sont penchées sur différents aspects de la rétention des sons. Le premier article avait pour but d’étudier les corrélats électrophysiologiques de la rétention des sons variant en timbre en utilisant la technique des potentiels reliés aux événements. Une composante fronto-centrale variant avec la charge mnésique a été ainsi révélée. Dans le deuxième article, le patron électro-oscillatoire de la rétention a été exploré. Cette étude a dévoilé une augmentation de l’amplitude variant avec la charge mnésique dans la bande alpha pendant la rétention des sons ainsi qu’une dissociation entre l’activité oscillatoire observée pendant la rétention et celle observée pendant la présentation des sons test. En démontrant des différentes modulations des amplitudes dans la bande alpha et la bande beta, cette étude a pu révéler des processus distincts mais interdépendants de la mémoire à court-terme auditive. Le troisième article a davantage visé à mieux connaître les structures cérébrales soutenant la rétention de sons. L’activité cérébrale a été mesurée avec la magnétoencéphalographie, et des localisations des sources ont été effectuées à partir de ces données. Les résultats ont dévoilé l’implication d’un réseau cérébral contenant des structures temporales, frontales, et pariétales qui était plus important dans l’hémisphère droit que dans l’hémisphère gauche. Les résultats des études empiriques ont permis de souligner l’aspect sensoriel de la mémoire à court-terme auditive et de montrer des similarités dans la rétention de différentes caractéristiques tonales. Dans leur ensemble, les études ont contribué à l’identification des processus neuronaux reliés à la rétention des sons en étudiant l’activité électromagnétique et l’implication des structures cérébrales correspondantes sur une échelle temporelle fine.
Resumo:
Michel Foucault fait remarquer qu’il y a dans la conception des Lumières européennes une tension entre la « croissance de l’autonomie » et la « croissance des capacités » par la science et la technique (Foucault, 1994, p. 83). Or, dans « Qu’est-ce que les Lumières? », Kant privilégie clairement le premier volet, l’autonomie, tel qu’en témoigne sa définition : « sortie de l’homme de l’état de minorité, où il se maintient par sa propre faute ». Force lui est toutefois d’admettre que l’autonomie qui s’exprime dans le « penser par soi-même » nécessite un accès à l’espace public, car la liberté de pensée implique la possibilité de publier ses opinions et de penser avec autrui. Le texte de Kant évoque donc les conditions politiques permettant un libre accès au « public des lecteurs ». Il importe ainsi que le despote éclairé, en l’occurrence Frédéric le Grand, gouverne à tout le moins dans un esprit républicain en maintenant un espace public exempt de censure. Il importe en outre qu’il s’abstienne d’intervenir en matière religieuse. Ce n’est pas un hasard si le thème de la liberté de conscience religieuse occupe une large place dans le texte de Kant, car la tentation est grande pour l’autorité politique de bafouer cette liberté et d’instrumentaliser la religion à des fins politiques.
Resumo:
La scoliose est la déformation de la colonne vertébrale la plus répandue. Elle atteint 3 à 4% de la population pédiatrique et dans 85% des cas, aucune cause n’a été identifiée. Ces cas sont appelés idiopathiques et les symptômes apparaissent durant la puberté; d’où le terme de ‘scoliose idiopathique de l’adolescent (SIA). Cette pathologie atteint le plus souvent les jeunes filles, en nombre et en sévérité. Ces dernières années, plusieurs hypothèses ont été proposées afin d’élucider l’étiologie de cette pathologie. Celles-ci ont mis de l’avant différents facteurs génétiques, biochimiques, mécaniques, neurologiques, musculaires ou hormonaux. Plusieurs études ont rapporté des formes familiales de scoliose, soutenant la thèse d’une prédisposition génétique. Nous avons démontré que les patients souffrant de SIA présentent un défaut de signalisation cellulaire médiée par les protéines Gi et un taux élevé d’ostéopontine (OPN) circulante. En utilisant une approche de type ‘gène candidat’, nous avons montré que la protéine tyrosine phosphatase μ (PTPμ) régule l’activité du complexe d’intégrines α5/β1 (récepteur de l’OPN) via la protéine kinase PIPKIγ. Dans ce but, nous avons utilisé des cultures primaires d’ostéoblastes issues de biopsies de patients et de cas traumatiques comme sujets contrôles. Les biopsies osseuses de patients ont été obtenues lors de l’intervention chirurgicale à partir des vertèbres T3 à L4, selon les différentes procédures. Les biopsies issues de cas traumatiques proviennent d’autres types d’os (tibia, crête iliaque, fémur). Les profils d’expression du gène PTPRM (codant pour la protéine PTPμ) ont été étudiés par PCR quantitative (qPCR). Les taux de protéines PTPμ ont été analysés par immunoprécipitation suivi d’un western blot. Pour évaluer le rôle de cette protéine, nous avons bénéficié d’un modèle murin. Machida et al. ont démontré qu’il existe un taux plus élevé de scoliose parmi les souris C57Bl/6 bipèdes obtenues suite à l’amputation des membres supérieurs, sous anesthésie, cinq semaines après la naissance. Nous avons utilisé des cultures primaires d’ostéoblastes issues de la colonne ii vertébrale de souris C57Bl/6 bipèdes, délétées du gène PTPRM (souris dites ‘KO’), afin d’évaluer le niveau de signalisation cellulaire spécifique des protéines Gi par un test fonctionnel: la technique de spectroscopie cellulaire di-électrique (SCD). Selon nos données, 85% des souris bipédales ‘KO’ pour le géne PTPRM développent une scoliose (modérée à sévère) contre 55% des souris contrôles C57Bl6 bipèdes. De plus, les niveaux de PTPμ exprimée par les ostéoblastes de 34 patients SIA se trouvent diminués par comparaison à 17 sujets contrôles. Nos études de souris bipèdes ont montré que l’inactivation du gène PTPRM augmente l’incidence et la sévérité de la scoliose, sans pour autant affecter les taux circulant d’OPN ou l’expression de ses récepteurs. Par ailleurs, dans ce même contexte, nous avons remarqué une augmentation de l’interaction entre l’OPN et l’intégrine β1 en l’absence du gène PTPRM. Les cellules issues de ces souris bipèdes KO montrent une réduction dans leurs niveaux de signalisation cellulaire médiée par les protéines Gi après stimulation par l’OPN. Cette diminution est en grande partie récupérée après traitement des cellules par un siRNA spécifique de la protéine PIPK1γ, substrat de PTPμ qui favorise la fixation de ligands aux intégrines. Ces études apportent les premières indications que la perte d’expression de PTPμ est impliquée dans le développement de la SIA, en amplifiant probablement l’effet inhibiteur de l’OPN sur la signalisation cellulaire médiée par les protéines Gi. Ces études permettent une meilleure compréhension de l’étiologie de la SIA. Elles pourraient avoir une contribution importante dans le développement futur de méthodes diagnostique et thérapeuthique dans le but d'arrete l’apparition et l’évolution de la maladie chez les enfants atteints.
Resumo:
La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau.
Resumo:
Le système rénine-angiotensine est impliqué dans le remodelage structurel et électrique caractérisant la fibrillation auriculaire (FA). L’angiotensine II (ANG II) induit le développement de fibrose et d’hypertrophie au niveau des oreillettes, prédisposant à la FA. Or, les mécanismes électrophysiologiques par lesquels l’ANG II pourrait promouvoir la FA sont peu connus. L’objectif de ce projet de recherche est d’évaluer l’effet de l’ANG II sur les courants potassiques et calciques au niveau auriculaire indépendamment du remodelage structurel. Pour ce faire, nous avons utilisé la technique de patch-clamp avec un modèle de souris surexprimant le récepteur de type 1 à l’angiotensine II (AT1R) spécifiquement au niveau cardiaque. Pour distinguer les effets directs de la surexpression d’AT1R des effets induits par le remodelage cardiaque, nous avons étudié des souris âgées de 180 jours, qui présentent du remodelage structurel, et des souris âgées de 50 jours, qui n’en présentent pas. Des études précédentes sur ce modèle ont montré qu’au niveau des myocytes ventriculaires, l’ANG II réduit le courant potassique global (Ipeak) et rectifiant entrant (IK1) ainsi que le courant calcique de type L (ICaL). Ainsi, notre hypothèse est que l’ANG II modulera aussi ces courants au niveau auriculaire, pouvant ainsi augmenter l’hétérogénéité de repolarisation auriculaire et de ce fait le risque de développer et maintenir la FA. Nous avons observé une diminution significative de la densité d’IK1 dans l’oreillette gauche des souris transgéniques sans changement d’Ipeak. De plus, la densité d’ ICaL n’est pas réduite chez les souris transgéniques âgées de 50 jours. En conclusion, l’effet de l’ANG II sur les courants potassiques et calciques semble dépendre de la chambre cardiaque. En effet, nous savions que l’ANGII réduisait Ipeak, IK1 et ICaL au niveau ventriculaire, mais nos résultats ont montré qu’il ne les affectait pas directement au niveau des oreillettes. Ceci suggère des mécanismes de régulation impliquant des voies de signalisation distinctes selon les chambres cardiaques. Enfin, nos résultats montrant l’absence de l’influence directe de la surexpression d’AT1R sur les canaux K+ et Ca2+ au niveau des myocytes auriculaires renforcent l’importance d’approfondir nos connaissances sur les effets de l’angiotensine II sur le développement de la fibrose, sur le remodelage structurel et sur la conduction électrique cardiaque.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
L’exposition à la violence dans le secteur de la santé affecte les employés et a également des implications sur la qualité des soins offerts. Les agressions en milieu de travail peuvent engendrer divers émotions ou comportements chez le personnel soignant, tels que la peur et l’évitement des patients (Gates, Gillespie, & Succop, 2011). La présente étude phénoménologique tente de comprendre et de décrire l’expérience des intervenants d’un hôpital psychiatrique lorsque ceux-ci ont été victimes d’un acte de violence grave de la part d’un patient, ainsi que les impacts engendrés sur les services offerts. L’approche phénoménologique permet de porter un nouveau regard sur cette problématique en plongeant dans l’univers de chaque intervenant, comprendre l’interprétation donnée à l’acte de violence vécu. L’emploi de cette approche donne accès à davantage de contenu et permet de préciser de quelle façon leur quotidien est altéré par ce phénomène. Trente entrevues semi-structurées ont été réalisées, soit deux auprès de chacun des 15 participants (11 femmes) provenant de divers domaines professionnels œuvrant dans un hôpital psychiatrique. Les analyses sont basées sur la technique « Empirical Phenomenological Psychological » de Karlsson (1993). Une attention particulière a été portée quant à la possibilité d’expériences différentes selon le sexe des intervenants. L’analyse a fait ressortir quatre thèmes principaux qui sont présents indépendamment du sexe des intervenants, soit: l’hypervigilance, le caring, la peur spécifique du patient agresseur, puis la peur généralisée à tous les patients. Un état d’hypervigilance est retrouvé chez tous les intervenants qui ont été victimes d’agression de la part d’un patient. Comparativement aux intervenants qui ont assisté à l’escalade d’agressivité d’un patient, ceux ayant été agressés par surprise rapportent des répercussions de cette vigilance qui s’étendent jusqu’à leur vie personnelle. Une approche caring est présente chez la majorité des participants. Ceci implique une bienveillance et une authenticité envers le patient soigné. Mettant le patient au cœur de son intervention, l’intervenant « soignant » développe un lien de confiance et agit comme un agent de changement. Un sentiment de peur est également exprimé chez les participants. Celui-ci est modulé par la présence ou l’absence de caring. Les intervenants démontrant du caring ont développé une peur spécifique à leur agresseur, tandis que ceux ne manifestant peu ou pas de caring ont développé une peur généralisée de la clientèle. Suite à un évènement de violence, les intervenants étant caring le demeurent, alors que ceux n’étant peu ou pas caring seraient plutôt portés à se désinvestir et à se désengager des relations avec les patients. Engendrées par la violence subie en milieu hospitalier psychiatrique, l’hypervigilance et la peur, qu’elle soit spécifique ou généralisée, ont toutes deux des impacts sur la qualité des soins offerts. Un intérêt considérable devrait être porté au caring, qui vient moduler cette peur et les effets qui en découlent. Des recherches pourraient porter un éclairage sur l’origine du caring – est-ce que le caring est appris ou découle-t-il d’une vocation? Finalement, ces études pourraient établir des manières de renforcer ou de développer le caring.
Resumo:
La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.
Resumo:
Le présent mémoire porte sur la question de la mort de Dieu dans la philosophie allemande du XIXe siècle. Plus précisément elle entend mettre en lumière le rôle qu’un auteur comme Ludwig Feuerbach (1804-1872) a pu jouer dans la réception d’un tel événement pour la philosophie de cette époque. On observe en effet chez Hegel et Nietzsche, certainement les deux philosophes les plus importants à s’être intéressés au thème de la mort de Dieu, deux manières tout à fait différentes, voire antinomiques, d’interpréter un tel événement. Ce qui fera dire à certains auteurs comme Deleuze et Foucault notamment, qu’entre Hegel et Nietzsche il ne saurait y avoir qu’une coupure radicale tant leurs compréhensions de la mort de Dieu diffère. Un tel geste trahit cependant un certain arbitraire qui empêche de comprendre la genèse philosophique d’un tel déplacement, entre Hegel et Nietzsche, dans la manière d’aborder la mort de Dieu. C’est ici que l’étude de la philosophie feuerbachienne s’avère fructueuse, car si elle demeure dans un dialogue critique par rapport à la conception hégélienne de la mort de Dieu, sa réponse opère cependant un déplacement qui anticipe certains aspects de la pensée nietzschéenne. C’est à partir de l’analyse de sa critique de la religion chrétienne et de l’anthropologie philosophique nouvelle qui l’y oppose que l’on sera en mesure de saisir la nature de ce déplacement feuerbachien.
Resumo:
La rétroaction corrective (RC) se définit comme étant un indice permettant à l’apprenant de savoir que son utilisation de la L2 est incorrecte (Lightbown et Spada, 2006). Les chercheurs reconnaissent de plus en plus l’importance de la RC à l’écrit (Ferris, 2010). La recherche sur la RC écrite s’est grandement concentrée sur l’évaluation des différentes techniques de RC sans pour autant commencer par comprendre comment les enseignants corrigent les textes écrits de leurs élèves et à quel point ces derniers sont en mesure d’utiliser cette RC pour réviser leurs productions écrites. Cette étude vise à décrire quelles techniques de RC sont utilisées par les enseignants de francisation ainsi que comment les étudiants incorporent cette RC dans leur révision. De plus, elle veut aussi vérifier si les pratiques des enseignants et des étudiants varient selon le type d’erreur corrigée (lexicale, syntaxique et morphologique), la technique utilisée (RC directe, indirecte, combinée) et la compétence des étudiants à l’écrit (faible ou fort). Trois classes de francisation ont participé à cette étude : 3 enseignants et 24 étudiants (12 jugés forts et 12 faibles). Les étudiants ont rédigé un texte qui a été corrigé par les enseignants selon leur méthode habituelle. Puis les étudiants ont réécrit leur texte en incorporant la RC de leur enseignant. Des entrevues ont aussi été réalisées auprès des 3 enseignants et des 24 étudiants. Les résultats indiquent l’efficacité générale de la RC à l’écrit en langue seconde. En outre, cette efficacité varie en fonction de la technique utilisée, des types d’erreurs ainsi que du niveau de l’apprenant. Cette étude démontre que ces trois variables ont un rôle à jouer et que les enseignants devraient varier leur RC lorsqu’ils corrigent.
Resumo:
Objectif : Cette thèse a pour but de préciser les mécanismes neuropsychologiques de la douleur, de la régulation endogène de la douleur et de l'hypoalgésie induite psychologiquement (HIP) par la synthèse de près de trente ans de recherche imagerie cérébrale fonctionnelle. Méthodologie : Étant donné l'abondance des études sur le sujet et le manque d'intégration de leurs résultats, la technique de métaanalyse quantitative basée sur les coordonnées d'activation cérébrale fut privilégiée dans cette thèse, telle qu’implémentée dans l'algorithme ALE (Activation Likelyhood Estimate). Une force supplémentaire de cette thèse repose sur la rigueur du processus de sélection des articles. En effet, les études incluses dans les métaanalyses devaient satisfaire des critères stricts d'inclusion, ceci dans le but de favoriser la précision et la validité des conclusions subséquentes. Étude 1 : Le premier article visait à identifier les aires cérébrales impliquées dans la réduction de la douleur par des méthodes psychologiques d'interventions. Les articles retenus portent sur une variété de méthodes d'intervention, telles que le placebo, l'hypnose, la méditation, la perception de contrôle sur la stimulation douloureuse et l'induction d'émotions. Les résultats indiquent que l'HIP implique un vaste réseau d'activation qui comprend le cortex cingulaire antérieur, l'insula antérieure, les zones orbitofrontale et préfrontale latérale, ainsi que les régions pariétale, temporale et souscorticales. Ces activations reflèteraient l'implication des mécanismes neuropsychologiques cognitifs et émotionnels sous-tendent les interventions psychologiques ciblées par ces études, incluant la conscience de soi et la motivation. De plus, les divergences de patron d'activation entre les approches ont été explorées, notamment pour le placebo et la distraction. Étude 2 : Le deuxième article a identifié des patrons d'activations préférentiellement associés à la perception de la douleur, à l'HIP, ainsi que des activations communément associées à la douleur et l'HIP. Les résultats indiquent que 1) la perception de la douleur est associée à l'activation d'aires somatosensorielles et motrices, ce qui pourrait être le reflet de la préparation d'une action adaptative, 2) l'HIP est liée à l'engagement de régions préfrontales antéromédianes et orbitales, possiblement en lien avec des processus motivationnels et émotionnels, et 3) la douleur et l'HIP sont associés à l'activation d'aires préfrontales dorsolatérales, de l'insula antérieure et du cortex cingulaire moyen, ce qui pourrait refléter l'engagement spontané pendant la douleur de mécanismes endogènes de régulation descendante. Conclusion : Par ces études, cette thèse fait le point sur les mécanismes cérébraux impliqués différentiellement dans la perception de la douleur, dans sa régulation endogène et dans l'hypoalgésie induite psychologiquement.
Resumo:
L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.
Resumo:
La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.
Resumo:
La sténose valvulaire aortique (SVA) est la maladie des valves cardiaques la plus répandue dans les pays développés qui touche les personnes âgées. La SVA est un processus actif caractérisé par des dépôts de lipides, de l’inflammation, de la fibrose et une calcification active des feuillets qui progresse vers un épaississement et durcissement de la valve aortique et une diminution de l’aire de la valve aortique. Nous avons émis l’hypothèse que la pathogénèse de la SVA modifie progressivement l’endothélium de la valve aortique, ce qui engendre l’expression de biomarqueurs spécifiques aux tissus et à la maladie. On rapporte dans cet étude, l’utilisation de la technique de sélection in vivo par phage display d’une librairie de peptides aléatoires afin de trouver de nouveaux peptides candidats qui se lieraient à des biomarqueurs spécifiques à la valve aortique malade d’une souris. Des souris ATX (LDLr-/-;Tg(hApoB+/+)) âgées atteintes de la SVA ont été utilisées pour la sélection in vivo d’une librairie de peptides aléatoires de 7 acides aminés contraints ou linéaires. Après 4 tours de criblage, on a caractérisé 14 phages différents qui ont été séparés en 5 motifs consensus pour la librairie linéaire et 11 phages différents qui représentent 5 différents motifs consensus pour la libraire de peptides contraints. La spécificité de 4 phages candidats de la librairie linéaire et de 5 phages de la librairie contrainte a été étudiée par l’immunomarquage des peptides d’intérêt exprimés par les phages sur les coupes de tissus de la valve aortique malade par rapport aux tissus contrôles du foie, du rein, de la rate, du ventricule et du poumon. Parmi eux, 6 phages représentent des peptides candidats intéressants qui ont besoin d’être testés davantage pour évaluer leur spécificité in vivo à la valve. Bien qu’il reste encore de la validation à effectuer, les peptides candidats spécifiques trouvés peuvent représenter des agents moléculaires d’imagerie utiles ou des transporteurs dans la livraison de drogue qui ciblent la valve aortique malade.
Resumo:
Plusieurs tests médicaux, comme celui du dépistage du cancer du sein, se basent sur l’observation de section tissulaire sous un microscope. Ces tests se basent sur l’interprétation d’un spécialiste et les résultats peuvent varier d’un expert à un autre dû la subjectivité des observations. L’utilisation d’une technique analytique offrant une quantification et une identification de cibles moléculaires dans une section tissulaire permettrait aux experts de produire des diagnostics plus objectifs et diminuerait possiblement le nombre de faux diagnostics. Les travaux présentés dans ce mémoire portent sur le développement d’une technique SPRi-MALDI-IMS permettant l’imagerie en deux dimensions de protéines contenues dans une section tissulaire. La MALDI-IMS est la technique de choix pour l’imagerie de biomolécules dans les sections tissulaires. Par contre, elle ne parvient pas à elle seule à quantifier de façon absolue le matériel adsorbé à la surface. Donc, le couplage de la MALDI-IMS avec la SPRi permet la quantification absolue de protéines en deux dimensions et crée une technique répondant aux besoins des experts médicaux. Pour ce faire, nous avons étudié, l’effet de la chimie de surface sur la nature et la quantité de matériel adsorbé à la surface du capteur. De plus, la cinétique de transfert des protéines du tissu vers le capteur a dû être optimisée afin de produire des empreintes correspondant au tissu d’origine, afin d’atteindre la gamme dynamique des instruments SPRi et MALDI-IMS. La technique résultante de ces optimisations permet d’obtenir les premières images quantitatives et qualitatives de protéines en deux dimensions d’une seule section tissulaire.