988 resultados para Voie lente


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis la révolution industrielle, l’évolution de la technologie bouleverse le monde de la fabrication. Aujourd'hui, de nouvelles technologies telles que le prototypage rapide font une percée dans des domaines comme celui de la fabrication de bijoux, appartenant jadis à l'artisanat et en bouscule les traditions par l'introduction de méthodes plus rapides et plus faciles. Cette recherche vise à répondre aux deux questions suivantes : - ‘En quoi le prototypage rapide influence-t-il la pratique de fabrication de bijoux?’ - ‘En quoi influence-t-il de potentiels acheteurs dans leur appréciation du bijou?’ L' approche consiste en une collecte de données faite au cours de trois entretiens avec différents bijoutiers et une rencontre de deux groupes de discussion composés de consommateurs potentiels. Les résultats ont révélé l’utilité du prototypage rapide pour surmonter un certain nombre d'obstacles inhérents au fait-main, tel que dans sa géométrie, sa commercialisation, et sa finesse de détails. Cependant, il se crée une distance entre la main du bijoutier et l'objet, changeant ainsi la nature de la pratique. Cette technologie est perçue comme un moyen moins authentique car la machine rappelle la production de masse et la possibilité de reproduction en série détruit la notion d’unicité du bijou, en réduisant ainsi sa charge émotionnelle. Cette recherche propose une meilleure compréhension de l'utilisation du prototypage rapide et de ses conséquences dans la fabrication de bijoux. Peut-être ouvrira-t-elle la voie à une recherche visant un meilleur mariage entre cette technique et les méthodes traditionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L’utilisation clinique de biomarqueurs pour prédire la progression de la sténose valvulaire aortique (SVA) n’est pas encore validée à ce jour. Nous voulons évaluer des prédicteurs de la progression de la SVA d’étiologie dégénérative sur la valve aortique tricuspide. Méthodes: Nous avons identifié 126 cas avec SVA et ≥ 2 échocardiogrammes post-recrutement et 126 témoins appariés recrutés par la Biobanque de l’Institut de Cardiologie de Montréal. Nous avons collecté des données cliniques, échocardiographiques et génétiques de base et nous avons mesuré des biomarqueurs plasmatiques. L’évolution de la SVA a été établie par l’analyse des échocardiogrammes sériés et définie comme la variation moyenne par an des paramètres suivants: vitesse transvalvulaire aortique maximale, gradient transvalvulaire aortique moyen (GTAM), aire valvulaire aortique et aire valvulaire aortique indexée. Nous avons évalué l’association des données cliniques/échocardiographiques/génétiques (polymorphisme LPA rs10455872) avec la progression de la SVA et des biomarqueurs plasmatiques avec la présence et la progression de la SVA. Résultats: La durée moyenne de suivi a été de 2,4 ans. Selon des analyses multivariées concernant les données cliniques/échocardiographiques/LPA rs10455872, une fréquence cardiaque plus élevée (pour les patients plus agés et les hommes), le diabète (pour les hommes), et un plus grand GTAM au premier échocardiogramme sont associés à une évolution plus rapide de la SVA. La présence de régurgitation aortique au premier échocardiogramme est associée à une évolution plus lente de la SVA. L’analyse des biomarqueurs plasmatiques versus la présence et la progression de la SVA est en cours. Conclusion: Nos résultats indiquent que une fréquence cardiaque plus élevée, le diabète, et un plus grand GTAM au premier échocardiogramme sont associés avec une progression plus rapide de la SVA. Les résultats de cette étude pourraient contribuer à une approche plus personnalisée du suivi et du traitement de la SVA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Faute de tests diagnostiques précis, une étude histologique est souvent nécessaire pour diagnostiquer les tuméfactions latérales solides cervicales (TLSC) chez l’enfant. Nous étudierons les modalités diagnostiques pour les TLSC afin de créer une approche diagnostique standardisée intégrant de nouveaux outils diagnostics à ceux actuellement offerts. Méthodologie : Après révision des étiologies et des modalités diagnostiques, une revue de la littérature a été effectuée. Une étude rétrospective entre 2002 à 2012 est présentée suivie d’une étude de faisabilité de la cytoponction. Puis, un arbre décisionnel est créé basé sur nos résultats et sur l’avis d’un groupe d’experts de différentes disciplines médicales. Résultats : Le diagnostic différentiel des TLSC est varié, la littérature scientifique est désuète et la comparaison reste difficile. Pour nos 42 enfants avec un âge médian de sept ans, les tuméfactions inflammatoires représentent 59% (26/44 biopsies) des TLSC, surtout des lymphadénites à mycobactérie atypique (13/26) qui ont un dépistage ardu et multimodal. La biopsie fut peu contributive à la prise en charge dans 39% (17/44) des cas. La cytoponction sous échoguidance est une technique diagnostique faisable et moins invasive que la biopsie. L’arbre décisionnel offre aux cliniciens une approche diagnostique standardisée des TLSC appuyée sur des faits scientifiques que nous souhaitons valider par une étude prospective. Conclusion : Les TLSC chez l’enfant représentent un défi diagnostic et notre arbre décisionnel répond au manque de standardisation dans l’approche diagnostique. Une étude prospective sur notre arbre décisionnel est en voie d’acceptation au CHU Sainte-Justine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est à ce jour bien établi que la régulation de l’expression génique dépend en grande partie des évènements post-transcriptionnels et que la traduction des ARNm tient un rôle de premier plan dans ces processus. Elle est particulièrement importante pour définir le protéome, maintenir l’homéostasie et contrôler la croissance et la prolifération cellulaire. De nombreuses pathologies humaines telles que le cancer découlent de dérèglements de la synthèse protéique. Ceci souligne l’importance d’une meilleure compréhension des mécanismes moléculaires contribuant au contrôle de la traduction des ARNm. Le facteur d’initiation eIF4E est essentiel à la traduction et son activité est régulée par ses partenaires protéiques dont font partie les protéines 4E-BP et 4E-T. Les voies de signalisation PI3K/mTOR et MAPK qui sont fortement impliquées dans l’étiologie du cancer, contrôlent la traduction en modulant l’activité d’eIF4E via l’inhibition des protéines 4E-BP et la localisation de 4E-T. Afin d’améliorer notre compréhension des mécanismes régulant la traduction des ARNm, nous avons utilisé plusieurs approches. Tout d’abord, nous avons caractérisé les mécanismes par lesquels le complexe mTORC1 est activé en réponse aux facteurs de croissance et avons déterminé que la kinase RSK, en aval de la voie Ras/ERK, contrôle directement l’activité de mTORC1 en phosphorylant Raptor, la sous-unité régulatrice du complexe mTORC1. Par ailleurs, nous nous sommes intéressés au rôle joué par mTORC1 dans l’initiation de la traduction. Pour cela, nous avons réalisé un criblage protéomique dans le but d’identifier de nouveaux facteurs sous le contrôle de mTORC1 qui participent activement à la traduction. Ces travaux ont ainsi permis l’identification de la protéine de liaison à l’ARN LARP1 comme effecteur majeur de la traduction des ARNm et de la croissance cellulaire en aval de mTORC1. Finalement, notre étude de l’effet du stress oxydant dans la répression de la traduction nous a permis de montrer que la kinase JNK contrôle la localisation du répresseur 4E-T au sein des P-bodies, qui sont des granules cytoplasmiques concentrant des ARNm non traduits et des facteurs de la dégradation des ARNm. Nos travaux ont donc abouti à la découverte de mécanismes moléculaires cruciaux impliqués dans la régulation de la traduction des ARNm et de la synthèse protéique. Ces derniers étant largement impliqués dans la prolifération cellulaire et la croissance tumorale, nos recherches ouvrent sur un champ d’investigation plus large pour le développement de nouvelles molécules anti-cancéreuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Il est important de minimiser le gaspillage et les risques associés aux soins sans valeur. La gestion de l’utilisation des antimicrobiens vise à optimiser leur emploi et doit être adaptée au milieu et à sa population. Objectifs: Évaluer les profiles d’utilisation actuels des antimicrobiens et fixer des objectifs pour les interventions en matière de gestion des antimicrobiens. Méthode: Vingt-et-un hôpitaux du Nouveau-Brunswick offrant des soins de courte durée en médecine générale, en chirurgie et en pédiatrie ont pris part à une enquête sur la prévalence ponctuelle. Tous les patients admis aux hôpitaux participants et ayant reçu au moins un antimicrobien systémique ont été inscrits à l’étude. Les principaux critères d’évaluation étaient le profil d’utilisation, selon l’indication et l’antimicrobien prescrit, le bienfondé de l’utilisation et la durée de la prophylaxie chirurgicale. Des statistiques descriptives et un test d’indépendance 2 furent utilisés pour l’analyse de données. Résultats: L’enquête a été menée de juin à août 2012. Un total de 2244 patients ont été admis pendant la durée de l’étude et 529 (23,6%) ont reçu un antimicrobien. Au total, 691 antimicrobiens ont été prescrits, soit 587 (85%) pour le traitement et 104 (15%) pour la prophylaxie. Les antimicrobiens les plus souvent prescrits pour le traitement (n=587) étaient des classes suivantes : quinolones (25,6%), pénicillines à spectre étendu (10,2%) et métronidazole (8,5%). Les indications les plus courantes du traitement étaient la pneumonie (30%), les infections gastro-intestinales (16%) et les infections de la peau et des tissus mous (14%). Selon des critères définis au préalable, 23% (n=134) des ordonnances pour le traitement étaient inappropriées et 20% (n=120) n’avaient aucune indication de documentée. Les domaines où les ordonnances étaient inappropriées étaient les suivants : défaut de passage de la voie intraveineuse à la voie orale (n=34, 6%), mauvaise dose (n=30, 5%), traitement d’une bactériurie asymptomatique (n=24, 4%) et doublement inutile (n=22, 4%). Dans 33% (n=27) des cas, les ordonnances pour la prophylaxie chirurgicale étaient pour une période de plus de 24 heures. Conclusions: Les résultats démontrent que les efforts de gestion des antimicrobiens doivent se concentrer sur les interventions conventionnelles de gestion de l’utilisation des antimicrobiens, l’amélioration de la documentation, l’optimisation de l’utilisation des quinolones et la réduction au minimum de la durée de la prophylaxie chirurgicale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rapamycine est un immunosuppresseur utilisé pour traiter plusieurs types de maladies dont le cancer du rein. Son fonctionnement par l’inhibition de la voie de Tor mène à des changements dans des processus physiologiques, incluant le cycle cellulaire. Chez Saccharomyces cerevisiae, la rapamycine conduit à une altération rapide et globale de l’expression génique, déclenchant un remodelage de la chromatine. Nous proposons que les modifications des histones peuvent jouer un rôle crucial dans le remodelage de la chromatine en réponse à la rapamycine. Notre objectif principal est d’identifier d’une banque de mutants d’histone les variantes qui vont échouer à répondre à la rapamycine dans une tentative de réaliser une caractérisation des modifications d’histone critiques pour la réponse à cette drogue. Ainsi, nous avons réalisé un criblage d’une banque de mutants d’histone et identifié plusieurs mutants d‘histone dont la résistance à la rapamycine a été altérée. Nous avons caractérisé une de ces variantes d’histone, à savoir H2B, qui porte une substitution de l’alanine en arginine en position 95 (H2B-R95A) et démontré que ce mutant est extrêmement résistant à la rapamycine, et non à d’autres drogues. Des immunoprécipitations ont démontré que H2B-R95A est défectueux pour former un complexe avec Spt16, un facteur essentiel pour la dissociation de H2A et H2B de la chromatine, permetant la réplication et la transcription par les ADN et ARN polymérases, respectivement. Des expériences de ChIP-Chip et de micropuce ont démontré que l’arginine 95 de H2B est requise pour recruter Spt16 afin de permettre l’expression d’une multitude de gènes, dont certains font partie de la voie des phéromones. Des évidences seront présentées pour la première fois démontrant que la rapamycine peut activer la voie des phéromones et qu’une défectuosité dans cette voie cause la résistante à cette drogue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: La caractérisation des facteurs immunitaires associés à la protection contre l’infection au VIH est cruciale pour le développement de stratégies de prévention. Cette étude évalue les IgGs dirigées contre l’enveloppe du VIH-1 dans le sérum et les liquides cervicovaginaux (LCV) de travailleuses du sexe béninoises. Méthode : Notre étude porte sur 23 travailleuses du sexe séropositives (TS+) et 20 travailleuses du sexe séronégatives (TS-). Le potentiel de neutralisation a été évalué par un essai de neutralisation. La détection d’IgGs a été effectuée par un ELISA sur base cellulaire. La capacité d’induire une réponse ADCC a été est évaluée par l’élimination de cellules cibles recouvertes de gp120 par le mécanisme d’ADCC. Résultats : Malgré que nous n’ayons pas détecté d’IgG dirigées contre l’enveloppe du VIH-1, ni d’activité de neutralisation ou d’élimination de cellules cibles par ADCC chez les TS-, nous avons facilement détecté ces activités de neutralisation et d’élimination de cellules cibles par ADCC chez les TS+ dans le sérum et les LCV qui reconnaissent mieux la forme de l’enveloppe liée à CD4. Ces IgGs pourraient être impliquées dans l’élimination par ADCC des cellules cibles présentant les glycoprotéines de l’enveloppe à leur surface, et ce à la muqueuse vaginale, le premier site de transmission virale. Conclusion : Ces résultats permettent pour la première fois de montrer la conformation de l’enveloppe préférentiellement reconnue par les IgGs présentes au site de transmission par voie sexuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une récente théorie de la mémoire a proposé que lorsqu'un souvenir déjà bien consolidé est réactivé, il redevient labile et susceptible aux modifications avant d'être restabilisé (reconsolidé) en mémoire à long terme. Ce nouveau modèle réfute le modèle classique de la consolidation qui propose qu'une fois consolidés, les souvenirs soient permanents et donc résistants aux effets des agents amnésiques. Les études validant la théorie de la reconsolidation abondent chez les animaux, mais encore peu d'études ont été réalisées chez les humains. L'objectif de cette thèse est de vérifier, dans une population de sujets sains et de sujets souffrant de trouble de stress post-traumatique (TSPT), l'efficacité d'un agent pharmacologique, le propranolol (un β-bloquant noradrénergique) à atténuer des souvenirs émotionnels nouvellement acquis ou déjà bien consolidés. Plus spécifiquement, nous avons mené un essai clinique contrôlé à double insu chez des sujets sains en leur administrant du propranolol (vs du placebo) lors de l'acquisition d'un nouveau souvenir et une semaine plus tard, lors de sa réactivation. L'objectif du premier article était d'évaluer l'efficacité du propranolol à diminuer la consolidation et la reconsolidation d'un souvenir émotionnel. Par ailleurs, puisque les études chez les animaux ont démontré que ces deux processus mnésiques s'effectuent à l'intérieur d'une fenêtre temporelle précise, le moment de l'administration du propranolol fut pris en considération. Les résultats ont démontré que le propranolol est en mesure de diminuer la consolidation et la reconsolidation d'une histoire émotionnelle tel que démontré par un pourcentage de bonnes réponses plus faible que le groupe contrôle lors des rappels. Toutefois, pour que cet effet soit observé, le propranolol doit être administré une heure avant la présentation des stimuli, pour la consolidation et une heure avant leur réactivation, pour la reconsolidation. En outre, les études portant sur la consolidation et la reconsolidation chez les animaux et chez les humains obtiennent parfois des résultats contradictoires. Ceci pourrait s'expliquer par le type de stimuli utilisé. Ainsi, l'objectif du second article était de préciser quel type d'information est le plus susceptible d'être affecté par le propranolol lors de son acquisition (consolidation) et lors de sa réactivation (reconsolidation). Pour ce faire, les éléments de l'histoire émotionnelle ont été divisés en fonction de leur valence (émotionnel ou neutre) et de leur centralité (central ou périphérique). Les résultats ont démontré le propranolol affecte l'ensemble des informations centrales lors du blocage de la consolidation, mais qu'il affecte plus spécifiquement les éléments émotionnels centraux lors de la reconsolidation. Notre groupe ayant précédemment démontré que le traitement avec le propranolol est en mesure de réduire les symptômes de TSPT chez une population clinique, nous nous sommes interrogés sur son efficacité à diminuer la mémoire implicite d'un événement traumatique. Le propranolol a été administré aux participants à 6 reprises (une fois par semaine sur une période de 6 semaines) lors de la réactivation de leur trauma. Les résultats ont révélé que le traitement avec le propranolol est en mesure de diminuer la réponse psychophysiologique des participants à l'écoute du compte rendu de leur trauma une semaine et 4 mois suivant la fin du traitement. En somme, cette thèse démontre que le propranolol est en mesure de bloquer la consolidation et la reconsolidation de souvenirs émotionnels chez l'humain lorsqu'il est administré une heure avant l'acquisition ou la réactivation des souvenirs. Il arrive en outre à atténuer un souvenir déclaratif émotionnel chez des sujets sains, mais également un souvenir implicite chez des sujets souffrant de TSPT. Ainsi, ces résultats ouvrent la voie à la création de nouveaux traitements pour les psychopathologies ayant comme étiologie un souvenir émotionnel intense.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le vieillissement vasculaire est caractérisé par une dysfonction de l’endothélium. De nombreux facteurs de risque cardiovasculaire tels que l’obésité et l’hypertension prédisposent l’endothélium à un stress oxydant élevé aboutissant à une dysfonction endothéliale, celle-ci étant communément accompagnée d’une diminution de la biodisponibilité du monoxyde d’azote. Bien que la fonction endothéliale soit un déterminant majeur de la prédiction du risque cardiovasculaire des patients, son évaluation individuelle reste très limitée. En conséquence, il existe un intérêt scientifique grandissant pour la recherche de meilleurs biomarqueurs. L’Angiopoiétine like-2 (angptl2), une protéine identifiée récemment, joue un rôle pro-inflammatoire et pro-oxydant dans plusieurs désordres causés par une inflammation chronique allant de l’obésité à l’athérosclérose. L’inflammation et un stress oxydant accru ont été établis comme des mécanismes sous-jacents à l’apparition d’une dysfonction endothéliale, c’est pourquoi ce travail met l’accent sur le rôle de l’angptl2 dans la dysfonction endothéliale. Plus précisément, ce travail vise à: 1) déterminer les effets aigus de l’angptl2 sur la fonction endothéliale, 2) caractériser la fonction endothéliale et la contribution des différents facteurs relaxants dérivés de l'endothélium (EDRF) dans plusieurs lits vasculaires, et ce, dans un modèle de souris réprimant l’expression de l’angptl2 (knock-down, KD), et 3) examiner si l'absence d'expression angptl2 protège contre la dysfonction endothéliale induite par un régime riche en graisses (HFD) ou par perfusion d'angiotensine II (angII) chez la souris. Dans la première étude, l’incubation aigue avec de l’angptl2 recombinante induit une dysfonction endothéliale dans les artères fémorales isolées de souris de type sauvage (WT), probablement en raison d’une production accrue d'espèces réactives oxygénées. Les artères fémorales de souris angptl2 KD présentent une meilleure fonction endothéliale en comparaison aux souris WT, vraisemblablement par une plus grande contribution de la prostacycline dans la vasodilatation. Après 3 mois d’une diète HFD, les principaux EDRF respectifs des artères fémorales et mésentériques sont conservés uniquement dans les souris angptl2 KD. Cette préservation est associée à un meilleur profil métabolique, une moindre accumulation de triglycérides dans le foie et des adipocytes de plus petite taille. De plus, l’expression de gènes inflammatoires dans ces tissus adipeux n’est augmentée que chez les souris WT. Dans la seconde étude, l’absence d’angptl2 résulte en une production accrue de monoxyde d’azote dans les artères cérébrales isolées par rapport à celles des souris WT. La perfusion chronique d’angII provoque, seulement chez les souris WT, une dysfonction endothéliale cérébrale probablement par le biais d’une augmentation de la production d’espèces réactives oxygénées, probablement dérivé des NADPH oxydase 1 et 2, ainsi que l'augmentation des facteurs constricteurs dérivés de l’endothélium issus de la cyclo-oxygénase. En revanche, l’apocynine réduit la dilatation cérébrale chez les souris KD traitées à l’angII, ce qui suggère le recrutement potentiel d’une voie de signalisation compensatoire impliquant les NADPH oxydases et qui aurait un effet vaso-dilatateur. Ces études suggèrent fortement que l’angptl2 peut avoir un impact direct sur la fonction endothéliale par ses propriétés pro-inflammatoire et pro-oxydante. Dans une optique d’application à la pratique clinique, les niveaux sanguins d’angptl2 pourraient être un bon indicateur de la fonction endothéliale.