98 resultados para exercices combinés
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
Lorsqu’un site ou un bien est protégé par un statut patrimonial, tant national que local, les règlements d’urbanisme sont un des principaux outils d’encadrement des modifications de l’environnement bâti. Comment ces règlements participent-ils à la conservation des valeurs patrimoniales ? Pour explorer cette question, nous avons choisi le cas de l’arrondissement historique et naturel du Mont-Royal (AHNMR, renommé en 2012 site patrimonial du Mont-Royal), un site majeur pour l’identité de Montréal. Nous avons recensé les valeurs patrimoniales attribuées au site et analysé le processus de gestion des projets dans les quatre arrondissements qui se répartissent la partie montréalaise du territoire de l’AHNMR; nous avons également analysé quelques demandes de permis. Le processus est complexe, d’autant plus que l’évaluation est en bonne partie discrétionnaire, incluant des analyses de fonctionnaires et de comités consultatifs de même que des exercices de consultation publique. La recherche a permis de mettre en lumière que les règlements d’urbanisme ont tendance à se concentrer sur les valeurs dont la matérialité est connue (valeurs architecturales et paysagères notamment) et à délaisser les valeurs immatérielles (valeurs d’usage, valeurs identitaires et emblématiques). La juxtaposition des valeurs peut atténuer ce déséquilibre en protégeant une valeur immatérielle par l’entremise d’une valeur matérielle. La documentation des valeurs patrimoniales et de leur incarnation dans l’aménagement d’un site revêt une importance majeure pour l’application des critères d’évaluation. De plus, l’évaluation discrétionnaire apporte de multiple points de vue sur un projet, des opinions d’acteurs, experts en patrimoine ou non, généralement absents de l’évaluation des projets, ce qui contribue à l’évolution de ces derniers. Les consultations publiques donnent lieu à la réévaluation des valeurs patrimoniales ainsi qu’à l’approfondissement des connaissances.
Resumo:
Les récepteurs nucléaires (RN) sont des facteurs de transcription ligand dépendants qui contrôlent une grande variété de processus biologiques de la physiologie humaine, ce qui a fait d'eux des cibles pharmacologiques privilégiées pour de nombreuses maladies. L'un de ces récepteurs, le récepteur de l’œstrogène alpha (ERα), peut activer la prolifération cellulaire dans certaines sections de l'épithélium mammaire tandis qu’un autre, le récepteur de l'acide rétinoïque alpha (RARα), peut provoquer un arrêt de la croissance et la différenciation cellulaire. La signalisation de ces deux récepteurs peut être altérée dans le cancer du sein, contribuant à la tumorigénèse mammaire. L’activité d’ERα peut être bloquée par les anti-oestrogènes (AE) pour inhiber la prolifération des cellules tumorales mammaires. Par contre, l’activation des voies de RARα avec des rétinoïdes dans un contexte clinique a rencontré peu de succès. Ceci pourrait résulter du manque de spécificité des ligands testés pour RARα et/ou de leur activité seulement dans certains sous-types de tumeurs mammaires. Puisque les récepteurs nucléaires forment des homo- et hétéro-dimères, nous avons cherché à développer de nouveaux essais pharmacologiques pour étudier l'activité de complexes dimériques spécifiques, leur dynamique d’association et la structure quaternaire des récepteurs des œstrogènes. Nous décrivons ici une nouvelle technique FRET, surnommée BRET avec renforcement de fluorescence par transferts combinés (BRETFect), qui permet de détecter la formation de complexes de récepteurs nucléaires ternaires. Le BRETFect peut suivre l'activation des hétérodimères ERα-ERβ et met en évidence un mécanisme allostérique d'activation que chaque récepteur exerce sur son partenaire de dimérisation. L'utilisation de BRETFect en combinaison avec le PCA nous a permis d'observer la formation de multimères d’ERα fonctionnels dans des cellules vivantes pour la première fois. La formation de multimères est favorisée par les AE induisant la dégradation du récepteur des oestrogènes, ce qui pourrait contribuer à leurs propriétés spécifiques. Ces essais de BRET apportent une nette amélioration par rapport aux tests de vecteurs rapporteur luciférase classique, en fournissant des informations spécifiques aux récepteurs en temps réel sans aucune interférence par d'autres processus tels que la transcription et de la traduction. L'utilisation de ces tests nous a permis de caractériser les propriétés de modulation de l’activité des récepteurs nucléaires d’une nouvelle classe de molécules hybrides qui peuvent à la fois lier ERa ou RAR et inhiber les HDACs, conduisant au développement de nouvelles molécules prometteuses bifonctionnelles telles que la molécule hybride RAR-agoniste/HDACi TTNN-HA.
Resumo:
Dans le cadre du cours PHT-6113 Travail dirigé
Resumo:
L’objectif principal de ce projet est d’évaluer le potentiel d’un système de marais filtrants combinés pour le traitement d’un lixiviat contaminé aux agents de préservations du bois - l’arséniate de cuivre chromaté (ACC) et le pentachlorophénol (PCP) - en portant une attention particulière au rôle des plantes. Pour ce faire, une expérience en pot faisant varier la concentration d’exposition de quatre espèces de macrophyte (Typha angustifolia, Phalaris arundinacea, Phragmites australis americanus et Phragmites australis australis) a été effectuée. Le suivi de quatre marais filtrants à écoulement horizontal sous-surfacique, plantés d’une des quatre espèces de macrophyte et d’un bassin planté de saules (Salix Miyabeana SX67) a également été réalisé. La résistance des plantes au milieu contaminé, la capacité de bioaccumulation des macrophytes et les efficacités de traitement des différents systèmes ont été analysés. Nos résultats montrent que la concentration d’exposition n’influence pas la capacité des plantes à croître en milieu contaminé. Par contre, il existe une relation dose-réponse entre la concentration d’exposition et la capacité de bioaccumulation des macrophytes. Les quatre marais pilotes ont tous des efficacités de traitements supérieures à 55% en 2013 et 82% en 2014 pour les contaminants à l’étude. Le bassin de saule a la capacité théorique d’évapotranspirer jusqu’à 1200 L par jour. De plus, ses efficacités de traitements sont supérieures à 59% pour tous les composés à l’étude. L’utilisation de marais filtrants pour le traitement d’un lixiviat contaminé aux agents de préservations du bois est donc une alternative intéressante aux méthodes de traitement conventionnel.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maitre és sciences (M.Sc) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Le syndrome de Joubert est une maladie récessive caractérisée par une malformation congénitale distincte du tronc cérébral et du cervelet, associée à une anomalie des mouvements oculaires (apraxie oculomotrice), une respiration irrégulière, un retard de développement, et une ataxie à la démarche. Au cours de la dernière décennie, plus de 20 gènes responsables ont été identifiés, tous ayant un rôle important dans la structure et la fonction des cils primaires. Ainsi, le syndrome de Joubert est considéré une ciliopathie. Bien que le Syndrome de Joubert ait été décrit pour la première fois dans une famille canadienne-française en 1969, le(s) gène(s) causal demeurait inconnu dans presque tous les cas de syndrome de Joubert recensés en 2010 dans la population canadienne-française, soit début de mon projet doctoral. Nous avons identifié un total de 43 individus canadiens-français (35 familles) atteints du syndrome de Joubert. Il y avait un regroupement de familles dans la région du Bas-Saint-Laurent de la province de Québec, suggérant la présence d'un effet fondateur. L’objectif de ce projet était de caractériser la génétique du syndrome de Joubert dans la population canadienne-française. Notre hypothèse était qu’il existait un effet fondateur impliquant au moins un nouveau gène JBTS. Ainsi, dans un premier temps, nous avons utilisé une approche de cartographie par homozygotie. Cependant, nous n’avons pas identifié de région d’homozygotie partagée parmi les individus atteints, suggérant la présence d’une hétérogénéité génétique ou allélique. Nous avons donc utilisé le séquençage exomique chez nos patients, ce qui représente une approche plus puissante pour l’étude de conditions génétiquement hétérogènes. Nos travaux ont permis l’identification de deux nouveaux gènes responsables du syndrome de Joubert: C5orf42 et TMEM231. Bien que la localisation cellulaire et la fonction de C5orf42 soient inconnus au moment de cette découverte, nos résultats génétiques combinés avec des études ultérieures ont établi un rôle important de C5orf42 dans la structure et la fonction ciliaire, en particulier dans la zone de transition, qui est une zone de transition entre le cil et le reste de la cellule. TMEM231 avait déjà un rôle établi dans la zone de transition ciliaire et son interaction avec d’autres protéines impliquées dans le syndrome de Joubert était connu. Nos études ont également identifié des variants rares délétères chez un patient JBTS dans le gène ciliaire CEP104. Nous proposons donc CEP104 comme un gène candidat JBTS. Nous avons identifié des mutations causales dans 10 gènes, y compris des mutations dans CC2D2A dans 9 familles et NPHP1 dans 3 familles. Au total, nous avons identifié les mutations causales définitives chez 32 des 35 familles étudiées (91% des cas). Nous avons documenté un effet fondateur complexe dans la population canadienne-française avec de multiples mutations récurrentes dans quatre gènes différents (C5orf42, CC2D2A, TMEM231, NPHP1). Au début de ce projet de recherche, l’étiologie génétique était inconnue chez les 35 familles touchées du syndrome de Joubert. Maintenant, un diagnostique moléculaire définitif est identifié chez 32 familles, et probable chez les 3 autres. Nos travaux ont abouti à la caractérisation génétique du syndrome de Joubert dans la population canadienne-française grâce au séquençage exomique, et révèlent la présence d'un effet fondateur complexe avec une l'hétérogénéité allélique et intralocus importante. Ces découvertes ont éclairé la physiologie de cette maladie. Finalement, l’identification des gènes responsables ouvre de nouvelles perspectives diagnostiques ante-natales, et de conseils génétique, très précieuses pour les familles.
L’enseignement de la distinction entre le passé composé et l’imparfait en français langue seconde
Resumo:
La présente recherche vise à décrire et comprendre l’enseignement de la distinction entre le passé composé et l’imparfait à partir des connaissances et conceptions des enseignants ainsi qu’à partir de leur matériel didactique. La distinction aspectuelle, plus précisément celle qui concerne le perfectif et l’imperfectif, est une difficulté qui concerne plusieurs langues. La recherche antérieure s’est beaucoup intéressée à cette question, permettant de comprendre les raisons de cette difficulté qui se fonde sur l’hypothèse de l’aspect. À partir de cette hypothèse, les difficultés concernant la distinction entre le passé composé et l’imparfait s’éclaircissent, permettant d’ajuster les explications et la transposition didactique. Or, la recherche antérieure considère que les manuels didactiques fournissent aux apprenants et aux enseignants des explications qui ne permettent pas une réelle compréhension de la distinction entre le passé composé et l’imparfait. La présente recherche cherche à vérifier ces hypothèses. À partir d’entrevues réalisées auprès de neuf enseignants de français langue seconde, les résultats montrent qu’effectivement, les enseignants s’inspirent des manuels didactiques pour expliquer et transposer la distinction entre le passé composé et l’imparfait. De plus, à partir du matériel didactique fourni par les mêmes enseignants, les résultats montrent que malgré une connaissance de la difficulté d’emploi du passé composé et de l’imparfait, les exercices ne sont pas adaptés aux difficultés des étudiants. Enfin, la présente recherche démontre la prédominance de l’intrant typique par rapport à l’intrant atypique.
Resumo:
RÉSUMÉ Suite à une centaine de publications sur la réduction de la PIO post-exercice, il est connu que parmi un grand nombre de programme d'exercices de différentes durées et intensités, les effets hypotenseurs de l'exercice sur la PIO sont atténués chez les sujets en bonne condition physique. Le mécanisme proposé est l'augmentation potentielle de l'efficacité du système parasympathique avec l'activité physique. Le principal objectif de cette thèse est d'identifier les facteurs contribuants à la réduction de la PIO post-exercice et d'élucider les différents mécanismes possibles. L'étude 1, une méta-analyse, a été menée afin de quantifier les contributions relatives de l'intensité et de la durée de l'effet de l'exercice sur la PIO et la mesure dans laquelle ces variables affectent les sujets sédentaires et normalement actifs. La tendance ressortant des résultats est que la diminution de la PIO suite à de l'exercice aérobie est plus élevée chez les sujets sédentaires que les sujets en bonne condition physique. (ES = -4.198 mm Hg et -2.340 mm Hg, respectivement). L'absence d'un contrôle des liquides ingérés avant l'activité physique est à souligné dans cette étude. L'hyperosmolarité (un effet secondaire de la déshydratation) est l'un des mécanismes proposés influant l'effet hypotenseur de l'exercice. L'étude 2 comparait la réduction de la PIO dans deux conditions, soit hypohydraté et hyperhydraté, avant, pendant et après un effort de 90 minutes sur un ergocycle. Après une diminution initiale pour les deux conditions, la PIO revient aux valeurs de départ pour la condition hypohydratée malgré une perte de poids significative et elle augmente pour la condition hyperhydratée (résultat du protocole d'hydratation). Étant donné le niveau élevé de participants en bonne condition physique dans l'étude 2, la troisième étude a été conçue afin de etude la relation entre la PIO et la condition physique. À l'aide d'analyses corrélationnelles il a été possible d'observer la relation entre le test de vo2max et la moyenne des mesures de PIO prises sur un intervalle de huit semaines. Une relation significative n'existait que pour les participants se situant dans la portion supérieure du continuum de la condition physique. Conclusion: Les résultats de la présente étude suggèrent que l'effet hypotenseur de l'exercice sur la PIO est probablement une réponse homéostatique à la dérégulation de l'humeur aqueuse causée par l'initiation de l'exercice et le protocole d'ingestion de fluides pré-exercice.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
L’épaule est l’articulation la plus mobile et la plus instable du corps humain dû à la faible quantité de contraintes osseuses et au rôle des tissus mous qui lui confèrent au moins une dizaine de degrés de liberté. La mobilité de l’épaule est un facteur de performance dans plusieurs sports. Mais son instabilité engendre des troubles musculo-squelettiques, dont les déchirures de la coiffe des rotateurs sont fréquentes et les plus handicapantes. L’évaluation de l’amplitude articulaire est un indice commun de la fonction de l’épaule, toutefois elle est souvent limitée à quelques mesures planaires pour lesquelles les degrés de liberté varient indépendamment les uns des autres. Ces valeurs utilisées dans les modèles de simulation musculo-squelettiques peuvent amener à des solutions non physiologiques. L’objectif de cette thèse était de développer des outils pour la caractérisation de la mobilité articulaire tri-dimensionnelle de l’épaule, en passant par i) fournir une méthode et son approche expérimentale pour évaluer l’amplitude articulaire tridimensionnelle de l’épaule incluant des interactions entre les degrés de liberté ; ii) proposer une représentation permettant d’interpréter les données tri-dimensionnelles obtenues; iii) présenter des amplitudes articulaires normalisées, iv) implémenter une amplitude articulaire tridimensionnelle au sein d’un modèle de simulation numérique afin de générer des mouvements sportifs optimaux plus réalistes; v) prédire des amplitudes articulaires sécuritaires et vi) des exercices de rééducation sécuritaires pour des patients ayant subi une réparation de la coiffe des rotateurs. i) Seize sujets ont été réalisé séries de mouvements d’amplitudes maximales actifs avec des combinaisons entre les différents degrés de liberté de l’épaule. Un système d’analyse du mouvement couplé à un modèle cinématique du membre supérieur a été utilisé pour estimer les cinématiques articulaires tridimensionnelles. ii) L’ensemble des orientations définies par une séquence de trois angles a été inclus dans un polyèdre non convexe représentant l’espace de mobilité articulaire prenant en compte les interactions entre les degrés de liberté. La combinaison des séries d’élévation et de rotation est recommandée pour évaluer l’amplitude articulaire complète de l’épaule. iii) Un espace de mobilité normalisé a également été défini en englobant les positions atteintes par au moins 50% des sujets et de volume moyen. iv) Cet espace moyen, définissant la mobilité physiologiques, a été utilisé au sein d’un modèle de simulation cinématique utilisé pour optimiser la technique d’un élément acrobatique de lâcher de barres réalisée par des gymnastes. Avec l’utilisation régulière de limites articulaires planaires pour contraindre la mobilité de l’épaule, seulement 17% des solutions optimales sont physiologiques. En plus, d’assurer le réalisme des solutions, notre contrainte articulaire tridimensionnelle n’a pas affecté le coût de calculs de l’optimisation. v) et vi) Les seize participants ont également réalisé des séries d’amplitudes articulaires passives et des exercices de rééducation passifs. La contrainte dans l’ensemble des muscles de la coiffe des rotateurs au cours de ces mouvements a été estimée à l’aide d’un modèle musculo-squelettique reproduisant différents types et tailles de déchirures. Des seuils de contrainte sécuritaires ont été utilisés pour distinguer les amplitudes de mouvements risquées ou non pour l’intégrité de la réparation chirurgicale. Une taille de déchirure plus grande ainsi que les déchirures affectant plusieurs muscles ont contribué à réduire l’espace de mobilité articulaire sécuritaire. Principalement les élévations gléno-humérales inférieures à 38° et supérieures à 65°, ou réalisées avec le bras maintenu en rotation interne engendrent des contraintes excessives pour la plupart des types et des tailles de blessure lors de mouvements d’abduction, de scaption ou de flexion. Cette thèse a développé une représentation innovante de la mobilité de l’épaule, qui tient compte des interactions entre les degrés de liberté. Grâce à cette représentation, l’évaluation clinique pourra être plus exhaustive et donc élargir les possibilités de diagnostiquer les troubles de l’épaule. La simulation de mouvement peut maintenant être plus réaliste. Finalement, nous avons montré l’importance de personnaliser la rééducation des patients en termes d’amplitude articulaire, puisque des exercices passifs de rééducation précoces peuvent contribuer à une re-déchirure à cause d’une contrainte trop importante qu’ils imposent aux tendons.
Resumo:
Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.
Resumo:
Cette thèse étudie la façon dont trois romans latino-canadiens utilisent le trope de l’exil comme allégorie d’un trauma historique qui comprend plus que l’expérience individuelle de ses protagonistes : la transition forcée de l’État vers le Marché en Amérique latine effectuée par les dictatures. Cobro revertido (1992) de José Leandro Urbina; Le pavillon des miroirs (1994) Sergio Kokis; et Rojo, amarillo y verde (2003) de Alejandro Saravia, explorent divers aspects de ce processus à travers les exercices de mémoire de leurs personnages. L’exil oblige les protagonistes de ces oeuvres à se confronter aux limites des structures sémiotiques par lesquelles ils essaient de donner un fondement idéologique à leur existence sociale. Ils découvrent ainsi qu’il n’est pas possible de reproduire des hiérarchies, des valeurs, ni des relations de pouvoir de leur pays d’origine dans leur pays d’accueil, non seulement à cause des différences culturelles, mais aussi à cause d’un changement historique qui concerne la relation du sujet avec la collectivité et le territoire. Ces œuvres abordent l’expérience de ce changement par un dialogue avec différents genres littéraires comme le roman de fondation, la méta-fiction historique du Boom, le roman de formation et le testimonio, mis en relation avec divers moments historiques, de la période nationale-populaire aux transitions, en passant par les dictatures. Cela permet aux auteurs de réfléchir aux mécanismes narratifs que plusieurs œuvres latino-américaines du XXème siècle ont utilisé pour construire et naturaliser des subjectivités favorables aux projets hégémoniques des États nationaux. Ces exercices méta-narratifs comprennent le rôle de l’écriture comme support privilégié pour l’articulation d’une identité avec le type de communauté imaginaire qu’est la nation. Ils servent aussi à signaler les limites de l’écriture dans le moment actuel du développement technologique des médias et de l’expansion du capitalisme transnational. Ainsi, les auteurs de ces œuvres cherchent d’autres formes de représentation pour rendre visibles les traces d’autres histoires qui n’ont pas pu être incorporées dans le discours historique officiel.