67 resultados para Equivalence-preserving


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rétinopathie diabétique est associée à plusieurs changements pathologiques du lit vasculaire rétinien, incluant l’ouverture de la barrière hémato-rétinienne, l’inflammation vasculaire et la modification du débit sanguin. Récemment, il a été proposé que le récepteur B1 des kinines, qui est surexprimé dans la rétine diabétique, puisse être impliqué dans le développement de ces altérations vasculaires. Ainsi, cette thèse présente les effets de traitements pharmacologiques avec des antagonistes du récepteur B1 sur la perfusion rétinienne, la perméabilité vasculaire, l’infiltration des leucocytes (leucostasie), l’expression de médiateurs de l’inflammation et la production d’anion superoxyde dans la rétine du rat rendu diabétique avec la streptozotocine (STZ). Les résultats obtenus montrent que l’application oculaire (10 µl d’une solution à 1%, deux fois par jour pendant 7 jours) de LF22-0542, un antagoniste hydrosoluble du récepteur B1, bloque significativement l’hyperperméabilité vasculaire, la leucostasie, le stress oxydatif et l’expression génique de médiateurs de l’inflammation (B1R, iNOS, COX-2, VEGF-R2, IL-1β et HIF-1α) dans la rétine chez le rat à 2 semaines de diabète. L’administration orale (3 mg/kg) d’un antagoniste non-peptidique et sélectif pour le récepteur B1, le SSR240612, entraîne une diminution du débit sanguin rétinien 4 jours après l’induction du diabète mais n’a aucun effet sur la réduction de la perfusion rétinienne à 6 semaines. Le récepteur B1 joue donc un rôle protecteur au tout début du diabète en assurant le maintien d’un débit sanguin normal dans la rétine; un effet qui n’est toutefois pas maintenu pendant la progression du diabète. Ces données présentent ainsi la dualité du récepteur B1 avec des effets à la fois protecteurs et délétères. Elles suggèrent aussi un rôle important pour le récepteur B1 dans l’inflammation rétinienne et le développement des altérations vasculaires. Le récepteur B1 pourrait donc représenter une nouvelle cible thérapeutique pour le traitement de la rétinopathie diabétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous assistons depuis quelques années à une commercialisation de la recherche académique. Celle-ci est principalement due à une déficience marquée du financement public. Par conséquent,  les universités se tournent vers d’autres sources de financement, tels les brevets et l’industrie privée. En parallèle, les gouvernements et les organismes subventionnaires favorisent cette commercialisation par la promotion de programmes de partenariats université-industrie et par la mise en place de stratégies pour l’innovation et le transfert des technologies. Prenant comme modèle le chercheur académique dans le domaine de la santé, nous avons évalué l’impact de cette commercialisation sur les responsabilités du chercheur envers la science et la société. Ce nouveau mode de fonctionnement comporte certes des avantages. Par exemple, il résulte en une injection de fonds nouveaux pour la recherche, un développement des infrastructures universitaires et  un transfert de technologies plus efficace, permettant ainsi à la population de bénéficier plus rapidement des bienfaits de la recherche. Cependant, notre réflexion révèle que cette commercialisation comporte aussi des impacts négatifs sur la recherche académique. En effet, on observe l’apparition de conflits d’intérêts pour le chercheur. En plus de constituer une menace pour la sécurité de la population, ces situations causent l’effritement du lien de confiance entre la société et les chercheurs académiques, lien qui est essentiel pour assurer la progression du savoir humain. La commercialisation porte aussi atteinte à la liberté académique, effet que l’on peut observer tant au plan de l’orientation des recherches qu’à celui de la diffusion de ses résultats. Or, la liberté académique est une valeur fondamentale qui a été défendue depuis le Moyen Âge comme étant essentielle pour la progression du savoir humain. Le potentiel commercial devient un facteur dans l’évaluation des projets de recherche académique alors que, traditionnellement, l’avancement des connaissances la guidait essentiellement. Ainsi, la recherche appliquée devient favorisée au détriment de la recherche fondamentale. Ce virage commercial peut bénéficier à la société à court terme mais, à long terme, l’évolution de la société est menacée. La recherche appliquée et la recherche fondamentale sont toutes deux essentielles à l’avancement de la société, apportant chacune leur lot de bénéfices pour cette dernière. La commercialisation de la recherche académique ne doit donc pas résulter en une diminution progressive de la recherche fondamentale au profit de la recherche appliquée.  Bien que les chercheurs académiques soient conscients de l’importance de préserver la recherche fondamentale, cette protection ne peut s’opérer sans le support actif des organismes subventionnaires, des gouvernements et de la société en général.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au niveau méthodologique, ce travail innove en combinant plusieurs moyens d'observation complémentaires sur le processus d'écriture et sur le processus de correction. Les observations qualitatives ainsi recueillies sont retranscrites en les combinant selon l'ordre chronologique d'apparition, puis elles sont traitées et analysées sous le logiciel QDA Miner.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’implantation répandue de nouveaux quartiers résidentiels sur le territoire de la périphérie urbaine est en partie responsable de la baisse du couvert végétal et de l’augmentation des surfaces imperméables à grande échelle. Les villes sont maintenant aux prises avec une augmentation constante de la production de ruissellement qu'elles doivent gérer au moyen d’un vaste réseau d’égouts et de canalisations. Des données sur les impacts de ces modèles de quartier résidentiel nous révèlent que cette forme d’habitat provoque la dégradation des milieux naturels et aquatiques. La présente étude vise à mettre à l’épreuve la stratégie d’aménagement de l’Open space design en comparant l’effet de trois situations d’aménagement d’ensembles résidentiels sur le coefficient de ruissellement pondéré (Cp). Les trois situations étudiées sont 1 : le développement actuel tel que conçu par le promoteur, 2 : un scénario de quartier visant la préservation des cours d’eau existants ainsi qu’une réduction des lots et des surfaces imperméables et 3 : un quartier avec des types d’habitation plus denses. Les coefficients pondérés obtenus sont respectivement de 0,50 pour le quartier actuel, de 0,40 pour le scénario 1 et de 0,34 pour le scénario 2. Au terme de cet exercice, il apparaît, d’une part, que la densification du bâti, la nature des surfaces et l’organisation spatiale peuvent concourir à diminuer la production de ruissellement d’un quartier. Cette étude permet de situer l’importance de la gestion du ruissellement dans la planification et l’aménagement du territoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la pensée politique du juriste allemand Carl Schmitt, plus précisément sur sa critique de l’universalisme libéral. Sur la base d’une analyse de ses principaux textes, nous démontrons que la pertinence de cet auteur controversé réside dans le défi renouvelé que présente son antinormativisme pour la pensée politique contemporaine. Nous soutenons qu’il y a chez Schmitt un souci constant de rattacher le droit à l’ordre concret, qu’il soit institué ou reçu. Nous démontrons ensuite comment l’antinormativisme se prolonge en droit international dans la critique de l’universalisme, entendu comme l’ambition de penser le politique à partir de l’humanité comme sujet unique. D’une perspective décisionniste, l’universalisme masque des intérêts impérialistes qu’il convient de dénoncer ; d’une perspective institutionnaliste, l’universalisme néglige l’ordre spatial concret sur lequel repose le droit international. Nous affirmons que Schmitt démontre l’importance de préserver l’autonomie de la science juridique envers la morale et la technique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après avoir passé plus de 4 ans dans des camps de travail forcé, Jonas Mekas, lituanien, est déporté avec son frère par les Nations-Unies en 1949 aux États-Unis. Les deux rescapés de la seconde guerre mondiale dédient alors leur temps au cinéma. Dès leur arrivée, ils se procurent une caméra 16 mm bolex et se tournent vers le cinéma expérimental, grâce, entre autre, à une de ces cinéastes pionnières américaine Maya Deren. En marge de l'industrie cinématographique hollywoodienne, Jonas Mekas participe à l'édification de structures - coopératives, associations, magazines, journaux - afin de rendre accessible ce genre filmique, de lui obtenir une reconnaissance publique et de, ultimement, le préserver. En 1969, il réalise un film intitulé "Diaries, Notes and Sketches : Also Known as Walden". Mekas réalise ensuite des films qui réemploient des séquences qui se trouvent dans cette première ébauche filmique. Ce processus se retrace au sein de son « premier essai » numérique qu'il réalise à l'ère cybériste intitulé "The First Forty" (2006), composé de vidéos et de descriptions textuelles. Tout comme il l’avait fait avec Walden, Mekas présente explicitement celui-ci à un public, en l’occurrence son nouveau public d'internautes, qui en prend connaissance sur son site web officiel. La présentation numérique et la table des matières papier accompagnant "Diaries, Notes and Sketches : Also Known as Walden" rédigée par l'artiste en 1969 ont une fonction similaire au sens où, par elles, Jonas Mekas donne ces deux créations aux spectateurs. Nous avons choisi d'employer le terme de dispositif pour parler de ces « objets » qui font appel à diverses formes énonciatives afin de créer un effet spécifique chez le spectateur. En explorant la théorie sociologique moderne du don développée par Jacques T. Godbout, notre projet a été de relever « l'esprit de don » qui se retrace au sein de ces dispositifs. Cette étude nous permet de constater que les dispositifs audiovisuels / cinématographiques que développa Mekas sont des « objets » qui peuvent être reçus tel des dons suscitant le désir de donner chez les spectateurs. Ils sont le ciment symbolique personnel et collectif nécessaire à l’accomplissement du processus de « reconnaissance » qu’implique le don.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The environmental crisis threatens the fundamental values of the political liberal tradition. As the autonomy, the security and the prosperity of persons and peoples are jeopardized by political inaction, the legitimacy of the liberal constitutional order is compromised. Because of important collective action problems, the democratic processes are unfit to address the present crisis and protect adequately the natural environment. Two institutional solutions deemed capable of preserving the legitimacy of the functional domination at the heart of social order are analyzed. The first is the constitutionalization of a right to an adequate natural environment, which purports to circumvent the paralysis of legislative power. The second is the declaration of a limited state of emergency and the use of exceptional powers, which purports to circumvent the paralysis of both legislative and judiciary powers. Despite their legitimacy, the diligent application of these political solutions remains improbable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Pologne, pendant des décennies pays d’émigration, accueille depuis une dizaine d’années de plus en plus d’immigrants et se transforme en pays d’immigration. D’un côté, elle semble avoir besoin de main d’œuvre, de l’autre elle se refuse d’adopter des politiques migratoires régissant le statut des migrants temporaires et des immigrants permanents. Pourtant, afin de répondre aux défis économiques, sociopolitiques et identitaires posés par des flux migratoires stimulés par la mondialisation, les aspirations économiques et les crises humanitaires, la plupart de ses voisins à l’ouest développent des systèmes migratoires. Nous constatons que malgré l’occurrence de problèmes similaires liés aux migrations en Europe de l’Est, à ce jour seule la République tchèque s’est prévalue d’un système migratoire, y compris d’un programme d’intégration des immigrants permanents. Qu’est-ce qui freine la Pologne de se prévaloir de mécanismes permettant de faire face à l’afflux grandissant des immigrants? Pour comprendre la question nous comparons la Pologne à la République tchèque - deux pays similaires dont le résultat en matière des systèmes migratoires diffère. La littérature met de l’avant trois facteurs explicatifs de l’adoption ou pas des systèmes migratoires par les États: les besoins économiques, sociopolitiques et les questions identitaires. Nous analysons ces trois éléments dans les deux cas choisis et posons comme hypothèse que c’est le facteur de l’identité nationale qui ralenti le développement du système migratoire en Pologne. En effet, notre recherche démontre que les facteurs économiques et sociopolitiques sont similaires en République tchèque et en Pologne, alors que le facteur identitaire marque la différence. Bien que la Pologne soit entrée dans l’UE et que son essor économique progresse depuis les vingt dernières années, il semble que l’identité nationale et le projet politique de préserver un État-nation soient des obstacles au développement d’un système migratoire ouvert à l’accueil des immigrants permanents. L’importance du facteur identitaire pour les politiques migratoires est montrée à travers l’analyse de la littérature, des sondages d’opinion publique et des sténogrammes parlementaires, ainsi que de quatre entrevues semi-structurées que nous avons menées avec des représentants du gouvernement polonais et des organismes non gouvernementaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse est composée d’un chapitre de préliminaires et de deux articles sur le sujet du déploiement de singularités d’équations différentielles ordinaires analytiques dans le plan complexe. L’article Analytic classification of families of linear differential systems unfolding a resonant irregular singularity traite le problème de l’équivalence analytique de familles paramétriques de systèmes linéaires en dimension 2 qui déploient une singularité résonante générique de rang de Poincaré 1 dont la matrice principale est composée d’un seul bloc de Jordan. La question: quand deux telles familles sontelles équivalentes au moyen d’un changement analytique de coordonnées au voisinage d’une singularité? est complètement résolue et l’espace des modules des classes d’équivalence analytiques est décrit en termes d’un ensemble d’invariants formels et d’un invariant analytique, obtenu à partir de la trace de la monodromie. Des déploiements universels sont donnés pour toutes ces singularités. Dans l’article Confluence of singularities of non-linear differential equations via Borel–Laplace transformations on cherche des solutions bornées de systèmes paramétriques des équations non-linéaires de la variété centre de dimension 1 d’une singularité col-noeud déployée dans une famille de champs vectoriels complexes. En général, un système d’ÉDO analytiques avec une singularité double possède une unique solution formelle divergente au voisinage de la singularité, à laquelle on peut associer des vraies solutions sur certains secteurs dans le plan complexe en utilisant les transformations de Borel–Laplace. L’article montre comment généraliser cette méthode et déployer les solutions sectorielles. On construit des solutions de systèmes paramétriques, avec deux singularités régulières déployant une singularité irrégulière double, qui sont bornées sur des domaines «spirals» attachés aux deux points singuliers, et qui, à la limite, convergent vers une paire de solutions sectorielles couvrant un voisinage de la singularité confluente. La méthode apporte une description unifiée pour toutes les valeurs du paramètre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre la fin du XXe siècle et le début du XXIe siècle, on assiste à une émergence et à une multiplication des conférences et sommets internationaux, nationaux et locaux sur l’environnement. Cette prise de conscience face à l’urgence de trouver des moyens et des solutions afin de préserver, restaurer ou mettre en valeur la Terre et ses écosystèmes, se reflète dans le milieu artistique. Cette étude a pour but de montrer que l’inclusion du thème écologiste dans le champ artistique opère des changements sur la configuration de l’art, c’est-à-dire sur les lieux (l’emplacement des oeuvres), sur les acteurs (les artistes et le public), sur les usages et la finalité des oeuvres. Le second objectif est d’indiquer qu’il existe une concordance entre la théorie pragmatiste et l’art écologique. L’observation de cette proximité permet de mettre à profit la théorie deweyenne afin de mieux comprendre le fonctionnement des projets artistiques écologistes. Le corpus est établi à partir d’oeuvres de l’artiste québécoise Francine Larivée, de l’artiste torontois Noel Harding et de l’artiste américaine Agnes Denes.