523 resultados para Évolution biologique et technique
Resumo:
Introduction : Après un traitement orthodontique, la rétention (ou contention) est essentielle pour éviter les récidives vers la malocclusion initiale. Le fil de rétention lingual est un appareil fixe, relativement facile à installer et bien accepté par les patients pour maintenir la position finale des dents antérieures inférieures. Étant de plus en plus utilisé, il devient important de s’assurer de sa fiabilité pour la stabilité de l’alignement dentaire. Objectif : Le but de cette étude clinique randomisée prospective est de déterminer le taux de survie d’un fil lingual mandibulaire de rétention en comparant les méthodes de collage direct et de collage indirect à court et moyen termes. Méthodologie : L’échantillon est constitué de 117 patients consécutifs aléatoirement distribués dans 2 groupes : collage direct (n=58) et collage indirect (n=59). Les fils torsadés de diamètre 0,0175’’ sont préformés par un technicien de laboratoire soit selon la méthode de collage direct, soit selon la méthode de collage indirect. Une matrice de transfert en silicone assure le positionnement précis du fil lingual en bouche. Assure® et Filtek™ Flow ont été utilisés pour le collage direct. Filtek™ Flow, Assure®, and Sondhi™ ont été utilisés pour le collage indirect. Les fils de rétention ont été évalués pour le décollement, l’infiltration, la distorsion et le bris à 2 mois (T1) et 6 mois (T2). Résultats : À T1, le taux de survie du fil de rétention est de 90,2% pour le groupe de collage direct, comparativement à 79,5% pour le groupe de collage indirect (p=0,232). À T2, le fil est resté intact pour 74,1% des participants dans le groupe de collage direct et pour 70,0% des participants dans le groupe de collage indirect (p=0,481). Les différences ne sont pas statistiquement significatives entre les 2 groupes. La fréquence du décollement est plus haute que les autres problèmes enregistrés à T1 (p<0,022), représentant 85,7% des échecs. À T2, le décollement est plus fréquent que la distorsion ou le bris (p<0,04), mais pas statistiquement plus fréquent que l’infiltration (p=0,109). Il représente alors 86,4% des échecs. Conclusion : Le décollement est la principale cause d’échec d’un fil de rétention lingual. Il n’y a pas de différence statistiquement significative du taux de survie d’un fil lingual mandibulaire de rétention entre les techniques de collage direct et de collage indirect à court et moyen termes.
Resumo:
Ce mémoire présente une analyse comparative des paramètres atmosphériques obtenus à l’aide des techniques photométrique et spectroscopique. Pour y parvenir, les données photométriques et spectroscopiques de 1375 naines blanches de type DA tirées du Sloan Digital Sky Survey (SDSS) ainsi que les données spectroscopiques du Villanova White Dwarf Catalog ont été utilisées. Il a d’abord fallu s’assurer que les données photométriques et spectroscopiques étaient bien calibrées. L’analyse photométrique a démontré que la photométrie ugriz ne semblait pas avoir de problème de calibration autre que le décalage des points zéro, qui est compensé en appliquant les corrections photométriques appropriées. De plus, le fait que le filtre u laisse passer le flux à certaines longueurs d’onde dans le rouge ne semble pas affecter la détermination des paramètres atmosphériques. L’analyse spectroscopique a ensuite confirmé que l’application de fonctions de correction permettant de tenir compte des effets hydrodynamiques 3D est la solution au problème de log g élevés. La comparaison des informations tirées des données spectroscopiques des deux différentes sources suggère que la calibration des spectres du SDSS n’est toujours pas au point. Les paramètres atmosphériques déterminés à l’aide des deux techniques ont ensuite été comparés et les températures photométriques sont systématiquement plus faibles que celles obtenues à partir des données spectroscopiques. Cet effet systématique pourrait être causé par les profils de raies utilisés dans les modèles d’atmosphère. Une méthode permettant d’obtenir une estimation de la gravité de surface d’une naine blanche à partir de sa photométrie a aussi été développée.
Resumo:
La sélénocystéine est le 21e acide aminé encodé génétiquement et on la retrouve à travers les trois domaines de la vie. Elle est synthétisée sur l'ARNtSec par un processus unique. L'ARNtSec se distingue également au niveau structural. La tige acceptrice possède 8 (procaryotes) et 9 (eucaryotes) paires de bases, contrairement aux ARNt canoniques qui ont invariablement 7 paires de bases dans la tige acceptrice. De plus, la tige D a 2 paires de bases additionnelles qui remplacent les interactions tertiaires universelles 8-14, 15-48 qui sont absentes chez l'ARNtSec. D'autre part, la longueur de la boucle variable de l'ARNtSec est plus longue que la majorité des ARNt de type II. Dans ce mémoire, on se concentre sur la région de la boucle variable de l'ARNtSec . La recherche consiste à distinguer les paires de bases de la boucle variable qui sont essentielles à la biosynthèse et l’insertion de la sélénocystéine. De plus, on regarde si la paire de base additionnelle de la tige acceptrice de l'ARNtSec (procaryote) est essentielle pour l'insertion de la sélénocystéine. Pour répondre à ces questions, on a utilisé l'approche expérimentale Évolution Instantanée qui consiste au criblage in vivo d'ARNtSec fonctionnels chez E. coli. Dans ce travail, on montre que l'insertion de la sélénocystéine ne nécessite pas une spécificité de la longueur ou de la séquence de l'ARNtSec. On montre aussi que ni la longueur de la tige acceptrice ou du domaine tige acceptrice/tige T n'est essentielle pour avoir un ARNtSec fonctionnel.
Resumo:
La période de prospérité immobilière qu’a vécue le Québec a attiré de nombreuses personnes vers la pratique du courtage immobilier. Certains ont malheureusement choisi d’exercer cette « profession » pour les mauvaises raisons et sans se soucier des règles et valeurs régissant l’industrie du courtage immobilier au Québec, dont la protection est confiée à l’Organisme d’autoréglementation du courtage immobilier du Québec (ci-après : « Organisme » ou « OACIQ ». Ainsi, à l’ère où la question des conflits d’intérêts, et plus particulièrement ceux existants chez nos élus, envahie littéralement les médias, il nous a semblé pertinent d’étudier le concept de conflit d’intérêts à travers la Loi sur le courtage immobilier en vue de faire un constat sur l’état du droit. Dans la première partie de notre exposé, nous traiterons des fondements et origines de l’expression « conflit d’intérêts » ainsi que son évolution à travers le temps, jusqu’à présent. Cette première partie, également consacrée au lexique, nous permettra de comprendre l’étymologie des termes « conflit », « intérêt » et de l’expression « conflit d’intérêts ». Finalement, nous analyserons certaines lois et décisions traitant du sujet. Dans la seconde partie de notre mémoire, nous nous pencherons sur la place occupée par le conflit d’intérêts dans la Loi sur le courtage immobilier. L’historique des diverses versions de cette Loi, l’évolution des dispositions ainsi que les décisions du Comité de discipline de l’OACIQ concernant le conflit d’intérêts y seront étudiés. Nous conclurons ce mémoire par une synthèse de nos recherches et en proposant des modifications législatives à la Loi sur le courtage immobilier.
Resumo:
Ce mémoire illustre l'évolution de la stratégie du syndicat des TCA-Québec, unité locale 728 représentant les employés de l'usine Kenworth de Sainte-Thérèse, de la fermeture de l'usine en 1996 jusqu'à sa réouverture en 1999. La littérature démontre que la mondialisation des marchés économiques oblige les syndicats à revoir leur stratégie lors de négociations collectives. Parfois, leur survie en dépend. Les résultats de notre étude de cas permettent de déterminer cinq événements clés où le syndicat local revoit sa stratégie pendant ce conflit de travail médiatisé : la négociation collective, l'échec de la négociation menant à une grève générale, la fermeture de l'usine, l'annonce de la réouverture de l'usine ainsi que sa réouverture. L'ensemble des résultats présentés en corrélation avec le modèle d’analyse de David Weil (1994) présente la planification stratégique de ces cinq événements à partir d’un processus intégré qui peut être décomposé en trois principales étapes : la formulation de la stratégie, sa mise en œuvre et son évaluation. Les faits sont colligés chronologiquement en exposant les transformations de la stratégie du syndicat local par l'identification d'indicateurs conçus à partir des facteurs externes évoqués dans le modèle de Weil (1994), à savoir l'analyse de l'environnement technologique, législatif et social, les priorités dictées par les membres, l'allocation des ressources du syndicat, ainsi que l'analyse de l'évaluation avantage coûts versus bénéfices.
Resumo:
Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.
Le problème goth au IIIe siècle ap. J.-C. : perceptions et réalités, solutions et échecs militaires.
Resumo:
Au coeur de la crise du IIIe siècle, l’Empire subit de toutes parts les assauts de Barbares soudainement plus nombreux et plus virulents. Parmi ces peuples se trouvaient les Goths, nouvellement arrivés, qui tinrent les Romains et leurs armées en échecs pendant vingt longues années. Face aux multiples défaites, parfois catastrophiques, et aux très nombreuses villes capturées et saccagées par les envahisseurs, ce mémoire se propose d’apporter une nouvelle approche à la compréhension des échecs dont les Romains firent l’expérience, mais aussi des solutions militaires qu’ils mirent en oeuvre face aux Goths au IIIe siècle. Les défaites majeures subies durant la décennie 250 sur le bas-Danube puis dans la région de la Mer Noire semblent pouvoir s’expliquer en partie par l’absence de connaissance qu’avaient Romains des Goths. Les premières victoires romaines significatives contre les Goths sous les règnes de Gallien puis Claude II ont été rendues possibles grâce à une évolution de la stratégie romaine face à cet ennemi, privilégiant l’emploi de la cavalerie et anticipant les schémas d’attaques des envahisseurs. Les décisions politiques et militaires d’Aurélien dans la région montrent que les Romains se sont enfin adaptés à la menace en modifiant leur perception des Goths, désormais mieux connus.
Resumo:
Cette thèse part du postulat que la crise du syndicalisme résulte d’une remise en cause des identités collectives ayant légitimé jusque dans les années 70 leur représentation des travailleurs. En témoignent les mobilisations, qui se déroulent souvent en dehors des syndicats et de façon conflictuelle avec eux, de travailleuses et travailleurs longtemps minorés par les arrangements institutionnels prévalant avec la société salariale. Différents travaux dans le renouveau syndical relèvent de leur côté que les syndicats peinent à prendre en compte les besoins et aspirations de ces travailleurs car leur identité collective les entraîne à rester dans les sentiers des orientations et représentations institutionnalisées. Cependant, les auteurs se focalisent sur la façon dont le syndicalisme, et en particulier les leaders, peuvent reconstruire une représentation des travailleurs, et non sur la façon dont les identités collectives se transforment. Les études sur le syndicalisme héritent d’un débat sur les mouvements sociaux qui a abouti à scinder les approches théoriques entre celles conceptualisant les identités collectives, mais dans le cadre de théorisations contestables de l’évolution des sociétés, et celles qui sous-théorisent les identités collectives et considèrent que les mouvements sociaux émergent des processus politique et de la mobilisation des ressources. Les travaux sur le renouveau syndical reprennent généralement cette seconde approche et assimilent les mouvements de travailleurs à des organisations en considérant, implicitement, les buts de l’action collective comme donné. Or, un mouvement social est un concept ; il n’est pas réductible à une organisation, au risque sinon de perdre sa valeur heuristique, qui est de chercher à saisir les identités collectives en conflit et les stratégies associées. À partir de l’étude du cas du mouvement de travailleurs dans l’économie solidaire brésilienne, cette thèse questionne donc le « pourquoi de nouvelles identités collectives de travailleurs émergent » et le « comment ou le pourquoi des identités syndicales se transforment ou se reproduisent », lorsqu’elles sont confrontées à l’émergence de nouvelles façons de définir les dominations à combattre et les orientations. Les identités collectives sont opérationnalisées comme des matrices cognitives et normatives, ce qui permet de rendre compte de leur caractère évolutif en fonction des modalités d’interaction. L’étude de cas met en évidence que les mobilisations autonomes des travailleurs minorés sont porteuses de nouvelles définitions des problèmes et de pratiques sociales transformatrices, qui entrent en conflit avec les significations et les pratiques syndicales institutionnalisées. Elle montre que c’est à la suite d’interactions délibératives entre ces travailleurs et les syndicalistes que les identités syndicales se transforment. Cependant, la reconstitution des trajectoires de deux syndicats (de la principale centrale brésilienne) indique que le fait d’entrer dans de telles interactions ne dépend pas d’une décision rationnelle, mais de la perception (de la part des syndicats) des capacités des travailleurs à transformer le rapport au travail et au monde lorsqu’ils agissent collectivement. Un dernier résultat, corollaire, tient dans la falsification de l’hypothèse – défendue par une partie de la littérature sur le renouveau syndical – selon laquelle les syndicats, et en particulier les leaders, peuvent conduire une transformation de la représentation collective en procédant eux-mêmes à une agrégation des multiples identités collectives. Cette hypothèse, qui revient à considérer le but de l’action collective comme donné, est contredite par les données : elles montrent que, dans un tel cas, s’il y a bien des innovations institutionnelles conduites par le syndicat, ces innovations favorisent l’adaptation du syndicalisme aux mutations du capitalisme et non la transformation des rapports sociaux de domination, parce que prédominent alors les liens sociaux avec les groupes dominants, c’est-à-dire les interprétations cognitives dominantes des problèmes.
Resumo:
Considérée comme le futur de la pratique médicale, la nanomédecine est l’application des nanotechnologies aux soins de santé. Plus qu’un nouveau domaine d’application technologique, la nanomédecine est porteuse d’un nouveau paradigme biomédical qui promeut une conception technoscientifique de la santé. Ce nouveau paradigme regroupe sous le préfixe nano l’ensemble des grandes tendances actuelles de la recherche en santé : la médecine prédictive, la médecine personnalisée et la médecine régénératrice. Centré sur le développement d’innovations visant au contrôle technique des éléments et des processus biologiques fondamentaux, ce nouveau paradigme se développe largement grâce au soutien des gouvernements et aux promesses économiques qu’il soulève. Il se construit à la croisée du scientifique, du politique et de l’économique. Interroger la nanomédecine revient alors à examiner plus largement la forme et les conditions du sens des innovations biomédicales et à soulever les implications de la « technoscientifisation » des soins de santé. L’objectif de cette thèse est de rendre compte de la spécificité et des enjeux sociaux, culturels et politico-économiques caractéristiques du modèle biomédical technoscientifique porté par la nanomédecine à partir de sa conceptualisation sous la forme d’un idéaltype : la nanosanté. Si la nanomédecine renvoie de manière générale aux applications techniques de la nanotechnologie au domaine biomédical, la nanosanté renvoie aux diverses dimensions sociologiques constitutives de ces technologies et à leurs effets sur la santé et la société. Notre modèle de la nanosanté s’organise autour de trois dimensions : la transversalité, l’amélioration et la globalisation. Compte tenu de sa nature synthétique, ce modèle tridimensionnel permet iii d’aborder de front plusieurs questionnements cruciaux soulevés par le développement de la nanomédecine. Il permet d’éclairer le rapport contemporain à la santé et ses implications sur l’identité ; de mettre en lumière la centralité des technosciences dans la conception du progrès médical et social ; de mieux saisir les nouvelles formes globales de pouvoir sur la vie et les nouvelles formes d’inégalité et d’exploitation caractéristiques d’une société qui accorde une valeur grandissante à l’adaptabilité technique de l’humain et à l’économisation de la santé et du corps ; mais aussi de mieux comprendre le sens et les répercussions de l’engagement scientifique, politique et économique dans les innovations moléculaires et cellulaires.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
Les animaux font face à des changements environnementaux brutaux dus aux modifications de milieux liés à l'activité humaine et aux changements climatiques, et doivent s'ajuster rapidement à leur nouvel environnement. Certains processus cognitifs comme l'innovation et l'apprentissage permettent aux animaux d'intégrer de nouveaux comportements à leur répertoire comportemental (flexibilité comportementale), leur donnant l'opportunité d'intégrer un comportement plus optimal pour s'ajuster. Les performances cognitives varient entre espèces et les individus d'une même population et bien que des études récentes se soient intéressées aux causes des variations interindividuelles des performances cognitives, les conséquences restent peu explorées. Dans cette thèse, les questions des pressions de sélection s'exerçant sur les capacités cognitives sont abordées afin de mieux comprendre l'évolution de ces traits au sein d'une population naturelle de mésange charbonnière Parus major. Un nouveau test de résolution de problème a tout d'abord été présenté à des couples reproducteurs directement en milieu naturel. Les résultats ont montré que les couples les plus performants à résoudre la tâche surpassaient les couples les moins performants sur plusieurs mesures de succès reproducteur. Afin de vérifier que la motivation à nourrir les poussins ne biaisait pas cette relation, la taille de nichée a ensuite été manipulée, ce qui n'a pas affecté la performance subséquente des parents. Les couples innovateurs démontraient un meilleur succès reproducteur quel que soit le changement de la taille de nichée subit, ce qui suggère que cette performance influence bien le succès de reproduction, et non l'inverse. De plus, les couples innovateurs approvisionnaient leurs poussins plus souvent que les couples non innovateurs, suggérant que les innovateurs pourraient exploiter leur habitat de façon plus optimale. Dans un troisième temps, plusieurs caractéristiques morphologiques, dont la coloration des plumes, ont été reliées aux performances de résolution de problème et d'apprentissage. Ces liens, bien que complexes et condition-dépendants, pourraient indiquer un rôle de ces performances lors de la sélection sexuelle. Enfin, afin de tester l'effet du parasite sanguin du paludisme sur les traits comportementaux, un médicament contre le paludisme a été injecté à des femelles reproductrices. Cette injection n'a pas modifié leurs performances cognitives mais a augmenté leur niveau d'activité et d'exploration du nichoir en réponse à la tâche de résolution de problème. Ce parasite sanguin, très présent chez les populations depassereaux, pourrait donc expliquer les variations interindividuelles et interpopulationnelles de certains traits comportementaux en milieu naturel, au même titre que dans nombreux autres systèmes hôte-parasites étudiés. Les travaux présentés dans cette thèse ont permis de détailler pour la première fois la relation entre une performance cognitive et le succès reproducteur chez une population aviaire naturelle, une relation robuste et non influencée par la motivation à nourrir la couvée. Cette performance cognitive est reliée à plusieurs traits morphologiques, mais non à la charge parasitaire. Une meilleure exploitation de l'habitat et habileté à s'occuper des poussins pourrait expliquer cette relation.
Resumo:
Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.
Resumo:
Ce mémoire a pour objet d’étude les échanges épistolaires entre Robert Choquette et Louis Dantin, Alfred DesRochers et, dans une moindre mesure, Claude-Henri Grignon, Émile Coderre et Albert Pelletier. Les lettres en question, qui n'ont jamais été publiées, sont conservées pour l’essentiel dans le Fonds d'archives Robert-Choquette, qui n’est accessible aux chercheurs que depuis 2006. L'objectif de cette étude est de mesurer la voix et la part de Robert Choquette au sein des réseaux littéraires des années vingt et trente. La première partie du premier chapitre de ce mémoire est essentiellement théorique; la position de la lettre au sein de l'œuvre d'un écrivain, la constitution, par les lettres, d'un réseau littéraire ainsi que les rapports entre destinateur et destinataire y sont définis. Par la suite, les échanges épistolaires entre Choquette et ses correspondants sont examinés afin de mettre en lumière les rapports de force exploités dans ce réseau. Cette étude, qui se base sur un corpus de lettres rédigées entre 1927 et 1943, montre également l'évolution des ambitions poétiques du poète. Dans le but d'observer l'empreinte des correspondants de Choquette sur son projet littéraire, les deuxième et troisième chapitres du mémoire sont consacrés à l'analyse de ses recueils Metropolitan Museum et Suite marine. L'étude des échanges spécifiques portant sur ces deux œuvres expose une transformation quant au choix des images utilisées par Choquette pour se représenter, ainsi que l'évolution de ses attentes envers ses destinataires.
Resumo:
Réalisé en cotutelle avec l'Université de Grenoble.
Resumo:
Dans le domaine de la biologie contemporaine, une attention grandissante est portée aux associations biologiques positives, telles que la symbiose, ce qui vient nuancer la perception traditionnellement « compétitive » de l’évolution. Parallèlement à l’engouement actuel que manifestent les chercheurs pour la coopération biologique, ce mémoire vise à pousser plus avant les recherches historiques concernant l’intégration de tels phénomènes dans l’œuvre de Charles Darwin. Plus spécifiquement, nous souhaitons examiner comment Darwin est parvenu à articuler l’aspect compétitif de l’évolution par sélection naturelle avec l’existence de phénomènes coopératifs. En ce sens, la première partie de ce mémoire aura pour objet le concept darwinien de compétition, et son lien théorique avec la sélection naturelle. La seconde partie concernera l’intégration de la coopération biologique à la théorie de l’évolution par sélection naturelle. Par ces deux moments, nous espérons montrer que Darwin parvient à concilier l’existence d’interactions compétitives et coopératives sans contredire les principes théoriques à la base de l’évolution.