975 resultados para Dynamique inverse
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Ce mémoire de maîtrise a été accompli simultanément à des études à temps plein en droit.
Resumo:
L’essor de la discipline bactériologique est l’un des phénomènes les plus célébrés de l’historiographie médicale. Les approches qu’ont empruntées les historiens pour aborder le sujet depuis le tournant du XXe siècle se sont progressivement modifiées pour passer, le plus souvent, d’une interprétation endogène des développements de la science, où les concepts, les théories, les méthodes de la médecine sont perçus comme se développant isolément du contexte social dans lequel ils s’insèrent, à l’approche inverse, sociologique, où chacune des facettes de l’entreprise médico-scientifique est influencée par son milieu dans une interaction où les instances publiques, gouvernementales et professionnelles impliquées par les projets de médicalisation, formant une dynamique impassible, modifient le cours de chaque aspect de l’histoire médicale. Mais, en dehors des éléments professionnels, le développement de la pensée médico-scientifique est-il invariablement subjugué par cette dynamique sociale ? L’idéal de scientificité prôné par les médecins, formant un archétype dans lequel la rigueur du professionnel doit être isolée de ces facteurs extrinsèques n’est-il pas en mesure d’avoir conféré aux démarches médico-scientifiques une stabilité authentique vis-à-vis les fluctuations de l’environnement sociopolitique et professionnel dans lequel elles s’inscrivent ? Cette étude répond à ce questionnement par l’analyse exhaustive du discours défini par les périodiques médicaux du Québec entre 1840 et 1880. Elle s’articule sur deux développements inédits : l’un qui présente les assises méthodologiques de la vérification, c’est-à-dire la définition de l’archétype médical, son rôle dans la légitimation professionnelle, les critères de scientificité qu’il détermine de même qu’une typologie du discours qu’il permet d’inférer ; l’autre, ses résultats. L’étude montre que l’archétype décrit par le corps médical québécois, loin de n’être qu’un outil discursif par lequel la profession a pu être socialement reconnue au XIXe siècle, exerça une influence déterminante sur la formation de l’attitude professionnelle à l’égard des nouveautés étiologiques présentées par les pionniers de la bactériologie. En plus de dévoiler la trame exacte du développement de la pensée étiologique au Québec, la thèse souligne la complémentarité des approches internes et externes de l’historiographie médicale. Elle contribue ainsi à une représentation plus juste des processus à l’oeuvre dans le développement scientifique.
Resumo:
Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.
Resumo:
Les sélénoprotéines sont des protéines auxquelles des sélénocystéines, soit le 21e acide aminé, sont incorporées durant leur traduction. Plus précisément, la sélénocystéine (Sec) est un dérivé métabolique de la sérine, mais structurellement équivalent à une cystéine dont on a remplacé l'atome de soufre par du sélénium. Elle se distingue des autres acides aminés puisqu’elle possède sa propre synthétase qui sert à convertir la sérine en Sec alors que le résidu est déjà fixé à l’ARNt. La position d’une Sec sur l’ARNm est indiquée par le codon UGA étant habituellement un signal STOP introduisant le concept de recoding. Grâce à une machinerie métabolique spécifique à l'ARNtSec et à la présence d’un SecIS (Selenocystein Insertion Sequence) sur l’ARNm, ce codon permet la présence d'une Sec dans la protéine. Il est connu que la synthèse débute avec l’acétylation de l’ARNt[Ser]Sec par la seryl-ARNt synthétase (SerRS) afin de donner la seryl-ARNt[Ser]Sec. Cette dernière est subséquemment phosphorylée par l’O-phosphoséryl-ARNt[Ser]Sec kinase (PSTK) qui donnera l’O-phosphoséryl-ARNt[Ser]Sec. Par la suite, un complexe de plusieurs protéines et cofacteurs, agissant comme machinerie pour l’incorporation des Sec durant la traduction, s’associe avec l’ARNt[Ser]Sec puis l’ARNm et, finalement, les composantes du ribosome. Parmi ces protéines, SepSecS catalyse l’étape finale de la synthèse des Sec en convertissant le O-phosphoseryl-ARNt[Ser]Sec en selenocysteinyl-ARNt[Ser]Sec utilisant le sélénophosphate comme source de sélénium. Des études récentes montrent que l’association avec SECp43 serait nécessaire pour que SepSecS joue son rôle et soit ségrégée au noyau pour s’associer à la machinerie de biosynthèse des sélénoprotéines, soit le complexe moléculaire qui reconnaît le codon UGA. Parmi les protéines de la machinerie de biosynthèse des sélénoprotéines que nous avons analysées, il y a eEFSec, RPL30, SPS2, SPS1, SBP2 et NSEP1. Nos résultats d’analyse de la dynamique de l’interaction entre les constituants de la machinerie de biosynthèse et d’incorporation des Sec, confirment plusieurs données de la littérature, mais remettent en question le modèle jusqu’à maintenant établi. Une meilleure compréhension de la dynamique des interactions entre ses constituants et la régulation de cette dynamique permet d’émettre des hypothèses quant au rôle de la machinerie de biosynthèse des sélénoprotéines et de l’importance de sa complexité. Nous avons analysé les interactions in vivo dans des cellules HEK293T au moyen de la technique de Protein-Fragment Complementation Assay (PCA) en couplant, par un clonage moléculaire, les gènes de chacune des protéines d’intérêt avec des fragments des gènes de la protéine luciférase (hRluc). Nous avons ainsi réalisé une fusion en N-terminal et en C-terminal des fragments de luciférase pour chacune des protéines d’intérêt. Puis, nous avons analysé la dynamique des interactions avec les composantes de la machinerie de biosynthèse des Sec. D’autres travaux seront essentiels afin de bâtir sur les résultats présentés dans cette recherche.
Resumo:
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.
Resumo:
Une compréhension profonde de la séparation de charge à l’hétérojonction de semi-con- ducteurs organiques est nécessaire pour le développement de diodes photovoltaïques organiques plus efficaces, ce qui serait une grande avancée pour répondre aux besoins mondiaux en énergie durable. L’objectif de cette thèse est de décrire les processus impliqués dans la séparation de charges à hétérojonctions de semi-conducteurs organiques, en prenant en exemple le cas particulier du PCDTBT: PCBM. Nous sondons les excitations d’interface à l’aide de méthodes spectroscopiques résolues en temps couvrant des échelles de temps de 100 femto- secondes à 1 milliseconde. Ces principales méthodes spectroscopiques sont la spectroscopie Raman stimulée femtoseconde, la fluorescence résolue en temps et l’absorption transitoire. Nos résultats montrent clairement que le transfert de charge du PCDTBT au PCBM a lieu avant que l’exciton ne soit relaxé et localisé, un fait expérimental irréconciliable avec la théorie de Marcus semi-classique. La paire de charges qui est créée se divise en deux catégories : les paires de polarons géminales non piégées et les paires profondément piégées. Les premiers se relaxent rapidement vers l’exciton à transfert de charge, qui se recombine radiativement avec une constante de temps de 1– 2 nanoseconde, alors que les seconds se relaxent sur de plus longues échelles de temps via l’effet tunnel. Notre modèle photophysique quantitatif démontre que 2 % de l’excitation créée ne peut jamais se dissocier en porteurs de charge libre, un chiffre qui est en accord avec les rendements élevés rapportés pour ce type de système.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Ce mémoire visait à comprendre la dynamique temporelle et les patrons floristiques actuels de deux tourbières du sud-ouest du Québec (Small et Large Tea Field) et à identifier les facteurs anthropiques, environnementaux et spatiaux sous-jacents. Pour répondre aux objectifs, des inventaires floristiques anciens (1985) ont d’abord été comparés à des inventaires récents (2012) puis les patrons actuels et les facteurs sous-jacents ont été identifiés à l’aide d’analyses multi-variables. Mes résultats montrent d’abord qu’un boisement important s’est produit au cours des 30 dernières années dans les tourbières à l’étude, probablement en lien avec le drainage des terres agricoles avoisinantes, diminuant la hauteur de la nappe phréatique. Simultanément, les sphaignes ont proliférées dans le centre des sites s’expliquant par une recolonisation des secteurs ayant brûlés en 1983. D’autre part, mes analyses ont montré que les patrons floristiques actuels étaient surtout liés aux variables environnementales (pH et conductivité de l’eau, épaisseur des dépôts), bien que la variance associée aux activités humaines était aussi significative, notamment dans la tourbière Large (18.6%). Les patrons floristiques ainsi que les variables environnementales et anthropiques explicatives étaient aussi fortement structurés dans l’espace, notamment selon un gradient bordure-centre. Enfin, la diversité béta actuelle était surtout liée à la présence d’espèces non-tourbicoles ou exotiques. Globalement, cette étude a montré que les perturbations humaines passées et actuelles avaient un impact important sur la dynamique et la distribution de la végétation des tourbières Small et Large Tea Field.
Resumo:
Les milieux humides sont parmi les écosystèmes les plus menacés de la planète que ce soit par le drainage, l’exploitation des ressources naturelles ou les changements climatiques. Dans une optique de conservation, il est primordial de comprendre la part des facteurs autogènes et allogènes dans la dynamique temporelle de ces écosystèmes. Dans ce contexte, les objectifs de cette étude étaient de : 1) reconstituer la dynamique des communautés végétales de deux secteurs ombrotrophes du complexe de milieux humides des Tourbières-de-Lanoraie au cours des trois derniers millénaires et 2) déterminer l’impact des activités humaines depuis les 500 dernières années sur cette dynamique. Pour ce faire, une approche paléoécologique pluridisciplinaire a été utilisée. La dynamique végétale a été semblable dans les deux secteurs étudiés. Elle a d’abord été caractérisée par une ombrotrophication des systèmes tourbeux puis par une transformation graduelle d’une tourbière ombrotrophe ouverte, dominées par les sphaignes et les éricacées, vers des tourbières ombrotrophes forestières. L’ombrotrophication se serait amorcée peu avant le Petit-Âge glaciaire (1570-1850 AD), période associée à des conditions plus fraiches et plus sèches. Le développement de la phase forestière serait beaucoup plus récent (début 1900) et semble être associé à une période d’intensification de l’empreinte anthropique dans le paysage, notamment du drainage. Ce travail montre que les perturbations anthropiques constituent depuis le début du XXème siècle le moteur principal de la dynamique de la végétation des deux secteurs étudiés.
Resumo:
Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme.
Resumo:
Dans ce mémoire, on étudie les extensions galoisiennes finies de C(x). On y démontre le théorème d'existence de Riemann. Les notions de rigidité faible, rigidité et rationalité y sont développées. On y obtient le critère de rigidité qui permet de réaliser certains groupes comme groupes de Galois sur Q. Plusieurs exemples de types de ramification sont construis.
Resumo:
L’atteinte sensorimotrice découlant d’une lésion médullaire traumatique affecte la capacité à se tenir debout de façon sécuritaire. Chez les individus ayant une lésion médullaire incomplète, les chutes lors des tâches locomotrices sont fréquentes après la réadaptation, entraînant des blessures qui affectent la participation sociale et la qualité de vie. Une meilleure compréhension du contrôle postural en clinique aiderait à cibler des interventions efficaces à ce niveau. L’objectif général de cette thèse était donc d’étudier le contrôle postural debout lors de tâches variées chez les personnes avec lésion médullaire traumatique en utilisant une approche biomécanique. Les objectifs spécifiques étaient d’étudier divers aspects du contrôle postural en lien avec chacune des tâches et d’identifier les variables prédictives de la stabilité. Vingt-cinq (25) personnes ayant une lésion médullaire traumatique incomplète ont été recrutées. Elles ont été évaluées au laboratoire d’analyse de mouvement lors du maintien de la station debout quasi-statique yeux ouverts et fermés, de l’exécution d’un test des limites de stabilité multidirectionnelles, de la marche naturelle et de l’initiation et l’arrêt de la marche. Des mesures biomécaniques caractérisant le déplacement du centre de pression (COP) ainsi que le modèle du contrôle postural dynamique des forces stabilisantes et déstabilisantes ont été utilisés pour comparer le contrôle postural des patients à celui d’un groupe formé de 33 personnes en santé. Les résultats ont montré une diminution du contrôle postural quasi-statique et dynamique chez les personnes ayant une lésion médullaire comparativement aux personnes en santé. Cette diminution s’accompagnait d’une contribution élevée des informations visuelles à la station debout quasi-statique qui était associée au score du mini BESTest. Le déplacement du COP lors du test des limites de stabilité multidirectionnelle se caractérisait par une difficulté à suivre la direction indiquée. Ce manque de précision causait une augmentation du trajet nécessaire pour atteindre la distance maximale dans chacune des directions. Les résultats au maintien de la station debout quasi-statique et au test des limites de stabilité multidirectionnelle n’étaient pas corrélés. La phase unipodale de la marche des personnes ayant une lésion médullaire différait de celle des personnes en santé par une force stabilisante maximale moindre et une force déstabilisante plus grande alors que l’arrêt de la marche se révélait plus instable que l’initiation de la marche chez les personnes ayant une lésion médullaire. Pour l’ensemble des tâches de marche, la vitesse du COM et la distance entre le COP et la base de support étaient les facteurs explicatifs principaux des forces stabilisantes et déstabilisantes. En somme, les résultats confirment l’impression clinique d’une atteinte générale du contrôle postural debout des personnes ayant une lésion médullaire; ils en précisent les caractéristiques et ciblent les paramètres à considérer dans la rééducation.
Resumo:
Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.