443 resultados para Paramètres pharmacocinétiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obésité provient d’un déséquilibre de l’homéostasie énergétique, c’est-à-dire une augmentation des apports caloriques et/ou une diminution des dépenses énergétiques. Plusieurs données, autant anatomiques que physiologiques, démontrent que l’hypothalamus est un régulateur critique de l’appétit et des dépenses énergétiques. En particulier, le noyau paraventriculaire (noyau PV) de l’hypothalamus intègre plusieurs signaux provenant du système nerveux central (SNC) et/ou de la périphérie, afin de contrôler l’homéostasie énergétique via des projections axonales sur les neurones pré-ganglionnaires du système autonome situé dans le troc cérébral et la moelle épinière. Plusieurs facteurs de transcription, impliqués dans le développement du noyau PV, ont été identifiés. Le facteur de transcription SIM1, qui est produit par virtuellement tous les neurones du noyau PV, est requis pour le développement du noyau PV. En effet, lors d’une étude antérieure, nous avons montré que le noyau PV ne se développe pas chez les souris homozygotes pour un allèle nul de Sim1. Ces souris meurent à la naissance, probablement à cause des anomalies du noyau PV. Par contre, les souris hétérozygotes survivent, mais développent une obésité précoce. De façon intéressante, le noyau PV des souris Sim1+/- est hypodéveloppé, contenant 24% moins de cellules. Ces données suggèrent fortement que ces anomalies du développement pourraient perturber le fonctionnement du noyau PV et contribuer au développement du phénotype d’obésité. Dans ce contexte, nous avons entrepris des travaux expérimentaux ayant pour but d’étudier l’impact de l’haploinsuffisance de Sim1 sur : 1) le développement du noyau PV et de ses projections neuronales efférentes; 2) l’homéostasie énergétique; et 3) les voies neuronales physiologiques contrôlant l’homéostasie énergétique chez les souris Sim1+/-. A cette fin, nous avons utilisé : 1) des injections stéréotaxiques combinées à des techniques d’immunohistochimie afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur le développement du noyau PV et de ses projections neuronales efférentes; 2) le paradigme des apports caloriques pairés, afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur l’homéostasie énergétique; et 3) une approche pharmacologique, c’est-à-dire l’administration intra- cérébroventriculaire (i.c.v.) et/ou intra-péritonéale (i.p.) de peptides anorexigènes, la mélanotane II (MTII), la leptine et la cholécystokinine (CCK), afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur les voies neuronales contrôlant l’homéostasie énergétique. Dans un premier temps, nous avons constaté une diminution de 61% et de 65% de l’expression de l’ARN messager (ARNm) de l’ocytocine (Ot) et de l’arginine-vasopressine (Vp), respectivement, chez les embryons Sim1+/- de 18.5 jours (E18.5). De plus, le nombre de cellules produisant l’OT et la VP est apparu diminué de 84% et 41%, respectivement, chez les souris Sim1+/- adultes. L’analyse du marquage axonal rétrograde des efférences du noyau PV vers le tronc cérébral, en particulier ses projections sur le noyau tractus solitaire (NTS) aussi que le noyau dorsal moteur du nerf vague (X) (DMV), a permis de démontrer une diminution de 74% de ces efférences. Cependant, la composition moléculaire de ces projections neuronales reste inconnue. Nos résultats indiquent que l’haploinsuffisance de Sim1 : i) perturbe spécifiquement le développement des cellules produisant l’OT et la VP; et ii) abolit le développement d’une portion importante des projections du noyau PV sur le tronc cérébral, et notamment ses projections sur le NTS et le DMV. Ces observations soulèvent donc la possibilité que ces anomalies du développement du noyau PV contribuent au phénotype d’hyperphagie des souris Sim1+/-. En second lieu, nous avons observé que la croissance pondérale des souris Sim1+/- et des souris Sim1+/+ n’était pas significativement différente lorsque la quantité de calories présentée aux souris Sim1+/- était la même que celle consommée par les souris Sim1+/+. De plus, l’analyse qualitative et quantitative des tissus adipeux blancs et des tissus adipeux bruns n’a démontré aucune différence significative en ce qui a trait à la taille et à la masse de ces tissus chez les deux groupes. Finalement, au terme de ces expériences, les souris Sim1+/--pairées n’étaient pas différentes des souris Sim1+/+ en ce qui a trait à leur insulinémie et leur contenu en triglycérides du foie et des masses adipeuses, alors que tous ces paramètres étaient augmentés chez les souris Sim1+/- nourries ad libitum. Ces résultats laissent croire que l’hyperphagie, et non une diminution des dépenses énergétiques, est la cause principale de l’obésité des souris Sim1+/-. Par conséquent, ces résultats suggèrent que : i) l’haploinsuffisance de Sim1 est associée à une augmentation de l’apport calorique sans toutefois moduler les dépenses énergétiques; ii) l’existence d’au moins deux voies neuronales issues du noyau PV : l’une qui régule la prise alimentaire et l’autre la thermogénèse; et iii) l’haploinsuffisance de Sim1 affecte spécifiquement la voie neuronale qui régule la prise alimentaire. En dernier lieu, nous avons montré que l’injection de MTII, de leptine ainsi que de CCK induit une diminution significative de la consommation calorique des souris des deux génotypes, Sim1+/+ et Sim1+/-. De fait, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 37% et de 51%, respectivement, durant les 4 heures suivant l’administration i.p. de MTII comparativement à l’administration d’une solution saline. Lors de l’administration i.c.v. de la leptine, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 47% et de 32%, respectivement. Finalement, l’injection i.p. de CCK diminue la consommation calorique des souris Sim1+/- et Sim1+/+ de 52% et de 36%, respectivement. L’ensemble des résultats suggère ici que l’haploinsuffisance de Sim1 diminue l’activité de certaines voies neuronales régulant l’homéostasie énergétique, et particulièrement de celles qui contrôlent la prise alimentaire. En résumé, ces travaux ont montré que l’haploinsuffisance de Sim1 affecte plusieurs processus du développement au sein du noyau PV. Ces anomalies du développement peuvent conduire à des dysfonctions de certains processus physiologiques distincts régulés par le noyau PV, et notamment de la prise alimentaire, et contribuer ainsi au phénotype d’obésité. Les souris hétérozygotes pour le gène Sim1 représentent donc un modèle animal unique, où l’hyperphagie, et non les dépenses énergétiques, est la principale cause de l’obésité. En conséquence, ces souris pourraient représenter un modèle expérimental intéressant pour l’étude des mécanismes cellulaires et moléculaires en contrôle de la prise alimentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire comprend deux tomes : le premier consiste du texte et des figures, le deuxième consiste des annexes. Le tout est regroupé dans le document électronique présent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, il sera question de la formation de dérivés pipéridines en utilisant la fragmentation de Grob. Tout d’abord, une introduction sur les alcaloïdes ainsi que sur l’expertise du groupe Charette associée à leur formation démontrera l’importance de ces composés dans le domaine de la chimie organique. Cela sera suivi par un résumé de la fragmentation de Grob incluant les conditions de réactions utilisées, l’importance de la structure de la molécule initiale, les prérequis stéréoélectroniques ainsi que les modifications qui y ont été apportées. Le chapitre 2 sera dédié au développement de la méthodologie c’est-à-dire, à l’optimisation de tous les paramètres jouant un rôle dans la fragmentation de Grob. Par la suite, l’étendue de la réaction ainsi que des explications sur la régiosélectivité et la diastéréosélectivité de la réaction seront fournies. La méthodologie peut être exploitée dans un contexte de synthèse qui sera démontré dans le chapitre 3. De plus, elle servira pour une étude mécanistique qui est encore d’actualité à partir du concept d’effet frangomérique. Finalement, quelques projets futurs, notamment des améliorations possibles de la méthodologie, seront présentés dans le dernier chapitre. Le tout sera suivi d’une conclusion résumant l’ensemble des travaux effectués.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714paramètres de la marche et les résultats à certains tests du Balance Master. En somme, la présente étude permet de recommander l'utilisation de l'échelle de Berg pour évaluer l'équilibre debout des personnes LM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète insipide néphrogénique (DIN) autosomal peut être causé par les mutations du gène codant pour le canal à eau aquaporine-2 (AQP2). Un modèle couramment utilisé pour l’étude des protéines membranaires telle l’AQP2 est l’expression hétérologue dans les ovocytes de Xenopus laevis. Malheureusement, les techniques déjà existantes de purification de membranes plasmiques sont soit trop longues, trop difficiles ou demandent trop de matériel, ne permettent pas l’analyse adéquate du ciblage des formes sauvage comme mutantes, un élément crucial de ce type d’étude. Nous avons donc dans un premier temps mis au point une technique rapide et efficace de purification de membranes plasmiques qui combine la digestion partielle de la membrane vitelline, sa polymérisation à la membrane plasmique suivi de centrifugations à basse vitesse pour récolter les membranes purifiées. Nous avons utilisé cette technique dans l’étude de deux nouveaux cas familiaux de patients hétérozygotes possédant les mutations V24A et R187C dans un cas et K228E et R187C dans le second cas. Pour chaque mutation, nous avons analysé autant les éléments de fonctionnalité que les paramètres d’expression des protéines mutantes. Les expériences de perméabilité membranaire démontrent que les ovocytes exprimant AQP2-V24A (Pf = 16.3 ± 3.5 x 10-4 cm/s, 10 ng) et AQP2- K228E (Pf = 19.9 ± 7.0 x 10-4 cm/s, 10 ng) ont des activités similaires à celle exprimant la forme native (Pf = 14.4 ± 5.5 x 10-4 cm/s, 1 ng), tandis que AQP2- R187C (Pf = 2.6 ± 0.6 x 10-4 cm/s, 10 ng) ne semble avoir aucune activité comme ce qui est observé chez les ovocytes non-injectés (Pf = 2.8 ± 1.0 x 10-4 cm/s). Les études de co-expression ont démontré un effet d’additivité lorsque AQP2-V24A et -K228E sont injectées avec la forme native et un effet s’apparentant à la dominance négative lorsque AQP2-R187C est injecté avec la forme native, avec AQP2-V24A ou avec –K228E. Les résultats obtenus par immunobuvardage représente bien ce qui a été démontré précédemment, on remarque la présence des mutations K228E, V24A et la forme sauvage à la membrane plasmique, contrairement à la mutation R187C. Cependant, lorsque les mutations sont exprimées dans des cellules mIMCD-3, il n’y a qu’une faible expression à la membrane de la forme –K228E et une absence totale des formes –V24A et –R187C à la membrane plasmique, contrairement à la forme native. Les résultats de nos études démontrent que tout dépendant du système d’expression les formes –K228E et –V24A peuvent être utiles dans l’étude des problèmes d’adressage à la membrane à l’aide de chaperonne chimique. De plus, la forme –R187C démontre des difficultés d’adressage qui devront être étudiées afin de mieux comprendre la synthèse des formes natives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude suivante décrit la synthèse des ligands nacnacxylH, nacnacBnH, nacnacR,RH et nacnacCyH en utilisant une méthode générale qui implique des rendements élevés et des coûts raisonnables, la complexation de ces ligands au Zr, la caractérisation de ces complexes et l’investigation de leurs réactivités. Les complexes de zirconium ont été obtenus en utilisant deux méthodes synthétiques principales : la première consiste en traitement du sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand neutre avec les complexes d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. Le ligand adopte deux modes de coordination avec le Zr. Une coordination 2 est observée dans les complexes octaèdriques contenant un ou deux ligands nacnac. En présence d'un autre ligand ayant une coordonnation 5, par exemple Cp ou Ind, le ligand nacnac se trouve en coordination x avec le centre métallique de zirconium. En solution, les complexes obtenus de (nacnac)2ZrX2 montrent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été obtenus. Le complexe octaèdrique (nacnacBn)2ZrCl2, 2c, n'a pas montré de réactivité dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue dimethylé (nacnacBn)2ZrMe2, 2d, peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. Ce dernier a été prouvé aussi de ne pas être réactif dans la carbozirconation.