443 resultados para Paramètres pharmacocinétiques
Resumo:
Le manuscrit suivant porte sur le développement d’une méthodologie de cartographie de la susceptibilité magnétique. Cette méthodologie a été appliquée au niveau des seins à des fins de détection de microcalcifications. Afin de valider ces algorithmes, un fantôme numérique ainsi qu’un fantôme réel ont été créés. À l’aide de ces images, les paramètres modifiables de notre méthodologie ont été ajustés. Par la suite, les problèmes reliés à l’imagerie du sein ont été explorés, tel la présence de gras ainsi que la proximité des poumons. Finalement, des images in vivo, acquises à 1.5 et 7.0 Tesla ont été analysées par notre méthodologie. Sur ces images 1.5T, nous avons réussi à observer la présence de microcalcifications. D’un autre côté, les images 7.0T nous ont permis de présenter un meilleur contraste que les images standards de magnitude.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.
Resumo:
L'utilisation des informations proprioceptives pour le contrôle de l’équilibre à la marche est encore mal comprise chez les sujets en santé ou hémiparétiques suite à un accident vasculaire cérébral. Le but de cette étude était d’évaluer le rôle des informations proprioceptives dans le maintien de l'équilibre à la marche chez les patients en santé et hémiparétiques. Une analyse de mouvement en trois dimensions a été faite chez treize participants en santé et six hémiparétiques qui marchaient sur un tapis roulant instrumenté pour déterminer leur difficulté à maintenir l’équilibre postural et dynamique, évaluée respectivement par les forces stabilisante et déstabilisante. Des vibrations étaient appliquées en continu ou pendant la phase d’appui sur les muscles postérieurs du cou et sur le triceps sural du côté non-dominant/parétique. La vibration continue ou à l’appui du triceps sural a diminué, chez les sujets en santé, la difficulté à maintenir l’équilibre dynamique et postural (p< 0,01), avec une position du corps plus en arrière, sans changement des paramètres temporels de marche. L'équilibre et les paramètres temporels de la marche n'étaient pas modifiés significativement par la vibration à la nuque (p>.17). Aucun effet des vibrations n'a été mesuré chez les patients hémiparétiques (p> 0,45). Les informations proprioceptives sont donc bien utilisées lors de la marche, mais leur rôle dépendrait des conditions de marche et des afférences visuelles disponibles. Un changement dans les capacités d’intégration expliquerait l'absence d'effet des vibrations chez les patients hémiparétiques. D’autres études sont nécessaires pour comprendre l’intégration des informations proprioceptives et visuelles dans le contrôle de l’équilibre à la marche.
Resumo:
L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.
Resumo:
Le diabète de type 2 affecte en moyenne 29% de la population adulte crie d’Eeyou Istchee (CEI). Afin d’identifier les plantes médicinales possédant un potentiel antidiabétique, des interviews ont été réalisés dans les communautés CEI de Wemindji et Oujé-Bougoumou. Utilisant une approche quantitative, les espèces mentionnées ont été classées et comparées à la pharmacopée des communautés avoisinantes. Seize et 25 plantes ont été mentionné à Wemindji et Oujé-Bougoumou, respectivement. Sept nouvelles espèces de plantes et une de champignon se sont ajoutées à la liste des espèces à potentiel antidiabétique, bien que la plupart de celles mentionnées pendant les interviews soit en communes à la pharmacopée CEI générale, démontrant ainsi leur importance culturelle. Des analyses phytochimiques sur deux de ces espèces, Rhododendron groenlandicum et Sarracenia purpurea, ont été réalisées à partir d’échantillons récoltés à différents endroits du territoire eeyouch. Bien qu’aucun patron n’ait été détecté dans la variation des composantes biologiquement actives chez S. purpurea, les composés phénoliques chez R. groenlandicum, particulièrement la (+)-catéchine, l’(-)-epicatéchine et la quercétine-3-galactoside, varient spatialement en fonction de paramètres d’insolation telles la radiation solaire ou la photopériode. Les échantillons de cette dernière espèce, testés in vitro dans le bioessai de l’adipogenèse des cellules adipocytes murines 3T3-L1, augmentent l’accumulation intracellulaire des triglycérides, leur conférant ainsi une activité diabétique semblable à la rosiglitazone. Cependant, cette activité était plus faible dans les échantillons à haute teneur en quercétine, cela pouvant ainsi avoir un impact sur la qualité d'un produit de santé naturel fabriqué à partir de cette espèce.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Les penseurs de l’herméneutique du XXe siècle ont redéfini essentiellement l’humain comme un être en quête de sens, interprétant sans cesse le ‘monde’ à travers ‘son propre monde’, cette compréhension transformante contribuant à son devenir. Serait-il pertinent dans une recherche de sens qui caractérise une démarche de foi, d’utiliser des outils herméneutiques ouvrant les Écritures sur d’autres possibles que ce que la Tradition chrétienne propose aujourd’hui ? Le présent mémoire veut répondre par l’affirmative à ce défi, en appliquant une approche processuelle sur le chapitre 16 du livre d’Ézéchiel, un prophète avec lequel la tradition juive a gardé une certaine prudence et un texte particulièrement osé que la pastorale chrétienne a ignoré. Après une mise en situation qui trace les paramètres fondamentaux de la démarche entreprise dans ce mémoire (chapitre 1), une traduction littérale du texte hébreu est proposée, faisant ressortir les nuances que suggèrent les formes verbales et les éléments particuliers que révèle une analyse macro-syntaxique (chapitre 2); la méthode d’analyse processuelle choisie pour interpréter le texte est inédite dans le monde francophone, tout comme la perspective processuelle de l’étude telle qu’elle se déploie dans les chapitres 3 et 4 du mémoire. L’analyse débouche sur des propositions théologiques originales, redéfinissant notamment la Toute-Puissance divine comme un entêtement qui cherche à convaincre, et inscrivant le pardon divin au creux de la liberté et de la responsabilité humaines.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Chez le chien, la daltéparine est un anticoagulant utilisé pour la prévention et le traitement de la thrombose. La surveillance thérapeutique de la daltéparine par l’activité anti-facteur Xa (FXa) n’est pas un test fonctionnel. Cette étude avait pour but d’étudier l’emploi de la génération de thrombine (GT) pour évaluer les effets in vitro de la daltéparine sur du plasma canin, ainsi que pour détecter les effets pharmacodynamiques de la daltéparine administrée chez des chiens sains. Premièrement, les paramètres normaux de la GT ont été établis à partir du plasma de 25 beagles et 11 chiens sains de clients. Ensuite, des pools de plasma canin fortifié avec de la daltéparine, à dose croissante, ont été analysés selon la GT, l’activité anti-FXa et selon le temps de thromboplastine partielle activée (aPTT). Finalement, 24 beagles sains répartis au hasard dans 4 groupes on reçu soit une dose sous-cutanée (SC) de 50U/kg, 100U/kg ou 150U/kg de daltéparine ou un placebo. Du plasma pauvre en plaquettes (PPP) a été récolté pendant 24 heures et analysé selon la GT, l’anti-FXa et l’aPPT. In vitro, la daltéparine a démontré un effet anticoagulant sur la GT qui était concentration-dépendant. Les tests de GT et anti-FXa étaient plus sensibles aux effets de la daltéparine que l’aPPT. L’étude pharmacodynamique a démontré que le temps, la dose ainsi qu’une interaction temps*dose avaient un effet significatif sur les paramètres de GT et anti-FXa. La GT peut mesurer les effets pharmacodynamiques de la daltéparine à des doses variées chez des chiens sains.
Resumo:
Les brosses de polyélectrolytes font l’objet d’une attention particulière pour de nombreuses applications car elles présentent la capacité de changer de conformation et, par conséquent, de propriétés de surface en réponse aux conditions environnementales appliquées. Le contrôle des principaux paramètres de ces brosses telles que l'épaisseur, la composition et l'architecture macromoléculaire, est essentiel pour obtenir des polymères greffés bien définis. Ceci est possible avec la Polymérisation Radicalaire par Transfert d’Atomes - Initiée à partir de la Surface (PRTA-IS), qui permet la synthèse de brosses polymériques de manière contrôlée à partir d’une couche d'amorceurs immobilisés de manière covalente sur une surface. Le premier exemple d’une synthèse directe de brosses de poly(acide acrylique) (PAA) par polymérisation radicalaire dans l’eau a été démontré. Par greffage d’un marqueur fluorescent aux brosses de PAA et via l’utilisation de la microscopie de fluorescence par réflexion totale interne, le dégreffage du PAA en temps réel a pu être investigué. Des conditions environnementales de pH ≥ 9,5 en présence de sel, se sont avérées critiques pour la stabilité de la liaison substrat-amorceur, conduisant au dégreffage du polymère. Afin de protéger de l’hydrolyse cette liaison substrat-amorceur sensible et prévenir le dégreffage non souhaité du polymère, un espaceur hydrophobique de polystyrène (PS) a été inséré entre l'amorceur et le bloc de PAA stimuli-répondant. Les brosses de PS-PAA obtenues étaient stables pour des conditions extrêmes de pH et de force ionique. La réponse de ces brosses de copolymère bloc a été étudiée in situ par ellipsométrie, et le changement réversible de conformation collapsée à étirée, induit par les variations de pH a été démontré. De plus, des différences de conformation provenant des interactions du bloc de PAA avec des ions métalliques de valence variable ont été obtenues. Le copolymère bloc étudié semble donc prometteur pour la conception de matériaux répondant rapidement a divers stimuli. Par la suite, il a été démontré qu’un acide phosphonique pouvait être employé en tant qu’ amorceur PRTA-IS comme alternative aux organosilanes. Cet amorceur phosphonate a été greffé pour la première fois avec succès sur des substrats de silice et une PRTA-IS en milieux aqueux a permis la synthèse de brosses de PAA et de poly(sulfopropyl méthacrylate). La résistance accrue à l’hydrolyse de la liaison Sisubstrat-O- Pamorceur a été confirmée pour une large gamme de pH 7,5 à 10,5 et a permis l’étude des propriétés de friction des brosses de PAA sous différentes conditions expérimentales par mesure de forces de surface. Malgré la stabilité des brosses de PAA à haute charge appliquée, les études des propriétés de friction ne révèlent pas de changement significatif du coefficient de friction en fonction du pH et de la force ionique.
Resumo:
Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.
Resumo:
Cette thèse s'intéresse à l'étude des propriétés et applications de quatre familles des fonctions spéciales associées aux groupes de Weyl et dénotées $C$, $S$, $S^s$ et $S^l$. Ces fonctions peuvent être vues comme des généralisations des polynômes de Tchebyshev. Elles sont en lien avec des polynômes orthogonaux à plusieurs variables associés aux algèbres de Lie simples, par exemple les polynômes de Jacobi et de Macdonald. Elles ont plusieurs propriétés remarquables, dont l'orthogonalité continue et discrète. En particulier, il est prouvé dans la présente thèse que les fonctions $S^s$ et $S^l$ caractérisées par certains paramètres sont mutuellement orthogonales par rapport à une mesure discrète. Leur orthogonalité discrète permet de déduire deux types de transformées discrètes analogues aux transformées de Fourier pour chaque algèbre de Lie simple avec racines des longueurs différentes. Comme les polynômes de Tchebyshev, ces quatre familles des fonctions ont des applications en analyse numérique. On obtient dans cette thèse quelques formules de <
Resumo:
Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.