991 resultados para variable parameters
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
"Le sous-titre des Mélanges consacrés à Andrée Lajoie – Ledroit : une variable dépendante – n’est pas neutre : d’abord, parce qu’elle en est elle-même l’auteure ; ensuite, parce qu’elle a travaillé à traquer, dans la réalité phénoménale tout autant que discursive, toute prétention à la neutralité. Le concept de variable est intimement lié à la formulation d’une hypothèse dont on sait qu’elle se définit comme le pivot de l’élaboration d’un projet de recherche quand, une fois abreuvée d’un cadre théorique qui la surdétermine, elle bascule vers les efforts de démonstration et les stratégies de vérification appelés à l’infirmer définitivement ou à la confirmer toujours temporairement. Les variables, entre dimensions théoriques et indicateurs empiriques, obéissent à une structure interactionnelle dans une relation de causalité, de covariance, d’imputation, etc. Ces rapports soumettent l’observation à une dynamique présupposée entre des données inertes (variable indépendante) et des données mutantes (variable dépendante), souvent sous l’effet de facteurs de changements (variable intermédiaire). On parlera donc de variations impulsées par des combinaisons, des séquençages, des coordinations entre des concepts d’abord, puis entre des faits (incluant les faits discursifs) qui rendront compte plus adéquatement de la réalité et qui enrichiront les connaissances."
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
La variabilité des concentrations plasmatiques mesurées lors d’une anesthésie générale avec le propofol est directement reliée à une variabilité inter-animale, sa pharmacocinétique. L’objectif de cette étude est de caractériser la pharmacocinétique du propofol et de rechercher les effets des caractéristiques démographiques sur la variation des paramètres pharmacocinétiques. Les chiens (n=44) ayant participé à cette étude ont été anesthésiés au propofol à 6 mois (n=29), 12 (n=21) mois et/ou 24 mois (n=35). L’anesthésie a été induite avec du propofol (en moyenne 5 mg) et maintenue avec une perfusion (débit initial de 360 mg/kg/h). Des ajustements de perfusion ainsi que des bolus supplémentaires seront administrés si le comportement de l’animal l’exige. Une randomisation stratifiée des sexes aux deux groupes de prémédication, le premier recevant de l’acépropmazine (0,05 mg/kg en I.M.) et le deuxième une association d’acépromazine (0.05 mg/kg IM) et de butorphanol (0.1mg/kg IM). Des échantillons sanguins ont été prélevés de t=0 jusqu'à t=300 minutes ou plus. Au total 1339 prélèvements ont été analysés. Un modèle mamillaire à 3 compartiments décrit de manière adéquate nos données. Les valeurs moyennes de CLt V1, CL2, V2, CL3 and V3 sont respectivement égales à 0.65 L/min (SD=0.24), 2.6 L (SD=2.04), 2.24 L/min (1.43), 9.6 L (SD=7.49), 0.42 L/min (SD=0.199), 46.4 L (SD=40.6). Les paramètres pharmacocinétiques obtenus ont révélé une grande variabilité interindividuelle, en particulier CL2, V1, V2 et V3 .Le poids est une co-variable significative pour CLt et V2. L’âge est une co-variable significative pour CL3 et V3. L’ajout de la parenté pour V2 et V3 au modèle a amélioré la qualité de l’ajustement du modèle. Les paramètres V1 et CL2 sont indépendants des facteurs physiologiques étudiés.
Resumo:
Il existe plusieurs théories du contrôle moteur, chacune présumant qu’une différente variable du mouvement est réglée par le cortex moteur. On trouve parmi elles la théorie du modèle interne qui a émis l’hypothèse que le cortex moteur programme la trajectoire du mouvement et l’activité électromyographique (EMG) d’une action motrice. Une autre, appelée l’hypothèse du point d’équilibre, suggère que le cortex moteur établisse et rétablisse des seuils spatiaux; les positions des segments du corps auxquelles les muscles et les réflexes commencent à s’activer. Selon ce dernier, les paramètres du mouvement sont dérivés sans pré-programmation, en fonction de la différence entre la position actuelle et la position seuil des segments du corps. Pour examiner de plus près ces deux théories, nous avons examiné l’effet d’un changement volontaire de l’angle du coude sur les influences cortico-spinales chez des sujets sains en employant la stimulation magnétique transcrânienne (TMS) par-dessus le site du cortex moteur projetant aux motoneurones des muscles du coude. L’état de cette aire du cerveau a été évalué à un angle de flexion du coude activement établi par les sujets, ainsi qu’à un angle d’extension, représentant un déplacement dans le plan horizontal de 100°. L’EMG de deux fléchisseurs du coude (le biceps et le muscle brachio-radial) et de deux extenseurs (les chefs médial et latéral du triceps) a été enregistrée. L’état d’excitabilité des motoneurones peut influer sur les amplitudes des potentiels évoqués moteurs (MEPs) élicitées par la TMS. Deux techniques ont été entreprises dans le but de réduire l’effet de cette variable. La première était une perturbation mécanique qui raccourcissait les muscles à l'étude, produisant ainsi une période de silence EMG. La TMS a été envoyée avec un retard après la perturbation qui entraînait la production du MEP pendant la période de silence. La deuxième technique avait également le but d’équilibrer l’EMG des muscles aux deux angles du coude. Des forces assistantes ont été appliquées au bras par un moteur externe afin de compenser les forces produites par les muscles lorsqu’ils étaient actifs comme agonistes d’un mouvement. Les résultats des deux séries étaient analogues. Un muscle était facilité quand il prenait le rôle d’agoniste d’un mouvement, de manière à ce que les MEPs observés dans le biceps fussent de plus grandes amplitudes quand le coude était à la position de flexion, et ceux obtenus des deux extenseurs étaient plus grands à l’angle d’extension. Les MEPs examinés dans le muscle brachio-radial n'étaient pas significativement différents aux deux emplacements de l’articulation. Ces résultats démontrent que les influences cortico-spinales et l’activité EMG peuvent être dissociées, ce qui permet de conclure que la voie cortico-spinale ne programme pas l’EMG à être générée par les muscles. Ils suggèrent aussi que le système cortico-spinal établit les seuils spatiaux d’activation des muscles lorsqu’un segment se déplace d’une position à une autre. Cette idée suggère que des déficiences dans le contrôle des seuils spatiaux soient à la base de certains troubles moteurs d’origines neurologiques tels que l’hypotonie et la spasticité.
Resumo:
L'un des principaux défis de l'interprétation radiographique réside dans la compréhension de l’anatomie radiographique, laquelle est intrinsèquement liée à la disposition tridimensionnelle des structures anatomiques et à l’impact du positionnement du tube radiogène vis-à-vis de ces structures lors de l'acquisition de l'image. Traditionnellement, des radiographies obtenues selon des projections standard sont employées pour enseigner l'anatomie radiographique en médecine vétérinaire. La tomodensitométrie − ou communément appelée CT (Computed Tomography) − partage plusieurs des caractéristiques de la radiographie en ce qui a trait à la génération des images. À l’aide d'un plug-in spécialement développé (ORS Visual ©), la matrice contenant les images CT est déformée pour reproduire les effets géométriques propres au positionnement du tube et du détecteur vis-à-vis du patient radiographié, tout particulièrement les effets de magnification et de distorsion. Afin d'évaluer le rendu des images simulées, différentes régions corporelles ont été imagées au CT chez deux chiens, un chat et un cheval, avant d'être radiographiées suivant des protocoles d'examens standards. Pour valider le potentiel éducatif des simulations, dix radiologistes certifiés ont comparé à l'aveugle neuf séries d'images radiographiques simulées aux séries radiographiques standard. Plusieurs critères ont été évalués, soient le grade de visualisation des marqueurs anatomiques, le réalisme et la qualité radiographique des images, le positionnement du patient et le potentiel éducatif de celles-ci pour différents niveaux de formation vétérinaire. Les résultats généraux indiquent que les images radiographiques simulées à partir de ce modèle sont suffisamment représentatives de la réalité pour être employées dans l’enseignement de l’anatomie radiographique en médecine vétérinaire.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Le cancer de la prostate (CaP) est le plus diagnostiqué chez les hommes au Canada et représente le troisième cancer le plus meurtrier au sein de cette population. Malgré l’efficacité des traitements de première ligne, de nombreux patients finiront par développer une résistance et, le cas échéant, verront leur CaP progresser vers une forme plus agressive. Plusieurs paramètres, essentiellement cliniques, permettent de prédire la progression du CaP mais leur sensibilité, encore limitée, implique la nécessité de nouveaux biomarqueurs afin de combler cette lacune. Dans cette optique nous nous intéressons au facteur de transcription NF-κB. Des études réalisées au laboratoire et ailleurs, associent RelA(p65) à un potentiel clinique dans le CaP, soulignant ainsi l’importance de la voie classique NF-κB. L’implication de la voie alternative NF-κB dans la progression du CaP a aussi été suggérée dans une de nos études illustrant la corrélation entre la distribution nucléaire de RelB et le score de Gleason. Alors que la voie classique est largement documentée et son implication dans la progression du CaP établie, la voie alternative, elle, reste à explorer. La présente thèse vise à clarifier l’implication de la voie alternative NF-κB dans le CaP et répond à deux objectifs fixés dans ce but. Le premier objectif fut d’évaluer l’impact de l'activation de la voie alternative NF-κB sur la biologie des cellules cancéreuses prostatiques. L’étude de la surexpression de RelB a souligné les effets de la voie alternative NF-κB sur la prolifération et l'autophagie. Étant ainsi impliquée tant dans la croissance tumorale que dans un processus de plus en plus associée à la progression tumorale, quoique potentiellement létal pour les cellules cancéreuses, son impact sur la tumorigénèse du CaP reste encore difficile à définir. Il n'existe, à ce jour, aucune étude permettant de comparer le potentiel clinique des voies classique et alternative NF-κB. Le second objectif de ce projet fut donc l'analyse conjointe de RelA(p65) et RelB au sein de mêmes tissus de patients atteints de CaP afin de déterminer l'importance clinique des deux signalisations NF-κB, l'une par rapport à l'autre. Le marquage immunofluorescent de RelA(p65) et RelB en a permis l'analyse quantitative et objective par un logiciel d'imagerie. Nos travaux ont confirmé le potentiel clinique associé à RelA(p65). La variable RelA(p65)/RelB s’est, elle, avérée moins informative que RelA(p65). Par contre, aucune corrélation entre RelB et les paramètres cliniques inclus dans l'étude n’est ressortie. En définitive, mon projet de thèse aura permis de préciser l'implication de la voie alternative NF-κB sur la biologie du CaP. Son impact sur la croissance des cellules cancéreuses prostatiques ainsi que sur l'autophagie, dénote l’ambivalence de la voie alternative NF-κB face à la tumorigénèse du CaP. L’étude exhaustive de la signalisation NF-κB souligne davantage l'importance de la voie classique dont l’intérêt clinique est principalement associé au statut de RelA(p65). Ainsi, bien que RelB n’affiche aucun potentiel en tant que biomarqueur exploitable en clinique, l’analyse de l’intervention de la voie alternative NF-κB sur la biologie des cellules cancéreuses prostatiques reste d’intérêt pour la compréhension de son rôle exact dans la progression du CaP.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique.
Resumo:
Les brosses de polyélectrolytes font l’objet d’une attention particulière pour de nombreuses applications car elles présentent la capacité de changer de conformation et, par conséquent, de propriétés de surface en réponse aux conditions environnementales appliquées. Le contrôle des principaux paramètres de ces brosses telles que l'épaisseur, la composition et l'architecture macromoléculaire, est essentiel pour obtenir des polymères greffés bien définis. Ceci est possible avec la Polymérisation Radicalaire par Transfert d’Atomes - Initiée à partir de la Surface (PRTA-IS), qui permet la synthèse de brosses polymériques de manière contrôlée à partir d’une couche d'amorceurs immobilisés de manière covalente sur une surface. Le premier exemple d’une synthèse directe de brosses de poly(acide acrylique) (PAA) par polymérisation radicalaire dans l’eau a été démontré. Par greffage d’un marqueur fluorescent aux brosses de PAA et via l’utilisation de la microscopie de fluorescence par réflexion totale interne, le dégreffage du PAA en temps réel a pu être investigué. Des conditions environnementales de pH ≥ 9,5 en présence de sel, se sont avérées critiques pour la stabilité de la liaison substrat-amorceur, conduisant au dégreffage du polymère. Afin de protéger de l’hydrolyse cette liaison substrat-amorceur sensible et prévenir le dégreffage non souhaité du polymère, un espaceur hydrophobique de polystyrène (PS) a été inséré entre l'amorceur et le bloc de PAA stimuli-répondant. Les brosses de PS-PAA obtenues étaient stables pour des conditions extrêmes de pH et de force ionique. La réponse de ces brosses de copolymère bloc a été étudiée in situ par ellipsométrie, et le changement réversible de conformation collapsée à étirée, induit par les variations de pH a été démontré. De plus, des différences de conformation provenant des interactions du bloc de PAA avec des ions métalliques de valence variable ont été obtenues. Le copolymère bloc étudié semble donc prometteur pour la conception de matériaux répondant rapidement a divers stimuli. Par la suite, il a été démontré qu’un acide phosphonique pouvait être employé en tant qu’ amorceur PRTA-IS comme alternative aux organosilanes. Cet amorceur phosphonate a été greffé pour la première fois avec succès sur des substrats de silice et une PRTA-IS en milieux aqueux a permis la synthèse de brosses de PAA et de poly(sulfopropyl méthacrylate). La résistance accrue à l’hydrolyse de la liaison Sisubstrat-O- Pamorceur a été confirmée pour une large gamme de pH 7,5 à 10,5 et a permis l’étude des propriétés de friction des brosses de PAA sous différentes conditions expérimentales par mesure de forces de surface. Malgré la stabilité des brosses de PAA à haute charge appliquée, les études des propriétés de friction ne révèlent pas de changement significatif du coefficient de friction en fonction du pH et de la force ionique.
Resumo:
La sélénocystéine est le 21e acide aminé encodé génétiquement et on la retrouve à travers les trois domaines de la vie. Elle est synthétisée sur l'ARNtSec par un processus unique. L'ARNtSec se distingue également au niveau structural. La tige acceptrice possède 8 (procaryotes) et 9 (eucaryotes) paires de bases, contrairement aux ARNt canoniques qui ont invariablement 7 paires de bases dans la tige acceptrice. De plus, la tige D a 2 paires de bases additionnelles qui remplacent les interactions tertiaires universelles 8-14, 15-48 qui sont absentes chez l'ARNtSec. D'autre part, la longueur de la boucle variable de l'ARNtSec est plus longue que la majorité des ARNt de type II. Dans ce mémoire, on se concentre sur la région de la boucle variable de l'ARNtSec . La recherche consiste à distinguer les paires de bases de la boucle variable qui sont essentielles à la biosynthèse et l’insertion de la sélénocystéine. De plus, on regarde si la paire de base additionnelle de la tige acceptrice de l'ARNtSec (procaryote) est essentielle pour l'insertion de la sélénocystéine. Pour répondre à ces questions, on a utilisé l'approche expérimentale Évolution Instantanée qui consiste au criblage in vivo d'ARNtSec fonctionnels chez E. coli. Dans ce travail, on montre que l'insertion de la sélénocystéine ne nécessite pas une spécificité de la longueur ou de la séquence de l'ARNtSec. On montre aussi que ni la longueur de la tige acceptrice ou du domaine tige acceptrice/tige T n'est essentielle pour avoir un ARNtSec fonctionnel.