15 resultados para non-uniform scale perturbation finite difference scheme
em Université de Montréal, Canada
Resumo:
Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Un algorithme permettant de discrétiser les équations aux dérivées partielles (EDP) tout en préservant leurs symétries de Lie est élaboré. Ceci est rendu possible grâce à l'utilisation de dérivées partielles discrètes se transformant comme les dérivées partielles continues sous l'action de groupes de Lie locaux. Dans les applications, beaucoup d'EDP sont invariantes sous l'action de transformations ponctuelles de Lie de dimension infinie qui font partie de ce que l'on désigne comme des pseudo-groupes de Lie. Afin d'étendre la méthode de discrétisation préservant les symétries à ces équations, une discrétisation des pseudo-groupes est proposée. Cette discrétisation a pour effet de transformer les symétries ponctuelles en symétries généralisées dans l'espace discret. Des schémas invariants sont ensuite créés pour un certain nombre d'EDP. Dans tous les cas, des tests numériques montrent que les schémas invariants approximent mieux leur équivalent continu que les différences finies standard.
Resumo:
La méthode IIM (Immersed Interface Method) permet d'étendre certaines méthodes numériques à des problèmes présentant des discontinuités. Elle est utilisée ici pour étudier un fluide incompressible régi par les équations de Navier-Stokes, dans lequel est immergée une membrane exerçant une force singulière. Nous utilisons une méthode de projection dans une grille de différences finies de type MAC. Une dérivation très complète des conditions de saut dans le cas où la viscosité est continue est présentée en annexe. Deux exemples numériques sont présentés : l'un sans membrane, et l'un où la membrane est immobile. Le cas général d'une membrane mobile est aussi étudié en profondeur.
Resumo:
Un modèle mathématique de la propagation de la malaria en temps discret est élaboré en vue de déterminer l'influence qu'un déplacement des populations des zones rurales vers les zones urbaines aurait sur la persistance ou la diminution de l'incidence de la malaria. Ce modèle, sous la forme d'un système de quatorze équations aux différences finies, est ensuite comparé à un modèle analogue mais en temps continu, qui prend la forme d'équations différentielles ordinaires. Une étude comparative avec la littérature récente permet de déterminer les forces et les faiblesses de notre modèle.
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
Introduction : Malgré leur état non-prolifératif in vivo, les cellules endothéliales cornéennes (CEC) peuvent être amplifiées in vitro. Leur transplantation subséquente par injection intracamérale pourrait surmonter la pénurie de tissus associée à l’allo-greffe traditionnelle – l’unique traitement définitif disponible pour les endothéliopathies cornéennes. Objectif : Évaluer la fonctionnalité d’un endothélium cornéen reconstitué par injection de CEC dans la chambre antérieure du félin. Méthodes : Les yeux droits de 16 animaux ont été opérés. Huit ont été désendothélialisés centralement avec injection de 2x10e5 (n=4) ou 1x10e6 (n=4) CEC félines supplémentées avec Y-27632 et marquées avec SP-DiOC18(3). Deux ont été désendothélialisés complètement et injectés avec 1x10e6 CEC et Y-27632. Six contrôles ont été désendothélialisés centralement (n=3) ou complètement (n=3) et injectés avec Y-27632 sans CEC. La performance clinique, l’intégrité anatomique, le phénotype fonctionnel et l’expression de SP-DiOC18(3) du nouvel endothélium ont été étudiés. Résultats : Les cornées greffées avec 2x10e5 CEC et les contrôles désendothélialisés centralement ont réussi le mieux cliniquement. Les contrôles désendothélialisés complètement sont restés opaques. L’histopathologie a révélé une monocouche endothéliale fonctionnelle dans les cornées greffées avec 2x10e5 CEC et les contrôles désendothélialisés centralement, une multicouche endothéliale non-fonctionnelle dans les cornées désendothélialisées centralement et greffées avec 1x10e6 CEC, et un endothélium fibrotique non-fonctionnel dans les cornées désendothélialisées complètement. L’expression de SP-DiOC18(3) était rare dans les greffes. Conclusion : La thérapie par injection cellulaire a reconstitué un endothélium partiellement fonctionnel, auquel les CEC injectées n’ont contribué que peu. L’injection de Y-27632 sans CEC a reconstitué l’endothélium le plus sain. Des études additionnelles investiguant l’effet thérapeutique de Y-27632 seul sont justifiées.
Resumo:
In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.
Resumo:
In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Ce mémoire présente l’évaluation du remodelage osseux autour des composantes acétabulaires non cimentées press-fit d’une arthroplastie de resurfaçage (RH) et d’une prothèse totale de hanche (PTH) après un minimum de 21 mois d’implantation. Nous avons mesuré par l’absorptiométrie à rayons X en double énergie (DEXA) la densité minérale osseuse (DMO) supra acétabulaire chez 60 patients (44 RH, 16 PTH). Aucune différence significative de la moyenne des DMO au niveau de la zone globale et de la zone centrale de l’acétabulum n’a été trouvée entre la hanche opérée et la hanche controlatérale, dans les deux groupes de traitement. Cependant, la DMO des zones corticospongieuses médiale et latérale est plus élevée du côté opéré par rapport au côté non opéré avec la cupule en chrome cobalt de la RH; (p=0,014 et 0,031 respectivement). Alors que pour la PTH avec une cupule en titane, la différence de la DMO au niveau de ces zones n’est pas significative; (p=0,130 et 0,733). Ces données semblent démontrer qu’avec des cupules plus rigides, il y a transfert des contraintes de charges vers la périphérie corticale. C’est la première étude à évaluer le remodelage osseux péri acétabulaire avec un RH. Cela montre que la DMO est relativement préservée et que le transfert des contraintes vers la périphérie peut être favorable au maintien de la stabilité de l’implant primaire et aux éventuelles révisions de la cupule press-fit du RH.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.