10 resultados para Coupling and Integration of Hydrologic Models II
em Université de Montréal, Canada
Resumo:
Introduction: Le but de l’étude était d’examiner l’effet des matériaux à empreintes sur la précision et la fiabilité des modèles d’études numériques. Méthodes: Vingt-cinq paires de modèles en plâtre ont été choisies au hasard parmi les dossiers de la clinique d’orthodontie de l’Université de Montréal. Une empreinte en alginate (Kromopan 100), une empreinte en substitut d’alginate (Alginot), et une empreinte en PVS (Aquasil) ont été prises de chaque arcade pour tous les patients. Les empreintes ont été envoyées chez Orthobyte pour la coulée des modèles en plâtre et la numérisation des modèles numériques. Les analyses de Bolton 6 et 12, leurs mesures constituantes, le surplomb vertical (overbite), le surplomb horizontal (overjet) et la longueur d’arcade ont été utilisés pour comparaisons. Résultats : La corrélation entre mesures répétées était de bonne à excellente pour les modèles en plâtre et pour les modèles numériques. La tendance voulait que les mesures répétées sur les modèles en plâtre furent plus fiables. Il existait des différences statistiquement significatives pour l’analyse de Bolton 12, pour la longueur d’arcade mandibulaire, et pour le chevauchement mandibulaire, ce pour tous les matériaux à empreintes. La tendance observée fut que les mesures sur les modèles en plâtre étaient plus petites pour l’analyse de Bolton 12 mais plus grandes pour la longueur d’arcade et pour le chevauchement mandibulaire. Malgré les différences statistiquement significatives trouvées, ces différences n’avaient aucune signification clinique. Conclusions : La précision et la fiabilité du logiciel pour l’analyse complète des modèles numériques sont cliniquement acceptables quand on les compare avec les résultats de l’analyse traditionnelle sur modèles en plâtre.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
Le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes canadiens et la troisième cause de décès relié au cancer. Lorsque diagnostiqué à un stade précoce de la maladie, le cancer de la prostate est traité de manière curative par chirurgie et radiothérapie. Par contre, les thérapies actuelles ne peuvent éradiquer la maladie lorsqu’elle progresse à des stades avancés. Ces thérapies, comme la chimiothérapie et l’hormonothérapie, demeurent donc palliatives. Il est primordial d’optimiser de nouvelles thérapies visant l’élimination des cellules cancéreuses chez les patients atteints des stades avancés de la maladie. Une de ces nouvelles options thérapeutiques est l’immunothérapie. L’immunothérapie du cancer a fait des progrès considérables durant les dernières années. Cependant, les avancements encourageants obtenus lors d’essais précliniques ne se sont pas encore traduits en des résultats cliniques significatifs. En ce qui concerne le cancer de la prostate, les résultats négligeables suivants des interventions immunothérapeutiques peuvent être causés par le fait que la plupart des études sur le microenvironnement immunologique furent effectuées chez des modèles animaux. De plus la majorité des études sur l’immunologie tumorale humaine furent effectuées chez des patients atteints d’autres cancers, tels que le mélanome, et non chez les patients atteints du cancer de la prostate. Donc, le but central de cette thèse de doctorat est d’étudier le microenvironnement immunologique chez les patients atteints du cancer de la prostate afin de mieux définir les impacts de la tumeur sur le développement de la réponse immunitaire antitumorale. Pour réaliser ce projet, nous avons établi deux principaux objectifs de travail : (i) la caractérisation précise des populations des cellules immunitaires infiltrant la tumeur primaire et les ganglions métastatiques chez les patients atteints du cancer de la prostate; (ii) l’identification et l’étude des mécanismes immunosuppressifs exprimés par les cellules cancéreuses de la prostate. Les résultats présentés dans cette thèse démontrent que la progression du cancer de la prostate est associée au développement d’un microenvironnement immunosuppressif qui, en partie, est régulé par la présence des androgènes. L’étude initiale avait comme but la caractérisation du microenvironnement immunologique des ganglions drainant la tumeur chez des patients du cancer de la prostate. Les résultats présentés dans le chapitre III nous a permis de démontrer que les ganglions métastatiques comportent des signes cellulaires et histopathologiques associés à une faible réactivité immunologique. Cette immunosuppression ganglionnaire semble dépendre de la présence des cellules métastatiques puisque des différences immunologiques notables existent entre les ganglions non-métastatiques et métastatiques chez un même patient. La progression du cancer de la prostate semble donc associée au développement d’une immunosuppression affectant les ganglions drainant la tumeur primaire. Par la suite, nous nous sommes intéressés à l’impact de la thérapie par déplétion des androgènes (TDA) sur le microenvironnement immunologique de la tumeur primaire. La TDA est associée à une augmentation marquée de l’inflammation prostatique. De plus, les protocoles d’immunothérapies pour le cancer de la prostate actuellement évalués en phase clinique sont dirigés aux patients hormonoréfractaires ayant subi et échoué la thérapie. Cependant, peu d’information existe sur la nature de l’infiltrat de cellules immunes chez les patients castrés. Il est donc essentiel de connaître la nature de cet infiltrat afin de savoir si celui-ci peut répondre de manière favorable à une intervention immunothérapeutique. Dans le chapitre IV, je présente les résultats sur l’abondance des cellules immunes infiltrant la tumeur primaire suivant la TDA. Chez les patients castrés, les densités de lymphocytes T CD3+ et CD8+ ainsi que des macrophages CD68+ sont plus importantes que chez les patients contrôles. Nous avons également observé une corrélation entre la densité de cellules NK et une diminution du risque de progression de la maladie (rechute biochimique). Inversement, une forte infiltration de macrophages est associée à un plus haut risque de progression. Conjointement, durant cette étude, nous avons développé une nouvelle approche informatisée permettant la standardisation de la quantification de l’infiltrat de cellules immunes dans les échantillons pathologiques. Cette approche facilitera la comparaison d’études indépendantes sur la densité de l’infiltrat immun. Ces résultats nous ont donc permis de confirmer que les effets pro-inflammatoires de la TDA chez les patients du cancer de la prostate ciblaient spécifiquement les lymphocytes T et les macrophages. L’hypothèse intéressante découlant de cette étude est que les androgènes pourraient réguler l’expression de mécanismes immunosuppressifs dans la tumeur primaire. Dans le chapitre V, nous avons donc étudié l’expression de mécanismes immunosuppressifs par les cellules cancéreuses du cancer de la prostate ainsi que leur régulation par les androgènes. Notre analyse démontre que les androgènes augmentent l’expression de molécules à propriétés immunosuppressives telles que l’arginase I et l’arginase II. Cette surexpression dépend de l’activité du récepteur aux androgènes. Chez les patients castrés, l’expression de l’arginase II était diminuée suggérant une régulation androgénique in vivo. Nous avons observé que l’arginase I et l’arginase II participent à la prolifération des cellules du cancer de la prostate ainsi qu’à leur potentiel immunosuppressif. Finalement, nous avons découvert que l’expression de l’interleukin-8 était aussi régulée par les androgènes. De plus, l’interleukin-8, indépendamment des androgènes, augmente l’expression de l’arginase II. Ces résultats confirment que les androgènes participent au développement d’une microenvironnement immunosuppressif dans le cancer de la prostate en régulant l’expression de l’arginase I, l’arginase II et l’interleukin-8. En conclusion, les résultats présentés dans cette thèse témoignent du caractère unique du microenvironnement immunologique chez les patients atteints du cancer de la prostate. Nos travaux ont également permis d’établir de nouvelles techniques basées sur des logiciels d’analyse d’image afin de mieux comprendre le dialogue entre la tumeur et le système immunitaire chez les patients. Approfondir les connaissances sur les mécanismes de régulation du microenvironnement immunologique chez les patients atteint du cancer de la prostate permettra d’optimiser des immunothérapies mieux adaptées à éradiquer cette maladie.
Resumo:
L’intégration du génome du virus papilloma humain (VPH) a été reconnu jusqu’`a récemment comme étant un événnement fréquent mais pourtant tardif dans la progression de la maladie du col de l’utérus. La perspective temporelle vient, pourtant, d’être mise au défi par la détection de formes intégrées de VPH dans les tissus normaux et dans les lésions prénéoplasiques. Notre objectif était de déterminer la charge virale de VPH-16 et son état physique dans une série de 220 échantillons provenant de cols uterins normaux et avec des lésions de bas-grade. La technique quantitative de PCR en temps réel, méthode Taqman, nous a permis de quantifier le nombre de copies des gènes E6, E2, et de la B-globine, permettant ainsi l’évaluation de la charge virale et le ratio de E6/E2 pour chaque spécimen. Le ratio E6/E2 de 1.2 ou plus était suggestif d’intégration. Par la suite, le site d’intégration du VPH dans le génome humain a été déterminé par la téchnique de RS-PCR. La charge virale moyenne était de 57.5±324.6 copies d'ADN par cellule et le ratio E6/E2 a évalué neuf échantillons avec des formes d’HPV intégrées. Ces intégrants ont été amplifiés par RS-PCR, suivi de séquençage, et l’homologie des amplicons a été déterminée par le programme BLAST de NCBI afin d’identifier les jonctions virales-humaines. On a réussi `a identifier les jonctions humaines-virales pour le contrôle positif, c'est-à-dire les cellules SiHa, pourtant nous n’avons pas detecté d’intégration par la technique de RS-PCR dans les échantillons de cellules cervicales exfoliées provenant de tissus normaux et de lésions de bas-grade. Le VPH-16 est rarement intégré dans les spécimens de jeunes patientes.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
La polyvalence de la réaction de couplage-croisé C-N a été explorée pour la synthèse de deux nouvelles classes de ligands: (i) des ligands bidentates neutres de type N^N et (ii) des ligands tridentates neutres de type N^N^N. Ces classes de ligands contiennent des N-hétérocycles aromatiques saturés qui sont couplés avec hexahydropyrimidopyrimidine (hpp). Les ligands forment de cycles à six chaînons sur la coordination du centre Ru(II). Ce fait est avantageux pour améliorer les propriétés photophysiques des complexes de polypyridyl de Ru(II). Les complexes de Ru(II) avec des ligands bidentés ont des émissions qui dépendent de la basicité relative des N-hétérocycles. Bien que ces complexes sont électrochimiquement et photophysiquement attrayant, le problème de la stereopurité ne peut être évité. Une conception soigneuse du type de ligand nous permet de synthétiser un ligand bis-bidentate qui est utile pour surmonter le problème de stereopurité. En raison de la spécialité du ligand bis-bidentate, son complexe diruthénium(II,II) présente une grande diastéréosélectivité sans séparation chirale. Alors que l'unité de hpp agit comme un nucléophile dans le mécanisme de C-N réaction de couplage croisé, il peut également agir en tant que groupe partant, lorsqu'il est activé avec un complexe de monoruthenium. Les complexes achiraux de Ru(II) avec les ligands tridentés présentent des meilleures propriétés photophysiques en comparason avec les prototypes [Ru(tpy)2]2+ (tpy = 2,2′: 6′, 2′′-terpyridine). L’introduction de deux unités de hpp dans les ligands tridentates rend le complexe de Ru(II) en tant que ‘absorbeur noir’ et comme ‘NIR émetteur’ (NIR = de l’anglais, Near Infra-Red). Cet effet est une conséquence d'une meilleure géométrie de coordination octaédrique autour de l'ion Ru(II) et de la forte donation sigma des unités hpp. Les complexes du Re(I) avec des ligands tridentates présentent un comportement redox intéressant et ils émettent dans le bleu. L'oxydation quasi-réversible du métal est contrôlée par la donation sigma des fragments hpp, tandis que la réduction du ligand est régie par la nature électronique du motif N-hétérocycle central du ligand lui-même. Cette thèse presente également l'auto-assemblage des métal-chromophores comme ‘métallo-ligands’ pour former des espèces supramoléculaires discretes utilisant des complexes neutres. Les synthèses et propriétés des métaux-chromophores précités et les supramolécules sont discutées.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.