79 resultados para Paramètre de pénalisation

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Je ne me rappelle pas comment cela a commencé. Mais Andrée Lajoie et moi avons toujours entretenu le plaisir de la conversation. Sur les choses de la vie comme sur le droit. Pour lui rendre hommage dans ces Mélanges, j’ai imaginé une conversation que j’aurais pu avoir avec elle sur la pénalisation du tabagisme, un prétexte pour écrire sur l’émergence de normes pénales. Et pour relier cet échange imaginaire à des réflexions de sa propre recherche. En boutade, elle m’a souvent affirmé ne rien connaître au droit pénal. Je sais déjà que mes propres analyses sur l’émergence de normes pénales peuvent se rattacher à ses positions théoriques sur le droit. D’autres exposés exigeront peut-être de ma part plus que de la persuasion  rhétorique pour la convaincre du bien-fondé de certains points de vue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La recherche analyse le traitement réservé aux demandeurs d'asile au Canada.Plus spécialement, elle se penche sur l'interprétation et l’application de l’article 7 de la Charte canadienne des droits et libertés. La réflexion observe que la mise en œuvre des droits fondamentaux des revendicateurs du statut de réfugié est affectée, selon les époques, par des considérations à dominance « humanitaires » [arrêt Singh, 1985] ou, comme cela est le cas depuis le 11 septembre 2001, par des impératifs allégués de sécurité nationale [arrêt Suresh, 2002]. D’un point de vue analytique, la thèse considère que lorsqu'il s'agit de protéger des populations vulnérables – ce que le Canada s'est juridiquement engagé à faire – le droit public ne peut pas se limiter à la communauté de ses propres membres, citoyens et résidents. D'ailleurs, la Charte reconnaît la protection de ses droits fondamentaux à « toute personne » du fait de sa seule qualité de personne, qu'elle soit ou non citoyenne et la garde des abus. Des exceptions aux droits reconnus à l’article 7 doivent être considérées à la mesure du principe démocratique qui guide nos sociétés. Sur ce fondement, l’analyse interroge l’argumentation et les motivations de certaines décisions judiciaires et législatives qui ont déconsidérées les implications de notions porteuses de valeurs impératives, telles que l'équité, la dignité humaine, la liberté et la sécurité de l'individu, en privilégiant les intérêts étatiques conforment à la conception classique de la souveraineté.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a model of natural-resource exploitation when private ownership requires costly enforcement activities. For a given wage rate, it is shown how enforcement costs can increase with labor's average productivity on a resource site. As a result, it is never optimal for the site owner to produce at the point where marginal productivity equals the wage rate. It may even be optimal to exploit at a point exhibiting negative marginal returns. An important parameter in the analysis is the prevailing wage rate. When wages are low, further decreases in the wage rates can reduce the returns from resource exploitation. At sufficiently low wages, positive returns can be rendered impossible to achieve and the site is abandoned to a free-access exploitation. The analysis provides some clues as to why property rights may be more difficult to delineate in less developed countries. It proposes a different framework from which to address normative issues such as the desirability of free trade with endogenous enforcement costs, the optimality of private decisions to enforce property rights, the effect of income distribution on property rights enforceability, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies the interdependence between fiscal and monetary policies, and their joint role in the determination of the price level. The government is characterized by a long-run fiscal policy rule whereby a given fraction of the outstanding debt, say d, is backed by the present discounted value of current and future primary surpluses. The remaining debt is backed by seigniorage revenue. The parameter d characterizes the interdependence between fiscal and monetary authorities. It is shown that in a standard monetary economy, this policy rule implies that the price level depends not only on the money stock, but also on the proportion of debt that is backed with money. Empirical estimates of d are obtained for OECD countries using data on nominal consumption, monetary base, and debt. Results indicate that debt plays only a minor role in the determination of the price level in these economies. Estimates of d correlate well with institutional measures of central bank independence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose an alternate parameterization of stationary regular finite-state Markov chains, and a decomposition of the parameter into time reversible and time irreversible parts. We demonstrate some useful properties of the decomposition, and propose an index for a certain type of time irreversibility. Two empirical examples illustrate the use of the proposed parameter, decomposition and index. One involves observed states; the other, latent states.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur DcR3 (Decoy receptor 3) est un membre de la famille des récepteurs aux facteurs de nécrose tumorale (TNF). Il est fortement exprimé dans les tissus humains normaux ainsi que les tumeurs malignes. DcR3 est un récepteur pour trois ligands de la famille du TNF tels que FasL, LIGHT et TL1A. Étant une protéine soluble donc dépourvue de la portion transmembranaire et intracytoplasmique, le récepteur DcR3 est incapable d’effectuer une transduction de signal intracellulaire à la suite de son interaction avec ses ligands. De ce fait, DcR3 joue un rôle de compétiteur pour ces derniers, afin d’inhiber la signalisation via leurs récepteurs fonctionnels tels que Fas, HVEM/LTbetaR et DR3. Lors de nos précédentes études, nous avons pu démontrer, que DcR3 pouvaist moduler la fonction des cellules immunitaires, et aussi protéger la viabilité des îlots de Langerhans. À la suite de ces résultats, nous avons généré des souris DcR3 transgéniques (Tg) en utilisant le promoteur du gène β-actine humaine afin d’étudier plus amplement la fonction de ce récepteur. Les souris Tg DcR3 ont finalement développé le syndrome lupus-like (SLE) seulement après l’âge de 6 mois. Ces souris présentent une variété d'auto-anticorps comprenant des anticorps anti-noyaux et anti-ADN. Elles ont également manifesté des lésions rénales, cutanées, hépatiques et hématopoïétiques. Contrairement aux modèles de lupus murin lpr et gld, les souris DcR3 sont plus proche du SLE humain en terme de réponse immunitaire de type Th2 et de production d'anticorps d'anti-Sm. En péus, nous avons constaté que les cellules hématopoïétiques produisant DcR3 sont suffisantes pour causer ces pathologies. DcR3 peut agir en perturbant l’homéostasie des cellules T pour interférer avec la tolérance périphérique, et ainsi induire l'autoimmunité. Chez l'humain, nous avons détecté dans le sérum de patients SLE des niveaux élevés de la protéine DcR3. Chez certains patients, comme chez la souris, ces niveaux sont liés directement aux titres élevés d’IgE. Par conséquent, DcR3 peut représenter un facteur pathogénique important du SLE humain. L’étude des souris Tg DcR3, nous a permis aussi d’élucider le mécanisme de protection des îlots de Langerhans. Le blocage de la signalisation des ligands LIGHT et TL1A par DcR3 est impliqué dans une telle protection. D'ailleurs, nous avons identifié par ARN microarray quelques molécules en aval de cette interaction, qui peuvent jouer un rôle dans le mécanisme d’action. Nous avons par la suite confirmé que Adcyap1 et Bank1 joue un rôle critique dans la protection des îlots de Langerhans médiée par DcR3. Notre étude a ainsi élucidé le lien qui existe entre la signalisation apoptotique médiée par Fas/FasL et la pathogénèse du SLE humain. Donc, malgré l’absence de mutations génétiques sur Fas et FasL dans le cas de cette pathologie, DcR3 est capable de beoquer cette signalisation et provoquer le SLE chez l’humain. Ainsi, DcR3 peut simultanément interférer avec la signalisation des ligands LIGHT et TL1A et causer un phénotype plus complexe que les phénotypes résultant de la mutation de Fas ou de FasL chez certains patients. DcR3 peut également être utilisé comme paramètre diagnostique potentiel pour le SLE. Les découvertes du mécanisme de protection des îlots de Langerhans par DcR3 ouvrent la porte vers de nouveaux horizons afin d'explorer de nouvelles cibles thérapeutiques pour protéger la greffe d'îlots.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire est le cancer gynécologique le plus agressif avec le plus haut taux de mortalité. La croissance des cellules cancéreuses de l’ovaire est limitée par les nutriments de l’environnement, le fer étant un des éléments indispensables à leur prolifération. L’hémochromatose héréditaire est une maladie associée à une accumulation corporelle de fer. Cette maladie est liée à deux mutations majeures du gène HFE soit H63D et C282Y. Étant donnée l’influence de la protéine HFE sur l’entrée du fer dans la cellule, des mutations du gène HFE pourraient être associées à une croissance rapide des cellules cancéreuses. Des études de génotypage du gène HFE effectuées chez 526 patientes avec cancer épithélial de l’ovaire, ont révélées une fréquence allélique de la mutation C282Y significativement plus élevées chez les patientes avec tumeur ovarienne comparativement aux patientes du groupe contrôle (5.9% versus 1.3%, p = 0.02). De plus, le taux de survie des patientes avec mutations C282Y et tumeur ovarienne de G3, après 2 ans, est faible (20%) lorsque comparé à celui des patientes sans mutations (60%, p = 0.005). Une analyse de régression multivariée de Cox a démontrée un risque relatif de 3.1, suggérant que les patientes avec mutations C282Y ont 3 fois plus de chance d’avoir une faible survie (p=0.001). Également, des études de corrélation ont démontrées que les niveaux de ferritine du sérum étaient plus élevés chez les patientes avec grade avancé du cancer épithélial de l’ovaire (r = 0.445 et p= 0.00001), suggérant que ce paramètre pourrait servir comme marqueur tumoral. Afin de comprendre ces résultats, nous avons tout d’abord étudiés l’influence des mutations HFE sur les cellules cancéreuses. Pour ce faire, la lignée du cancer de l’ovaire TOV-112D, homozygote pour la mutation C282Y, a été transfectée avec les vecteurs HFEwt et HFEC282Y. Bien qu’aucune différence significative n’ait été trouvée en termes de TfR totaux, des analyses par FACS ont démontrées un phénotype de déficience de fer pour les clones stables HFEwt. In vitro, la restauration de la protéine HFE, dans la lignée TOV-112D du cancer de l’ovaire, n’influence pas la croissance cellulaire. Ensuite, nous avons étudiés l’influence des niveaux de fer sur la progression tumorale. Une expérience in vivo préliminaire a démontré une tendance à un volume tumoral supérieur dans un modèle de souris de surcharge de fer,HfeRag1-/-. De plus, les souris HfeRag1-/-, injectées avec la lignée du cancer de l’ovaire TOV-21G, ont montrées des niveaux significativement plus faibles de fer sérique comparativement à leur contrôle (fer sérique 40±7μM versus 27±6μM, p = 0.001). En conclusion, des études supplémentaires sont nécessaires afin de comprendre davantage le rôle des mutations HFE sur la progression tumorale. Notamment, les niveaux élevés de fer pourraient rendre les cellules tumorales résistantes aux traitements ou encore, augmenter la toxicité et ainsi, contribuer à un mauvais prognostique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.