34 resultados para Analyse moyenne-variance
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
INTRODUCTION. La guérison rapide des sites donneurs des greffes cutanées favorise la survie des victimes de brûlures graves (>50 % de superficie brûlée). La mortalité élevée de ces patients est attribuable au fait que la superficie des brûlures excède celle de la peau saine. Des cultures épithéliales autologues (CEA) sont des feuillets de kératinocytes produits en culture à partir de la peau du patient. Cette étude a évalué l’effet des CEA sur l'épithélialisation des sites donneurs chez les grands brûlés. MÉTHODES. Tous les patients recevant des CEA ont été prospectivement inclus. Les plaies des sites donneurs ont été recouvertes de CEA, sauf pour une région contrôle randomisée de 7 x 7 cm. Des biopsies faites sur la greffe de peau ont permis de contrôler la profondeur des plaies sur les sites donneurs. Il y avait deux types de contrôles, avec gaze non adhérente trempée dans le milieu de culture ou dans le salin. L’épithélialisation était quantifiée globalement (% d’épithélialisation par photographie) et histologiquement (par biopsie au poinçon) à simple insu. La guérison des zones de contrôle et CEA était comparée par analyse de variance et par le test de Student. RÉSULTATS. Entre 2008 et 2009, 6 patients furent recrutés avec un total de 11 sites donneurs. Ces patients avaient en moyenne 43.5 ans, 56 % de superficie brûlée, 45% de brûlure pleine épaisseur, 66% avaient une brûlure d’inhalation, 75 jours de séjour. Il n’y a aucune corrélation entre le pourcentage d’épithélialisation et l’épaisseur du prélèvement des greffes (Pearson 0.19). Le score photographique est significativement influencé par le traitement (CEA vs Contrôle; p = 0,039) et par le jour postopératoire (p < 0,001). Le temps moyen pour atteindre un score photographique de guérison pour les zones contrôles fut de 10.2 jours contre 8.6 jours pour le CEA (p = 0,021). A l’évaluation histologique, les sites donneurs traités par le milieu de culture ont évolué aussi favorablement que ceux traités par des feuillets de CEA. CONCLUSION. L’utilisation de CEA sur les sites donneurs semble accélérer leur épithélialisation chez les victimes de brûlures graves. Cet effet est probablement le résultat d’une stimulation de la réépithélialisation innée de la plaie, plutôt que par une adhérence des feuillets de kératinocytes cultivés à la surface de la plaie.
Resumo:
In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.
Resumo:
Domaine en plein développement, le transfert des connaissances (TC) se définit, comme l’ensemble des activités, des mécanismes et des processus favorisant l’utilisation de connaissances pertinentes (tacites et empiriques) par un public cible tel que les intervenants psychosociaux. Cette recherche vise à améliorer l’efficacité des méthodes linéaires écrites de TC en identifiant mieux les besoins d’information des intervenants en protection de la jeunesse. Notons que les méthodes linéaires écrites de TC désignent des outils d’information écrits unidirectionnels tels que les revues, les publications, les sites Internet, etc. Le premier objectif est de déterminer les catégories de besoins exprimés par les intervenants, c’est-à-dire déterminer si les besoins rapportés par des intervenants se regroupent en types ou sortes de besoins. Le deuxième objectif est d’établir l’importance relative de chacune de ces catégories. Enfin, cette étude vise à déterminer si ces besoins diffèrent selon les caractéristiques des intervenants ou de l’environnement. Deux facteurs sont étudiés, l’expérience de l’intervenant et la direction pour laquelle celui-ci travaille (Direction des services milieu à l’enfance ou Direction des services milieu à l’adolescence et ressources). Un devis mixte séquentiel exploratoire a été développé. Lors de la première étape, une analyse thématique a été effectuée à partir des réponses à une question ouverte posée aux membres de trois équipes et à partir d’un document résumant les requêtes effectuées auprès de l’équipe de la bibliothèque du Centre jeunesse de Montréal. Les résultats permettent de répondre au premier objectif de ce mémoire. En effet, les analyses ont permis de créer un arbre thématique comprenant 42 éléments classés hiérarchiquement. Les besoins se regroupent en deux thèmes généraux, soit les besoins qui concernent les « opérations » (c’est-à-dire l’action de l’intervenant) et les besoins concernant les « systèmes » (c’est-à-dire les éléments sur lesquels peuvent porter l’intervention). Cette dernière catégorie se subdivise entre l’usager, ses environnements et le contexte culturel et sociétal. Lors de la deuxième étape, une analyse de la variance (ANOVA) et une analyse de variance multivariée (MANOVA) ont été effectuées à partir des réponses de 82 intervenants à un questionnaire en ligne structuré selon les catégories de besoins d’informations déterminées à l’étape qualitative précédente. Les résultats permettent de répondre au deuxième objectif de ce mémoire et de mesurer le degré de force ou d’importance de chacune des catégories de besoins, identifiées lors de la première étape, selon les intervenants eux-mêmes. Les besoins ont ainsi pu être classés par ordre décroissant d’importance. Il a été possible de définir un groupe de neuf besoins prioritaires (portant sur l’animation, les caractéristiques personnelles des usagers, les caractéristiques des parents et leurs relations avec l’enfant, ainsi que l’intervention interculturelle et les problématiques sociales) et un autre groupe de sept besoins moins élevés (portant sur les autres « opérations » et les services professionnels dont a bénéficié l’usager). L’interprétation de ces résultats indique que les besoins en TC des intervenants se limitent aux informations qui concernent directement leur mandat, leur pratique ou les problématiques rencontrées. Les résultats de cette étape ont également permis de répondre au troisième objectif de ce mémoire. En effet, les résultats indiquent que l’importance ressentie des besoins (sur une échelle de 1 à 7) ne diffère pas significativement selon la direction pour laquelle travaille l’intervenant, mais elle diffère significativement selon l’expérience de ce dernier (moins de 10 ans ou plus de 10 ans). Cette différence est discutée et plusieurs hypothèses explicatives sont envisagées telles que l’accumulation de connaissances liée à l’expérience ou les changements cognitifs liés à l’expertise. Enfin, dans la discussion, les résultats sont mis en contexte parmi les autres types de besoins existants et les autres caractéristiques des connaissances qui doivent être prises en considération. Cela permet de formuler des recommandations pour améliorer la production de documents écrits ainsi que pour poursuivre la recherche dans le domaine de l’évaluation des besoins de TC. Bien que présentant certaines limites méthodologiques, cette recherche ouvre la voie au développement de meilleurs outils d’évaluation des besoins et à l’amélioration des techniques de transfert linéaires écrites.
Resumo:
Le sujet de la présente étude est la violence scolaire, phénomène complexe et polysémique qui préoccupe légitimement le monde de l’éducation depuis plus de trente ans. À partir des analyses factorielles exploratoires, analyses de variance factorielle et finalement analyses multivariées de covariance, cette recherche vise plus précisément à dégager la relation entre le climat scolaire, le contexte scolaire et les différents rôles adoptés par les élèves du niveau secondaire lors d’une situation de violence scolaire. Les données de la présente étude ont été collectées par Michel Janosz et son équipe pendant l’année 2010, dans quatre établissements éducatifs provenant d’une commission scolaire de la grande région de Montréal. L’échantillon de départ est composé de 1750 élèves qui fréquentent des classes ordinaires et spéciales du premier et deuxième cycle du secondaire âgés entre 10 et 18 ans. Pour fins d’analyse, deux petites écoles ainsi que les classes spéciales ont été retirées. Il demeure donc 1551 élèves dans l’échantillon initial analysé. Les résultats des analyses permettent de constater d’une part, la relation significative existante entre les dimensions du climat scolaire et l’adoption des différents rôles lors d’une situation de violence scolaire, les climats d’appartenance et de sécurité étant les plus importants, et d’autre part d’observer des différences dans les perceptions que les élèves ont de la violence scolaire selon le niveau et selon l’école.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Depuis le début du XXe siècle, les architectes et ingénieurs anticipaient et idéalisaient l'industrialisation des bâtiments afin que les pièces des édifices puissent être conçues dans une usine de montage pour procéder ensuite à leur assemblage sur les chantiers. À l'heure actuelle, grâce à des chercheurs dédiés, cette industrialisation s’est concrétisée et de nombreux systèmes de construction industrialisés existent dans le monde entier, adaptés à des environnements particuliers. Dans ce contexte, cette étude a pour but d'analyser comparativement plusieurs systèmes à l’aide de certains critères d’évaluation, et de sélectionner, deux systèmes préfabriqués les mieux adaptés aux habitations multifamiliales verticales destinées à une population de classe moyenne aisée de la ville de Recife, au Brésil. La méthodologie s’inspire de l'approche systémique, utilisée par White (1970) et Richard (2002), les deux se caractérisant par une démarche évaluative. Ainsi avons-nous choisi comme étant les plus appropriés, parce que répondant bien au cadre général de Recife, le système préusiné en panneaux DESCON ainsi que celui de poutres et colonnes, commercialisé par les entreprises T&A et PDI, les deux en béton.
Resumo:
Objectifs: L’objectif principal de ce mémoire consiste à comprendre les caractéristiques des carrières criminelles d’individus connus de la police pour avoir perpétré une infraction de leurre d’enfants sur Internet. Aussi, par une analyse typologique à l’aide des antécédents criminels, il sera possible d’établir une typologie d’individus ayant leurré des enfants sur Internet. Également, il sera question de vérifier s’il y a un lien entre les caractéristiques des antécédents criminels de ces individus sur la perpétration de l’agression sexuelle hors ligne. Méthodologie: Provenant de données officielles de la communauté policière du Québec, l’échantillon comprend les parcours de criminels ayant perpétré une infraction de leurre d’enfants sur Internet. Des analyses descriptives en lien avec les différents paramètres de la carrière criminelle seront effectuées. Ensuite, des tests de moyenne et une analyse de régression Cox permettront de vérifier la présence ou non d’un lien statistique entre les caractéristiques des antécédents criminels des individus connus de la police pour leurre d’enfants sur Internet et le passage à l’acte physique. Résultats: Les analyses ont montré que la majorité des sujets n’avaient aucun antécédent judiciaire. Pour la plupart, le leurre d’enfants est le crime le plus grave perpétré au cours de leur carrière criminelle. Trois catégories d’individus ont été décelées : les amateurs, les spécialistes et les généralistes. Ce sont les individus polymorphes ayant une carrière criminelle plus grave et plus longue qui sont portés à agresser sexuellement avant le leurre. Cependant, ce sont des individus spécialisés ayant une importante proportion de délits sexuels dans leurs antécédents criminels qui ont plus de chance d’agresser sexuellement suite à l’exploitation sexuelle sur Internet.
Resumo:
This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.
Resumo:
This paper addresses the issue of estimating semiparametric time series models specified by their conditional mean and conditional variance. We stress the importance of using joint restrictions on the mean and variance. This leads us to take into account the covariance between the mean and the variance and the variance of the variance, that is, the skewness and kurtosis. We establish the direct links between the usual parametric estimation methods, namely, the QMLE, the GMM and the M-estimation. The ususal univariate QMLE is, under non-normality, less efficient than the optimal GMM estimator. However, the bivariate QMLE based on the dependent variable and its square is as efficient as the optimal GMM one. A Monte Carlo analysis confirms the relevance of our approach, in particular, the importance of skewness.