221 resultados para dépendance sérielle


Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

info:eu-repo/semantics/published

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper reviews the literature on clinical signs such as imitation behavior, grasp reaction, manipulation of tools, utilization behavior, environmental dependency, hyperlexia, hypergraphia and echolalia. Some aspects of this semiology are of special interest because they refer to essential notions such as free-will and autonomy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des Études supérieures En vue de l'obtention du grade de Maîtrise en droit des affaires (LL.M.)"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La croissance de la population vieillissante en Amérique du Nord a un impact significatif sur nos politiques sociales. Ainsi, l’État québécois met à la disposition des personnes âgées une aide afin de faciliter le maintien à domicile. Qui a maintenant la responsabilité de répondre aux besoins des personnes âgées; est-ce la famille ou l’État? Si la réponse peut nous aider à formuler des politiques sociales équitables, elle nous pousse aussi à repenser le lien social à la lumière de la dépendance. Dans un premier temps nous nous pencherons sur l’évolution de l’éthique de la sollicitude pour ensuite analyser les apports des études sur la production du handicap. Puisque la problématique de la dépendance s’avère cruciale dans ce débat, les écrits de deux théoriciens français, Albert Memmi et Bernard Ennuyer, nous aideront à élucider la question de la dépendance. Nous verrons par la suite comment ces divers apports peuvent nous amener à reconceptualiser le lien social.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’éthique du care est confrontée à un problème qui a des allures de paradoxe: bien que sa politisation paraisse nécessaire, l’éthique du care ne semble pas pouvoir trouver en elle-même les ressources suffisantes à la formulation d’une théorie politique compréhensive. Il ne semble pas exister de théorie politique du care à part entière. Cet article examine la fécondité d’un rapprochement entre éthique du care et théorie néorépublicaine de la non-domination. Le résultat, non négligeable, serait de garantir des formes importantes de protections aux activités de care, mais il cela n’empêcherait pas nécessairement les représentations négatives de ces activités, dont on peut supposer qu’elle est l’un des facteurs de la marginalisation et de la répartition inégale qui les affecte. Pour bloquer ces représentations dégradantes, il faudrait que le care soit discuté et défini dans l’espace public non seulement comme un lieu possible de la domination, mais comme un aspect fondamental et positif de la vie individuelle et collective.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse a comme objectif général d’enrichir la compréhension du phénomène de mise en œuvre des services cliniques intégrés en contexte organisationnel. Elle s’inscrit dans la perspective théorique du sensemaking organisationnel (Weick, 1995). Dans un premier temps, nous avons étudié comment des acteurs ont construit le sens du projet d’intégration qu’ils devaient mettre en œuvre, et les répercussions de cette construction de sens sur des enjeux cliniques et organisationnels. Le contexte étudié est une nouvelle organisation de santé créée afin d’offrir des services surspécialisés à des personnes aux prises avec un trouble concomitant de santé mentale et de dépendance. Une stratégie de recherche de type qualitatif a été utilisée. L’analyse a reposé sur des données longitudinales (8 ans) provenant de trois sources : des entrevues semi-dirigées, des observations et de l’analyse de documents. Deux articles en découlent. Alors que l’article 1 met l’accent sur la transformation des pratiques professionnelles, l’article 2 aborde le phénomène sous l’angle de l’identité organisationnelle. Dans un deuxième temps, nous avons réalisé une analyse critique des écrits. Celle-ci a porté sur les tendances actuelles dans la façon d’étudier la mise en œuvre des services intégrés pour les troubles concomitants. Les résultats obtenus sont présentés dans l’article 3. Quatre grands constats se dégagent de l’ensemble de ce travail. Le premier est que la mise en œuvre de services cliniques intégrés est un phénomène dynamique, mais sous contrainte. Autrement dit, il s’agit d’un phénomène évolutif qui se définit et se redéfinit au gré des événements, mais avec une tendance lourde à maintenir la direction dans laquelle il s’est déployé initialement. L’énaction et l’engagement des professionnels sont apparus des mécanismes explicatifs centraux à cet égard. Le second constat est que la mise en œuvre s’actualise à travers des niveaux d’intégration interdépendants, ce qui signifie que le contexte et l’objet qui est mis en œuvre coévoluent et se transforment mutuellement. Nos résultats ont montré que la notion de "pratiques de couplage" était utile pour capter cette dynamique. Notre troisième constat est que la mise en œuvre demeure profondément ancrée dans le sens que les membres organisationnels construisent collectivement du projet d’intégration à travers leurs actions et interactions quotidiennes. Cette construction de sens permet de comprendre comment le contenu et la forme du projet d’intégration se façonnent au gré des circonstances, tant dans ses aspects cliniques qu’organisationnels. Enfin, le quatrième constat est que ces dynamiques demeurent relativement peu explorées à ce jour dans les écrits sur l’implantation des services intégrés pour les troubles concomitants. Nous faisons l’hypothèse que ce manque de reconnaissance pourrait expliquer une partie des difficultés de mise en œuvre actuelles. Globalement, ces constats permettent d’enrichir considérablement la compréhension du phénomène en révélant les dynamiques qui le constituent et les enjeux qu’il soulève. Aussi, leur prise en compte par les décideurs et les chercheurs a-t-elle le potentiel de faire progresser les pratiques vers une intégration accrue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse vise à mieux comprendre le rôle du facteur de transcription Nur77 au sein des fonctions physiologiques et pathologiques des voies de neurotransmission dopaminergiques des gaglions de la base. Nous basant sur une implication motrice de Nur77 au sein des dyskinésies induites à la L-DOPA (LIDs), nous avons voulu tester in vivo son implication éventuelle dans les phénomènes moteurs et de sensibilisation associés à l’amphétamine ainsi qu’une implication possible du récepteur nucléaire aux rétinoïdes RXR dont nous avons déjà démontré une implication dans les effets moteurs des antipsychotiques. Un deuxième volet de la recherche à consisté en l’étude de l’implication des extracellular signal-regulated kinase (ERK) et de la protéine kinase C (PKC) dans l’induction de l’ARNm des membres de la famille des Nurs suite à l’activation des cascades de signalisation des récepteurs dopamiergiques D1 et D2 in vivo pour une meilleure compréhension des mécanismes physiopatholoiques liés aux désordres dopaminergiques. Pour ce faire, nous avons, premièrement, soumis des souris sauvages et Nur77-/- à un paradigme de sensibilisation à l’amphétamine ainsi qu’a différents agonistes antagonistes RAR/RXR afin de tester l’implication de Nur77 et d’un éventuel complexe Nur77/RXR dans les effets de l’amphétamine. Deuxièmement, soumis des souris sauvages à une combinaison d’agonistes D1/D2 ou une injection d’antagoniste D2 avec ou sans inhibiteur (ERK1/2 ou PKC) afin de tester l’implication de ces kinases sur l’induction de l’ARNm des membres de la famille des Nurs par hybridation in situ. Nous avons ainsi pu démontrer 1- un rôle moteur de Nur77 dans les effets liés à l’amphétamine notamment avec une absence de stéréotypies et un allongement de la durée de la phase de locomotion chez les souris Nur77-/-; ainsi qu’un rôle éventuel du complexe potentiel Nur77/RXR dans les D1 à mieux définir. 2- un rôle des kinases ERKs et PKCs dans les cascades de signalisation des récepteurs dopaminergiques D1 et D2 menant à l’induction des ARNms de Nur77, Nor-1 et Nurr-1. En perspective, ces résultats nous ouvrent la voie vers une implication éventuelle de Nur77 dans les mécanismes d’apprentissage que sont le Long Terme Potentiation (LTP) et la Long Terme Depotentialisation (LTD) liés aux LIDs et à l’amphétamine.