341 resultados para Taille d’échantillon

em Université de Montréal, Canada


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le béryllium (Be) est un métal dont les propriétés physiques et mécaniques sont très recherchées, notamment dans les secteurs spatial, énergétique et électronique. Les principaux effets associés à l’exposition au Be sont la sensibilisation et la bérylliose chronique. La prévalence des effets associés au Be suggère que les risques sont, entre autres, fonction de sa spéciation. Par ailleurs, il semble que les particules fines constituent la fraction d’intérêt pour l’occurrence de tels effets. Dans cette étude nous avons vérifié l’hypothèse que la forme chimique et la taille des particules du Be jouent un rôle majeur au niveau de la toxicité et de l’apparition d’effets spécifiques à une exposition au Be. Les effets spécifiques se traduisent, entre autres, par la formation de granulomes inflammatoires pulmonaire, par la prolifération de lymphocytes TCD4+ et la production de cytokines de type Th1. Pour chacune des trois formes chimiques visées par la présente étude (le Be métallique ou Be, l’oxyde de Be ou BeO et l’alliage Be aluminium ou BeAl), la toxicité a été évaluée à la suite d’une exposition subchronique par inhalation oro-nasale à des particules fines (F) et totales (T). À cette fin, un modèle animal (souris) a été utilisé. Au total, 245 souris ont été utilisées. Elles ont été subdivisées en sept groupes de 35 souris. Un groupe a servi de contrôle, alors que chacun des six autres a été exposé soit à des particules fines soit à des particules totales, pour chacune des trois formes chimiques de Be (Be-F, Be-T, BeO-F, BeO-T, BeAl-F, BeAl-T). La durée d’exposition pour chacun des groupes s’est étendue sur 3 semaines, 5 jours par semaine, 6 heures par jour. Le niveau d’exposition des souris était de 250 µg/m3. L‘urine des souris a été recueillie avant et durant l’exposition. Au moment du sacrifice, plusieurs tissus (poumon, rate, foie et reins) ainsi que des échantillons de sang ont été prélevés puis immédiatement congelés jusqu’à leur analyse pour la détermination de leur teneur en Be. De plus, certains poumons et rates ont été analysés pour l’évaluation de la sensibilité immunologique et de l'inflammation pulmonaire. Cette étude d’exposition subchronique est la première étude murine qui étudie les effets toxiques de différentes tailles particulaires sur les changements pathologique et immunologique similaires à ceux observés chez l’humain. Cette étude a permis de constater qu’il existait des différences importantes au niveau de la toxicité du Be d’après les différentes tailles particulaires à l’étude. Ces différences seraient reliées au dépôt des particules de Be dans les voies respiratoires et également à la capacité des voies respiratoires à les éliminer totalement ou partiellement. La clairance respiratoire est fonction, notamment, du site de déposition et du caractère soluble ou non des particules. Cette recherche aura également permis de démontrer que les souris C3H/HeJ représentent un bon modèle pour l’étude des effets toxicologiques et immunologiques d’une exposition au Be. De plus, nos résultats démontrent que la sévérité des lésions pulmonaires causées par le Be, tel que l’infiltration interstitielle de lymphocytes et la formation de granulomes non-caséeux, augmente avec le temps de résidence pulmonaire des particules de Be. Combinés à d’autres résultats, nos résultats contribueront à guider les actions de prévention relativement à l’exposition au Be, incluant éventuellement la révision de la valeur limite de l’exposition et possiblement l’établissement de valeurs limites en fonction de la forme chimique et de la taille des particules.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En raison de leur petite taille, les nanoparticules (NP) (< 100 nm) peuvent coaguler très rapidement ce qui favorise leur pénétration dans l’organisme sous forme d’agglomérats. L’objectif de cette recherche est d’étudier l’influence de l’état d’agglomération de NP de dioxyde de titane (TiO2) de trois tailles de départ différentes, 5, 10-30 ou 50 nm sur la toxicité pulmonaire chez le rat mâle (F344) exposé à des aérosols de 2, 7 ou 20 mg/m3 pendant 6 heures. Dans une chambre d’inhalation, six groupes de rats (n = 6 par groupe) ont été exposés par inhalation aiguë nez-seulement à des aérosols ayant une taille primaire de 5 nm, mais produits sous forme faiblement (< 100 nm) ou fortement (> 100 nm) agglomérée à 2, 7 et 20 mg/m3. De façon similaire, quatre autres groupes de rats ont été exposés à 20 mg/m3 à des aérosols ayant une taille primaire de 10-30 et 50 nm. Les différents aérosols ont été générés par nébulisation à partir de suspensions ou par dispersion à sec. Pour chaque concentration massique, un groupe de rats témoins (n = 6 par groupe) a été exposé à de l’air comprimé dans les mêmes conditions. Les animaux ont été sacrifiés 16 heures après la fin de l’exposition et les lavages broncho-alvéolaires ont permis de doser des marqueurs d’effets inflammatoires, cytotoxiques et de stress oxydant. Des coupes histologiques de poumons ont également été analysées. L’influence de l’état d’agglomération des NP de TiO2 n’a pu être discriminée à 2 mg/m3. Aux concentrations massiques de 7 et 20 mg/m3, nos résultats montrent qu’une réponse inflammatoire aiguë est induite suite à l'exposition aux aérosols fortement agglomérés. En plus de cette réponse, l’exposition aux aérosols faiblement agglomérés à 20 mg/m3 s’est traduite par une augmentation significative de la 8-isoprostane et de la lactate déshydrogénase. À 20 mg/m3, les effets cytotoxiques étaient plus importants suite à l’exposition aux NP de 5 nm faiblement agglomérées. Ces travaux ont montré dans l'ensemble que différents mécanismes de toxicité pulmonaire peuvent être empruntés par les NP de TiO2 en fonction de la taille de départ et de l’état d’agglomération.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’Urgence négative est un trait caractéristique du trouble de personnalité limite. Cependant ce modèle des traits ne permet pas d’expliquer les variétés des formes d’expression ni le niveau de sévérité de gestes impulsifs, qu’ils soient dirigés contre soi ou contre autrui. L’intégration du modèle des relations d’objet à celui des traits offre une meilleure compréhension de cette variabilité. Dans la théorie des relations d’objet, la diffusion de l’identité est spécifique aux organisations limites de la personnalité. Elle est caractérisée par un manque d’intégration des représentations de soi et d’autrui à cause d’une séparation excessive des affects positifs et négatifs investis dans les images de soi et d’autrui. Elle est associée à un manque d’intégration des structures psychiques du Moi et du Surmoi. Le niveau de l’intégration de l’identité agirait en modulant la relation en un trait d’urgence négative élevé et l’expression des gestes impulsifs. Cette étude, réalisée auprès d’étudiants, était la première à tester une telle hypothèse. Bien qu’elle n’ait pas permis de démontrer une telle relation de modération, compte tenu de certaines limites, il apparaît nécessaire de réévaluer ce modèle modérateur au sein d’un d’échantillon de plus grande taille.