964 resultados para statistic


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le supplément d’oxygène et la nutrition parentérale (NP) sont les deux sources majeures de stress oxydant chez le nouveau-né. Lors de la détoxification des oxydants, le potentiel redox du glutathion s’oxyde. Notre hypothèse est que le supplément d’oxygène et la durée de la NP sont associés à un potentiel redox plus oxydé et à une augmentation de la sévérité de la dysplasie bronchopulmonaire (DBP). Patients et Méthodes: Une étude observationnelle prospective incluant des enfants de moins de 29 semaines d’âge gestationnel. Les concentrations sanguines de GSH et GSSG à jour 6-7 et à 36 semaines d’âge corrigé étaient mesurées par électrophorèse capillaire et le potentiel redox était calculé selon l’équation de Nernst. La sévérité de la DBP correspondait à la définition du NICHD. Résultats: Une FiO2≥ 25% au 7ième jour de vie ainsi que plus de 14 jours de NP sont significativement associés à un potentiel redox plus oxydé et à une DBP plus sévère. Ces relations sont indépendantes de l’âge de gestation et de la gravité de la maladie initiale. La corrélation entre le potentiel redox et la sévérité de la DBP n’est pas significative. La durée de la NP était responsable de 15% de la variation du potentiel redox ainsi que de 42% de la variation de la sévérité de la DPB. Conclusion: Ces résultats suggèrent que l’oxygène et la NP induisent un stress oxydant et que les stratégies visant une utilisation plus judicieuse de l’oxygène et de la NP devraient diminuer la sévérité de la DBP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : Cette thèse a pour but de préciser les mécanismes neuropsychologiques de la douleur, de la régulation endogène de la douleur et de l'hypoalgésie induite psychologiquement (HIP) par la synthèse de près de trente ans de recherche imagerie cérébrale fonctionnelle. Méthodologie : Étant donné l'abondance des études sur le sujet et le manque d'intégration de leurs résultats, la technique de métaanalyse quantitative basée sur les coordonnées d'activation cérébrale fut privilégiée dans cette thèse, telle qu’implémentée dans l'algorithme ALE (Activation Likelyhood Estimate). Une force supplémentaire de cette thèse repose sur la rigueur du processus de sélection des articles. En effet, les études incluses dans les métaanalyses devaient satisfaire des critères stricts d'inclusion, ceci dans le but de favoriser la précision et la validité des conclusions subséquentes. Étude 1 : Le premier article visait à identifier les aires cérébrales impliquées dans la réduction de la douleur par des méthodes psychologiques d'interventions. Les articles retenus portent sur une variété de méthodes d'intervention, telles que le placebo, l'hypnose, la méditation, la perception de contrôle sur la stimulation douloureuse et l'induction d'émotions. Les résultats indiquent que l'HIP implique un vaste réseau d'activation qui comprend le cortex cingulaire antérieur, l'insula antérieure, les zones orbitofrontale et préfrontale latérale, ainsi que les régions pariétale, temporale et souscorticales. Ces activations reflèteraient l'implication des mécanismes neuropsychologiques cognitifs et émotionnels sous-tendent les interventions psychologiques ciblées par ces études, incluant la conscience de soi et la motivation. De plus, les divergences de patron d'activation entre les approches ont été explorées, notamment pour le placebo et la distraction. Étude 2 : Le deuxième article a identifié des patrons d'activations préférentiellement associés à la perception de la douleur, à l'HIP, ainsi que des activations communément associées à la douleur et l'HIP. Les résultats indiquent que 1) la perception de la douleur est associée à l'activation d'aires somatosensorielles et motrices, ce qui pourrait être le reflet de la préparation d'une action adaptative, 2) l'HIP est liée à l'engagement de régions préfrontales antéromédianes et orbitales, possiblement en lien avec des processus motivationnels et émotionnels, et 3) la douleur et l'HIP sont associés à l'activation d'aires préfrontales dorsolatérales, de l'insula antérieure et du cortex cingulaire moyen, ce qui pourrait refléter l'engagement spontané pendant la douleur de mécanismes endogènes de régulation descendante. Conclusion : Par ces études, cette thèse fait le point sur les mécanismes cérébraux impliqués différentiellement dans la perception de la douleur, dans sa régulation endogène et dans l'hypoalgésie induite psychologiquement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

n this paper, a time series complexity analysis of dense array electroencephalogram signals is carried out using the recently introduced Sample Entropy (SampEn) measure. This statistic quantifies the regularity in signals recorded from systems that can vary from the purely deterministic to purely stochastic realm. The present analysis is conducted with an objective of gaining insight into complexity variations related to changing brain dynamics for EEG recorded from the three cases of passive, eyes closed condition, a mental arithmetic task and the same mental task carried out after a physical exertion task. It is observed that the statistic is a robust quantifier of complexity suited for short physiological signals such as the EEG and it points to the specific brain regions that exhibit lowered complexity during the mental task state as compared to a passive, relaxed state. In the case of mental tasks carried out before and after the performance of a physical exercise, the statistic can detect the variations brought in by the intermediate fatigue inducing exercise period. This enhances its utility in detecting subtle changes in the brain state that can find wider scope for applications in EEG based brain studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Futures trading in Commodities has three specific economic functions viz. price discovery, hedging and reduction in volatility. Natural rubber possesses all the specifications required for futures trading. Commodity futures trading in India attained momentum after the starting of national level commodity exchanges in 2003. The success of futures trading depends upon effective price risk management, price discovery and reduced volatility which in turn depends upon the volume of trading. In the case of rubber futures market, the volume of trading depends upon the extent of participation by market players like growers, dealers, manufacturers, rubber marketing co-operative societies and Rubber Producer’s Societies (RPS). The extent of participation by market players has a direct bearing on their awareness level and their perception about futures trading. In the light of the above facts and the review of literature available on rubber futures market, it is felt that a study on rubber futures market is necessary to fill the research gap, with specific focus on (1) the awareness and perception of rubber futures market participants viz. (i) rubber growers, (ii) dealers, (iii) rubber product manufacturers, (iv) rubber marketing co-operative societies and Rubber Producer’s Societies (RPS) about futures trading and (2) whether the rubber futures market is fulfilling the economic functions of futures market viz. hedging, reduction in volatility and price discovery or not. The study is confined to growers, dealers, rubber goods manufacturers, rubber marketing co-operative societies and RPS in Kerala. In order to achieve the stated objectives, the study utilized secondary data for the period from 2003 to 2013 from different published sources like bulletins, newsletters, circulars from NMCE, Reserve Bank of India (RBI), Warehousing Corporation and traders. The primary data required for this study were collected from rubber growers, rubber dealers, RPS & Rubber Marketing Co-operative Societies and rubber goods manufacturers in Kerala. Data pertaining to the awareness and perception of futures trading, participation in the futures trading, use of spot and futures prices and source of price information by dealers, farmers, manufacturers and cooperative societies also were collected. Statistical tools used for analysis include percentage, standard deviation, Chi-square test, Mann – Whitney U test, Kruskal Wallis test, Augmented Dickey – Fuller test statistic, t- statistic, Granger causality test, F- statistic, Johansen co – integration test, Trace statistic and Max –Eigen statistic. The study found that 71.5 per cent of the total hedges are effective and 28.5 per cent are ineffective for the period under study. It implies that futures market in rubber reduced the impact of price risks by approximately 71.5 per cent. Further, it is observed that, on 54.4 per cent occasions, the futures market exercised a stabilizing effect on the spot market, and on 45.6 per cent occasions futures trading exercised a destabilizing effect on the spot market. It implies that elasticity of expectation of futures market in rubber has a predominant stabilizing effect on spot prices. The market, as a whole, exhibits a bias in favour of long hedges. Spot price volatility of rubber during futures suspension period is more than that of the pre suspension period and post suspension period. There is a bi-directional association-ship or bi-directional causality or pair- wise causality between spot price and futures price of rubber. From the results of the hedging efficiency, spot price volatility, and price discovery, it can be concluded that rubber futures market fulfils all the economic functions expected from a commodity futures market. Thus in India, the future of rubber futures is Bright…!!!

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Agricultural development has not yet created empowered farmers in Indonesia. Most farmers living in eastern Indonesia are peasants with low access to development resources. This condition causes most of the peasants to be classified as poor citizens. This research was meant to formulate improvement strategies for empowerment of the peasants. The data were collected between March – May 2012 using the following methods: observation, interview and focus group discussion. The data was analysed using descriptive statistic and structural equation modelling (SEM) and showed that: (1) the empowerment of peasants was within the lowest category for all variables, namely: the peasant characteristics, the role of the agents for development, program quality, the learning process and access to environmental support, (2) the determining factors affecting the empowerment of the peasants were: program implementation quality, the role of the agents of development, environmental access and support, the peasant characteristics, and the appropriateness of the learning process and (3) the strategy to improve empowerment of the peasants could be through corrective efforts towards program implementation quality, the role of facilitators, environmental access and support while considering the peasant characteristics and the learning process of the peasants.